El Pentágono habría usado IA Claude en operativo contra Maduro

El uso de la inteligencia artificial continúa expandiéndose hacia ámbitos cada vez más sensibles, y recientemente volvió al centro del debate tras reportes que indican que el modelo “Claude”, desarrollado por Anthropic, habría sido empleado en el operativo estadounidense que terminó con la captura de Nicolás Maduro en Caracas. La información, difundida por medios estadounidenses, ha encendido cuestionamientos sobre el papel de la IA en operaciones de seguridad nacional y sobre el futuro de la relación entre la empresa tecnológica y el Departamento de Defensa de Estados Unidos.

El posible uso del modelo de Anthropic reabre el debate sobre la IA en operaciones militares de Estados Unidos.

Según los informes, la operación fue ejecutada por fuerzas especiales de Estados Unidos y habría contado con herramientas de análisis apoyadas en inteligencia artificial para procesar información y coordinar tareas. Parte de esta infraestructura tecnológica estaría vinculada a sistemas de Palantir Technologies, compañía que mantiene una larga relación como proveedor del Pentágono y de otras agencias federales de seguridad.

Imagen ilustrativa generada por IA

Ni Anthropic ni el Departamento de Defensa confirmaron oficialmente la participación de Claude en la misión. Ambas partes se limitaron a señalar que no pueden comentar el uso de modelos específicos en operaciones concretas debido a los protocolos de confidencialidad. Un portavoz de la empresa reiteró que cualquier utilización de Claude —tanto en el sector privado como en el gubernamental— debe cumplir con sus políticas internas, que prohíben explícitamente facilitar violencia, desarrollar armamento o ejecutar tareas de vigilancia indebida.

Aun así, la mera posibilidad de que herramientas de IA avanzada estén siendo consideradas en contextos militares de alto nivel refleja un cambio estructural en la forma en que las potencias tecnológicas y militares conciben la inteligencia operativa. Para las compañías del sector, participar en proyectos de seguridad nacional supone un fuerte impulso de legitimidad y de ingresos, pero también abre un terreno ético complejo que ya está generando fricciones internas.

Dentro de la industria tecnológica han surgido voces críticas que advierten sobre el riesgo de priorizar la expansión comercial por encima del desarrollo responsable. Ejecutivos y trabajadores del sector han señalado que la rápida adopción de IA en entornos bélicos podría adelantarse a la creación de marcos regulatorios adecuados, lo que incrementa la presión sobre las empresas para definir límites claros.

Las tensiones también alcanzan el plano político. Funcionarios de la administración de Donald Trump habrían evaluado el futuro del contrato con Anthropic —valorado potencialmente en hasta 200 millones de dólares— debido a la postura de la empresa a favor de mayores salvaguardas en el uso de la inteligencia artificial. El director ejecutivo de Anthropic, Dario Amodei, se ha pronunciado públicamente en favor de establecer regulaciones más estrictas para evitar aplicaciones dañinas de esta tecnología.

Anthropic fue una de las primeras compañías de IA en obtener contratos para trabajos clasificados con el Departamento de Defensa, lo que la posicionó rápidamente en el competitivo mercado de soluciones de inteligencia artificial para defensa. Las capacidades de herramientas como Claude van desde la síntesis automatizada de documentos hasta el apoyo en la coordinación de sistemas autónomos, funciones que resultan especialmente atractivas para entornos militares y de inteligencia.

Imagen ilustrativa generada por IA

En paralelo, la competencia dentro del sector se intensifica. Grandes actores tecnológicos, incluidos proyectos vinculados a Google y OpenAI, buscan consolidarse como proveedores clave de soluciones basadas en IA para gobiernos y fuerzas armadas. Este escenario configura una carrera tecnológica en la que la velocidad de innovación y la confianza institucional se vuelven factores decisivos.

Durante una conferencia en enero, el secretario de Defensa, Pete Hegseth, dejó entrever la postura del Pentágono al afirmar que Estados Unidos no empleará modelos de IA que limiten su capacidad operativa en conflictos. La declaración reflejó los roces existentes con algunos desarrolladores que impulsan restricciones más estrictas sobre el uso de sus sistemas.

Las políticas internas de Anthropic establecen que Claude no debe utilizarse para acciones ofensivas, desarrollo de armas ni vigilancia sobre la población. Sin embargo, el contexto geopolítico y la presión por mantener ventaja tecnológica frente a rivales estratégicos continúan empujando la integración de inteligencia artificial en sistemas de defensa.

El contrato otorgado a la empresa el verano pasado permanece bajo escrutinio mientras las autoridades estadounidenses evalúan el equilibrio entre innovación, seguridad nacional y control ético. En este entorno, el caso se perfila como un nuevo episodio en la transformación de la guerra moderna, donde la inteligencia artificial deja de ser una promesa futura para convertirse en un componente cada vez más presente —y controvertido— de la arquitectura militar contemporánea.