La demanda de Anthropic al gobierno de EEUU por la disputa sobre uso de su IA en Irán y Venezuela

Luis Alfredo Ledezma
5 Min de Lectura
5 Min de Lectura
El Pentágono declaró que Anthropic supone un riesgo para la cadena de suministro / Archivo

Anthropic abrió este lunes, 9 de marzo, un nuevo frente en la ya tensa disputa con el gobierno de Estados Unidos al presentar una demanda contra el Departamento de Defensa, luego de que la compañía fuera catalogada la semana pasada como “un riesgo para la cadena de suministro”.  

De acuerdo con CNBC y otros medios, la acción legal busca frenar lo que la empresa describe como una represalia política y un intento del Pentágono de forzar el acceso ilimitado a sus sistemas de inteligencia artificial, en un contexto marcado por operaciones militares recientes en Irán y Venezuela donde su tecnología habría sido utilizada sin autorización. 

LEA TAMBIÉN: EL PENTÁGONO ESTARÍA USANDO LA MISMA IA QUE SIRVIÓ PARA CAPTURAR A MADURO EN IRÁN A PESAR DEL VETO DE TRUMP

Como se sabe, el Pentágono sancionó la semana pasada a la empresa creadora de Claude, forzando a las compañías a dejar de usar a este proveedor. 

El presidente de Estados Unidos, Donald Trump, ordenó además a las agencias federales que dejen de utilizar Claude. Aunque concedió al Pentágono un plazo de seis meses para retirar progresivamente un producto profundamente integrado en varios sistemas militares clasificados, incluidos los que están siendo utilizados durante los bombardeos de Irán. 

«No creemos que esta decisión tenga base legal y no vemos otra opción que impugnarla ante los tribunales», escribió el consejero delegado de Anthropic, Dario Amodei.  

En concreto, en la demanda se pide a un juez que anule la etiqueta de «riesgo para la cadena de suministro» y prohíba a las agencias federales aplicarla. 

«La Constitución no permite al Gobierno utilizar su enorme poder para castigar a una empresa por una expresión amparada por la ley», señaló Anthropic en la demanda. 

«Recurrimos al poder judicial como último recurso para defender sus derechos y detener la ilegal campaña de represalias del poder ejecutivo». Así se agregó en el escrito.  

¿QUÉ ORIGINÓ EL CONFLICTO?  

La raíz del conflicto está en los límites éticos que Anthropic impone al uso de su tecnología. La empresa prohíbe expresamente que Claude sea empleado para vigilancia masiva de ciudadanos estadounidenses o para el desarrollo de armas totalmente autónomas.  

Según la demanda, altos funcionarios del Pentágono, incluido el secretario de Defensa Pete Hegseth, amenazaron con sanciones si la compañía no aceptaba flexibilizar estas restricciones. 

Anthropic es, hasta ahora, la única gran empresa de IA que se ha negado a integrarse en la nueva red interna de inteligencia militar estadounidense. 

La tensión aumentó aún más tras revelarse que Claude habría sido utilizado en operaciones militares recientes sin conocimiento de la empresa.  

Reportes citados por The Wall Street Journal indican que la IA de Anthropic se utilizó en el ataque masivo contra Irán. El mismo que terminó con la muerte del ayatolá Alí Jameneí. Se proporcionó –según esta fuente– de parte de la IA análisis de inteligencia, identificación de objetivos y simulaciones tácticas.  

Estados Unidos enfrenta una nueva controversia tecnológica y militar tras revelarse que el Pentágono habría utilizado la inteligencia artificial Claude, desarrollada por Anthropic, en un ataque masivo contra Irán apenas horas después de que el presidente estadounidense, Donald Trump ordenara suspender su uso en todas las agencias federales.  
EEUU está usando la IA de Claude en los ataques a Irán pese a haber sido vetada por Trump / Archivo

También aparentemente se usó en la operación que culminó con la captura de Nicolás Maduro en Caracas. Un episodio que, según el medio, detonó la presión del Pentágono para obtener control total sobre la tecnología. 

Anthropic asegura que nunca fue informada del uso de Claude en estas misiones. De confirmarse, constituiría una violación directa de sus políticas internas.  

En este sentido, la empresa insiste en que no permitirá que su tecnología sea empleada sin límites en contextos bélicos. Esto, independientemente de los resultados obtenidos en operaciones previas.  

Para la compañía, el caso no solo se trata de un conflicto contractual. También de la defensa de estándares éticos en el desarrollo de inteligencia artificial avanzada. 

ACUERDO CON EL GOBIERNO DE EEUU 

Esta empresa obtuvo un contrato de 200 millones de dólares del Departamento de Defensa estadounidense el pasado julio. En concreto, para desarrollar prototipos de capacidades punteras de inteligencia artificial que refuercen la seguridad nacional estadounidense. 

La compañía firmó un acuerdo de colaboración con Palantir Technologies, en 2024, para integrar Claude en el software de inteligencia estadounidense.

Compartir este artículo