Anthropic demandó al Pentágono y a otras agencias federales por haberla calificado como un “riesgo para la cadena de suministro”, luego de que la startup de IA insistiera en que las Fuerzas Armadas de EEUU aceptaran límites al uso de su tecnología.
En una presentación judicial realizada el lunes, la empresa pidió a un tribunal federal en California que declarara esa designación -normalmente reservada para proveedores chinos y rusos- como “arbitraria” y “caprichosa”. También solicitó a un juez bloquear a la administración de Trump para que no la implemente.
El gobierno de EEUU estaba “buscando destruir el valor económico creado por una de las compañías privadas de más rápido crecimiento en el mundo, que es líder en el desarrollo responsable de una tecnología emergente de importancia vital para nuestra nación”, escribieron los abogados de la firma.
“La reputación de Anthropic y sus libertades fundamentales amparadas por la Primera Enmienda están siendo atacadas”, agregaron.
La demanda marca una escalada en una disputa que ya llevaba semanas entre Anthropic y el Pentágono por el uso militar de su tecnología de IA.
Funcionarios de defensa buscaban amplios derechos para desplegar los modelos de la empresa, mientras Anthropic insistía en imponer resguardos que, según decía, eran necesarios para evitar abusos. Ese desacuerdo terminó por hacer fracasar las negociaciones y llevó a que la startup fuera declarada un riesgo para la cadena de suministro.
La designación, que se formalizó la semana pasada, obliga a las compañías a excluir a Anthropic de sus cadenas de suministro en contratos militares. El Presidente Trump también exigió que las agencias federales dejaran de usar la tecnología de la compañía.
Sin embargo, la startup afirmó que “la gran mayoría” de sus clientes no se vería afectada. Tres de sus socios clave -Amazon, Microsoft y Google- dijeron que mantendrían sus vínculos con Anthropic fuera del trabajo relacionado con defensa.
En su demanda, Anthropic citó una publicación en redes sociales de Donald Trump, en la que la calificó como una empresa de IA “descontrolada” y de la izquierda radical, así como una publicación del secretario de Defensa, Pete Hegseth, en la que la acusó de “traición”.
La startup, valorada en US$ 380 mil millones, se negó a firmar un contrato abierto con el Departamento de Defensa, con su director ejecutivo, Dario Amodei, aferrándose a dos “líneas rojas” que prohibían el uso de su tecnología para armas autónomas letales y para vigilancia masiva doméstica.
Según la presentación judicial, Hegseth “comenzó a exigir que Anthropic eliminara por completo sus restricciones de uso y las reemplazara por una política general bajo la cual el Departamento pudiera hacer ‘todo uso legal’ de la tecnología”.
Amodei dijo que no podía aceptar esas condiciones “en buena conciencia”, lo que detonó una ruptura explosiva en las negociaciones entre Anthropic y el Pentágono.
Operaciones clasificadas
Actualmente, Claude, de Anthropic, es el único modelo de IA que se utiliza en operaciones clasificadas, aunque su rival OpenAI cerró a fines del mes pasado un acuerdo con el Pentágono para que sus modelos sean usados en las misiones más sensibles.
El creador de ChatGPT también ha enfrentado resistencia interna de empleados por el uso de su tecnología para “todos los fines legales”.
Caitlin Kalinowski, quien lideró el equipo de hardware de OpenAI, anunció su renuncia a la compañía durante el fin de semana, citando preocupaciones por el uso de la IA para vigilancia y armas autónomas letales.
El Pentágono señaló: “Como política del Departamento de Guerra, no comentamos litigios”.