En una medida que hace eco de su estilo característico de convertir los conflictos políticos en batallas públicas, el presidente estadounidense Donald Trump ha provocado una vez más una confrontación muy visible, esta vez con una empresa de inteligencia artificial con sede en Estados Unidos. antrópico de hecho, lo llamó “antipatriótico”.
El viernes, la administración Trump ordenó a las agencias federales que dejaran de usar las herramientas de inteligencia artificial de Anthropic y tomó medidas para imponer sanciones adicionales. El conflicto se centra en si los militares deberían tener acceso irrestricto a los sistemas de Anthropic y si esos sistemas pueden usarse para vigilancia masiva o para armas totalmente autónomas. Anthropic se negó a dar marcha atrás.
¿Qué desencadenó a Trump contra lo antrópico?
La disputa se intensificó después de que Anthropic pidiera al Pentágono lo que describió como “garantías limitadas”. La empresa quería garantías de que su chatbot de IA Claude no se utilizaría para la vigilancia masiva de estadounidenses ni en sistemas de armas totalmente autónomos.
El Pentágono respondió que no estaba interesado en tales usos y que sólo implementaría la tecnología legalmente. Sin embargo, también insistió en el acceso “sin ningún tipo de limitación”.
Anthropic dijo que el nuevo lenguaje del contrato permitiría “ignorar las garantías a voluntad”. El director ejecutivo, Dario Amodei, dijo que la empresa “no puede, en conciencia, conceder” estas solicitudes, informó Associated Press.
Esto no le cayó bien a Trump, quien abrazó Truth Social y escribió en mayúsculas: “¡Los Estados Unidos de América nunca permitirán que una izquierda radical y una sociedad despierta dicten cómo nuestros grandes militares luchan y ganan guerras!”. Añadió que Anthropic cometió un error al intentar fortalecer el Pentágono.
Anthropic traza una línea roja
En respuesta a la decisión de la administración, Anthropic emitió una declaración enérgica el viernes, hora local.
“Ninguna intimidación o sanciones por parte del Departamento de Guerra cambiará nuestra posición sobre la vigilancia interna masiva o las armas totalmente autónomas. Impugnaremos cualquier designación de riesgo de la cadena de suministro en los tribunales”, se lee en el comunicado de la compañía AI.
Explicó además por qué estaba trazando una línea roja. “En primer lugar, no creemos que los modelos de IA actuales sean lo suficientemente fiables como para ser utilizados en armas totalmente autónomas. Permitir que los modelos actuales se utilicen de esta manera pondría en riesgo a los combatientes y civiles estadounidenses”.
“En segundo lugar, creemos que la vigilancia interna masiva de los estadounidenses constituye una violación de los derechos fundamentales”, añadió Anthropic.
También se opuso a la etiqueta de “riesgo de la cadena de suministro” de la administración.
“Designar a Anthropic como un riesgo para la cadena de suministro sería una acción sin precedentes: una acción históricamente reservada para los adversarios de Estados Unidos, que nunca antes se había aplicado públicamente a una empresa estadounidense. »
Calificando tal medida como problemática tanto legal como históricamente, la compañía advirtió que “la designación estaría legalmente infundada y sentaría un precedente peligroso para cualquier compañía estadounidense que negocie con el gobierno”.
Ataque de Trump y Hegseth
El presidente Trump habló con Truth Social y dijo que el gobierno ya no necesita los servicios de la empresa.
“¡No los necesitamos, no los queremos y no volveremos a hacer negocios con ellos!”
Ordenó a la mayoría de las agencias que dejaran de usar inmediatamente la IA de Anthropic, aunque al Pentágono se le dieron seis meses para eliminar gradualmente la tecnología ya integrada en los sistemas militares.
También advirtió a la empresa que “es mejor que se unan y sean útiles” durante el período de eliminación gradual o enfrentarán “importantes consecuencias civiles y penales”.
El secretario de Defensa, Pete Hegseth, fue más allá y calificó a Anthropic como un “riesgo para la cadena de suministro”.
Hegseth dijo que el Pentágono “debe tener acceso total y sin restricciones a los modelos de Anthropic para cada objetivo de defensa de LEGAL Republic”.
El portavoz del Pentágono, Sean Parnell, también intervino y dijo que la posición de Anthropic “ponía en peligro operaciones militares críticas y potencialmente ponía en riesgo a nuestros combatientes”.
La disputa aturde a Silicon Valley: Musk y Altman reaccionan
Ejecutivos, capitalistas de riesgo e investigadores de inteligencia artificial (incluidos empleados de la competencia) han expresado su apoyo a la posición de Amodei. El debate se ha extendido a cartas abiertas y foros públicos.
Elon Musk se puso del lado de la administración y escribió en X que “el antrópico odia la civilización occidental”. Se espera que el chatbot de su empresa, Grok, obtenga acceso a redes militares clasificadas, una medida que podría beneficiarse de la salida de Anthropic.
Por el contrario, Sam Altman, director ejecutivo de OpenAI y ex colega de Amodei, apoyó públicamente las líneas rojas de Anthropic.
“A pesar de todas las diferencias que tengo con Anthropic, confío principalmente en ellos como empresa y creo que realmente se preocupan por la seguridad”, dijo Altman a CNBC. También cuestionó lo que describió como el enfoque “amenazante” del Pentágono.
Sin embargo, la disputa parece haberle abierto la puerta a un rival. OpenAI ha llegado a un acuerdo para desplegar sus modelos de IA dentro de la red clasificada del Departamento de Guerra de EE. UU., dijo el sábado el director ejecutivo Sam Altman en una publicación.











