Las fuerzas de defensa estadounidenses utilizaron inteligencia artificial creada por Anthropic en ataques aéreos contra Irán, pocas horas después de que el presidente estadounidense, Donald Trump, ordenara a las agencias federales que dejaran de trabajar con la empresa de tecnología, informó el Wall Street Journal.
El líder supremo de Irán, el ayatolá Ali Jamenei, murió en los ataques entre Estados Unidos e Israel, y los medios estatales confirmaron su muerte poco después del anuncio de Trump. Los informes indican que fue atacado en su oficina en Teherán la madrugada del sábado. En respuesta, Irán declaró un período de luto de 40 días y anunció siete días festivos.
Trump elogió el ataque como un acto de justicia e instó a las fuerzas iraníes a abstenerse de realizar más acciones. El primer ministro israelí, Benjamín Netanyahu, llamó al pueblo iraní a levantarse contra su régimen. Mientras tanto, la Guardia Revolucionaria ha prometido contraatacar mientras el país comienza su proceso de sucesión constitucional.
Importancia de Claude AI de Anthropic en medio de ataques a Irán
Según el informe del WSJ, que cita a personas familiarizadas con el asunto, el comando estadounidense utilizó la IA de Anthropic para evaluar la inteligencia, identificar objetivos y simular escenarios de combate.
Aplicar Claude a misiones tan críticas subraya que el modelo ya está arraigado en las operaciones militares estadounidenses, a pesar del deterioro significativo en las relaciones entre Anthropic y el Pentágono, según el informe, citando fuentes.
Claude había recibido previamente autorización para su despliegue en operaciones militares y de inteligencia clasificadas a través de colaboraciones con Palantir y Amazon Web Services. También se utilizó durante la operación para detener al entonces presidente venezolano, Nicolás Maduro, a principios de este año.
Lea también:
“>’Muerte a Estados Unidos e Israel’ resuena en Irán mientras se declaran 40 días de luto tras la muerte de Jamenei | Mejores fotos
¿Qué es el modelo de IA de Anthropic?
Según el WSJ, el modelo de inteligencia artificial de Anthropic se utilizó en la redada de enero en Caracas que resultó en la captura de Maduro y su posterior traslado a Nueva York para enfrentar cargos de tráfico de drogas. Maduro y su esposa fueron detenidos en Caracas tras el bombardeo de varios sitios por parte de las fuerzas de defensa estadounidenses.
¿Qué es el modelo de IA de Anthropic?
Según el WSJ, el modelo de inteligencia artificial de Anthropic se utilizó en la redada de enero en Caracas que resultó en la captura de Maduro y su posterior traslado a Nueva York para enfrentar cargos de tráfico de drogas. Maduro y su esposa fueron detenidos en Caracas tras el bombardeo de varios sitios por parte de las fuerzas de defensa estadounidenses.
Anthropic estaba entre un grupo selecto de destacados laboratorios de IA, incluidos OpenAI, Google y xAI, a los que el Pentágono les concedió contratos de varios años por valor de hasta 200 millones de dólares cada uno para proporcionar capacidades avanzadas de IA.
Lea también: Ver: Presentador de la televisión estatal iraní se desploma en el aire mientras anuncia la muerte de Jamenei: ‘Hoy los demonios…’
Todo sobre la orden de Trump de no utilizar la tecnología de Anthropic
La semana pasada, Trump pidió a todas las agencias federales que “dejen de usar inmediatamente” la tecnología de Anthropic, calificando a la compañía de “locas de izquierda” y acusándola de poner en peligro “vidas estadounidenses”.
Ordenó al Pentágono que clasificara a Anthropic como un “riesgo para la cadena de suministro” y comenzara un período de seis meses para eliminar gradualmente sus sistemas en varias agencias, incluido lo que llamó el “Departamento de Guerra”.
Las tensiones han aumentado en las últimas semanas tras el ultimátum del secretario de Defensa, Pete Hegseth, a Anthropic, exigiendo el uso irrestricto de sus herramientas de inteligencia artificial para cualquier aplicación militar “legal”. El director ejecutivo de Anthropic, Dario Amodei, ha rechazado públicamente las demandas de eliminar las salvaguardias contra ciertos usos, presentándolas como límites éticos que la empresa no violaría, ni siquiera a expensas de contratos gubernamentales.











