A medida que el ejército estadounidense utiliza cada vez más herramientas de inteligencia artificial para identificar objetivos de ataques aéreos en Irán, los miembros del Congreso piden salvaguardias y una mayor supervisión del uso de la tecnología en la guerra.
Dos personas con conocimiento del asunto, que solicitaron el anonimato para discutir temas delicados, confirmaron que el ejército está utilizando sistemas de inteligencia artificial de la empresa de análisis de datos Palantir para identificar objetivos potenciales en ataques en curso. El uso del software de Palantir, que se basa en parte en los sistemas Claude AI de Anthropic, se produce mientras el Secretario de Defensa, Pete Hegseth pretende poner la inteligencia artificial en el centro de las operaciones de combate estadounidenses, y mientras chocaba con líderes antropogénicos por las limitaciones del uso de la IA.
Sin embargo, a medida que la IA desempeña un papel más importante en el campo de batalla, los legisladores exigen mayor atención a las protecciones que deberían regir su uso y una mayor transparencia sobre el grado de control cedido a la tecnología.
“Necesitamos una revisión exhaustiva e imparcial para determinar si la IA alguna vez ha dañado o puesto en peligro vidas en la guerra con Irán”, dijo a NBC News la representante Jill Tokuda, demócrata por Hawaii, miembro del Comité de Servicios Armados de la Cámara de Representantes, en respuesta a preguntas sobre el uso y la confiabilidad de la IA en contextos militares. “El juicio humano debe permanecer en el centro de las decisiones de vida o muerte. »
El Departamento de Defensa y las principales empresas de inteligencia artificial, como OpenAI y Anthropic, han declarado públicamente que los sistemas de inteligencia artificial actuales no deberían ser capaces de matar sin la aprobación humana. Pero la preocupación persiste: depender de la IA para partes de sus operaciones o la toma de decisiones puede provocar errores en las operaciones militares.
El portavoz jefe del Pentágono, Sean Parnell, dijo en un artículo sobre El 26 de febrero, los militares “no quisieron utilizar la IA para desarrollar armas autónomas que funcionen sin intervención humana”.
El Departamento de Defensa no respondió a las preguntas sobre cómo el ejército equilibra el uso de la IA para reducir la carga de trabajo humana mientras verifica la precisión de los análisis y las sugerencias de objetivos.
Los legisladores y expertos independientes que hablaron con NBC News expresaron su preocupación por el uso de tales herramientas por parte de los militares y pidieron salvaguardias claras para garantizar que los humanos sigan involucrados en las decisiones de vida o muerte en el campo de batalla.
“Las herramientas de inteligencia artificial no son 100% confiables; pueden fallar de manera sutil y, sin embargo, los operadores continúan confiando demasiado en ellas”, dijo la representante Sara Jacobs, demócrata por California, miembro del Comité de Servicios Armados de la Cámara de Representantes.
“Tenemos la responsabilidad de hacer cumplir estrictas salvaguardias sobre el uso de la IA por parte de los militares y garantizar que un ser humano esté informado sobre cada decisión de usar fuerza letal, porque el costo del error podría ser devastador para los civiles y el personal militar que lleva a cabo estas misiones”, dijo.
Claude de Anthropic se convirtió en una parte crucial del programa de análisis de inteligencia Maven de Palantir, que también se utilizó en la operación estadounidense para capturar al presidente venezolano Nicolás. Maduro. La noticia del papel de Claude en las recientes acciones militares fue reportada por primera vez por El diario de Wall Street Y El Correo de Washington.
Pero ese papel se complicó por el conflicto entre Anthropic y Hegseth después de que la compañía intentara impedir que los militares usaran su IA para vigilancia doméstica y armas autónomas letales. La semana pasada, el Departamento de Defensa calificó a Anthropic como una amenaza a la seguridad nacional, una medida que amenaza con retirarlo del uso militar en los próximos meses. Anthropic presentó una demanda para luchar contra la designación.
Anthropic se negó a hacer comentarios. Palantir no respondió a una solicitud de comentarios.
en un vídeo publicado en El miércoles, el almirante Brad Cooper, jefe del Comando Central de Estados Unidos, reconoció que la IA se había convertido en una herramienta clave para ayudar a Estados Unidos a elegir objetivos en Irán.
“Nuestros combatientes aprovechan una variedad de herramientas avanzadas de inteligencia artificial. Estos sistemas nos ayudan a examinar grandes cantidades de datos en segundos para que nuestros líderes puedan destacarse y tomar decisiones más inteligentes más rápido de lo que el enemigo puede reaccionar”, dijo.
“Los humanos seguirán tomando las decisiones finales sobre qué filmar, qué no filmar y cuándo filmar, pero las herramientas avanzadas de inteligencia artificial pueden transformar en segundos procesos que antes tomaban horas, o incluso días”.
La administración Trump ha adoptado públicamente esta tecnología tanto para los militares Y en todo el gobierno.
El representante Pat Harrigan, republicano por Carolina del Norte, dijo que la IA ya se ha vuelto crucial para el procesamiento rápido de la inteligencia militar, incluso en Irán.
“La IA es una herramienta que ayuda a nuestros combatientes a procesar enormes cantidades de datos más rápido que cualquier humano por sí solo, y lo que vimos durante la Operación Furia Épica, más de 2.000 objetivos alcanzados con notable precisión, es un testimonio de cómo estas capacidades se pueden utilizar de manera responsable y efectiva”, dijo Harrigan, quien también forma parte del Comité de Servicios Armados de la Cámara de Representantes, en un comunicado a NBC News.
“Pero ningún sistema de IA reemplaza el juicio, el entrenamiento y la experiencia del combatiente estadounidense. La participación humana no es una formalidad, es un requisito, y nada en la forma en que opera nuestro ejército sugiere lo contrario”, dijo.
Aunque ningún legislador contactado por NBC News dijo que la IA debería eliminarse por completo del uso militar, algunos dijeron que se necesita una mayor supervisión.
La senadora Elissa Slotkin, demócrata de Michigan, miembro del Comité de Servicios Armados del Senado, dijo que el Departamento de Defensa no ha hecho lo suficiente para aclarar hasta qué punto los humanos controlan la inteligencia militar generada o asistida por IA.
“Realmente depende de los humanos, y en este caso del Secretario de Defensa, garantizar que haya redundancia humana en el futuro cercano, y eso es en lo que simplemente no confiamos”, dijo.
El senador Mark Warner, demócrata por Virginia, el principal demócrata en el Comité de Inteligencia del Senado, dijo que estaba preocupado por el uso de IA por parte de los militares para ayudar a identificar objetivos y que seguían sin respuesta preguntas sobre cómo se utilizaba la nueva tecnología. “Este problema debe resolverse”, dijo a NBC News.
OpenAI y Anthropic, que han trabajado con el ejército estadounidense, han dicho que incluso sus sistemas más avanzados son propensos a errores, y los principales investigadores de IA del mundo admiten que no comprenden completamente cómo funcionan los principales sistemas de IA.
en un entrevista con NBC El mes pasado, el director ejecutivo de Anthropic, Dario Amodei, dijo: “No puedo decirles que haya un 100 por ciento de posibilidades de que incluso los sistemas que construimos sean completamente confiables”. »
Un importante estudio sobre OpenAI publicado en septiembre descubrió que todos los principales chatbots de IA, que se basan en sistemas llamados grandes modelos de lenguaje, periódicamente “alucinan” o fabrican respuestas.
La senadora Kirsten Gillibrand, demócrata por Nueva York, pidió reglas más claras sobre cómo los militares pueden usar la IA.
“La administración Trump ya ha demostrado que está dispuesta a alterar la ley estadounidense para librar una guerra impopular”, dijo a NBC News. “Hay pocas razones para creer que el Departamento de Defensa será más responsable en el uso de la IA sin salvaguardias explícitas”.
Mark Beall, jefe de asuntos gubernamentales de AI Policy Network, un grupo de expertos de Washington DC, y director de estrategia y política de IA en el Pentágono de 2018 a 2020, dijo que si bien la IA podía agilizar el proceso de decidir dónde atacar, estaba claro que los humanos todavía necesitaban examinar los objetivos.
“Hay muchos pasos antes de apretar el gatillo. Los sistemas de inteligencia artificial se están implementando de manera muy efectiva para acelerar los flujos de trabajo existentes y permitir capacidades de toma de decisiones mejores y más rápidas para los comandantes, analistas y planificadores”, añadió. “Pero cuando se trata de desplegar sistemas de armas, esta tecnología aún no está lista”.
“Estos sistemas serán realmente muy capaces y, a medida que otros adversarios comiencen a usarlos, habrá cada vez más presión para acortar la revisión de los resultados de la IA para operar a velocidades útiles y eficientes”, dijo Beall. “Necesitamos descubrir cómo resolver este problema de confiabilidad antes de llegar allí. No importa lo que se piense sobre las armas autónomas letales, hacerlas seguras y efectivas redunda en el interés de todo el mundo”.
Heidy Khlaaf, científica jefe del AI Now Institute, una organización sin fines de lucro que aboga por el uso ético de la tecnología, dijo que le preocupa que depender de la IA para procesar rápidamente la información necesaria para tomar decisiones de vida o muerte pueda ser una forma de que los militares eviten la responsabilidad por sus errores.
“Es muy peligroso que aquí se nos presente la ‘velocidad’ como estratégica, cuando en realidad sirve como tapadera para ataques indiscriminados, considerando la inexactitud de estos modelos”, dijo Khlaaf.












