Una confrontación pública entre la administración Trump y Anthropic llega a un punto muerto cuando los oficiales militares exigen La empresa de inteligencia artificial cambia sus políticas éticas antes del viernes o corre el riesgo de dañar su negocio.
El director general de Anthropic, Dario Amodei, trazó una clara línea roja 24 horas antes de la fecha límite, diciendo que su empresa “no puede, en conciencia, acceder” a la petición final del Pentágono de permitir el uso sin restricciones de su tecnología.
Anthropic, creador del chatbot Claude, puede permitirse el lujo de perder un contrato de defensa. Pero el ultimátum del Secretario de Defensa Pete Hegseth esta semana planteó riesgos más amplios en el apogeo del meteórico ascenso de la compañía desde un poco conocido laboratorio de investigación informática en San Francisco hasta una de las nuevas empresas más valiosas del mundo.
Si Amodei no cede, los funcionarios militares han advertido que no sólo retirarán el contrato de Anthropic sino que también “los considerarán un riesgo para la cadena de suministro”, una designación que normalmente se aplica a los adversarios extranjeros y que podría descarrilar las asociaciones críticas de la compañía con otras empresas.
Y si Amodei cede, podría perder confianza en el floreciente sector de la IA, especialmente en los mejores talentos atraídos por la empresa por sus promesas de construir responsablemente una IA mejor que la humana que, sin salvaguardias, podría plantear riesgos catastróficos.
Anthropic dijo que había pedido al Pentágono garantías estrictas de que Claude no sería utilizado para vigilancia masiva de estadounidenses o en armas totalmente autónomas. Pero después de meses de discusiones privadas que llevaron a un debate público, la compañía dijo en un comunicado el jueves que el nuevo texto del contrato “pretendía ser un compromiso y estaba asociado con una jerga legal que permitiría ignorar estas garantías a voluntad”.
Esto fue después de que Sean Parnell, el principal portavoz del Pentágono, publicara en las redes sociales que “no permitiremos que NINGUNA compañía dicte los términos de cómo tomamos decisiones operativas” y agregó que la compañía tenía “hasta las 5:01 p.m. ET del viernes para decidir” si respondería a las solicitudes o enfrentaría las consecuencias.
Emil Michael, subsecretario de Defensa para Investigación e Ingeniería, arremetió más tarde contra Amodei, alegando que
Ese mensaje no resonó en gran parte de Silicon Valley, donde un número creciente de trabajadores tecnológicos de los principales rivales de Anthropic, OpenAI y Google, expresaron su apoyo a la posición de Amodei en una carta abierta el jueves.
OpenAI y Google, así como xAI de Elon Musk, también tienen contratos para suministrar sus modelos de IA al ejército.
“El Pentágono está negociando con Google y OpenAI para intentar que acepten lo que Anthropic se ha negado”, decía la carta abierta. “Están tratando de dividir cada empresa, para que la otra no ceda”.
Legisladores republicanos y demócratas, así como un exjefe de iniciativas de inteligencia artificial del Departamento de Defensa, también han expresado su preocupación por el enfoque del Pentágono.
“Darle a Anthropic un objetivo aparece en los titulares, pero al final todos pierden”, escribió el general retirado de la Fuerza Aérea Jack Shanahan en una publicación en las redes sociales.
Shanahan enfrentó otra ola de oposición de los trabajadores tecnológicos durante la primera administración Trump cuando dirigió Maven, un proyecto para utilizar tecnología de inteligencia artificial para analizar imágenes de drones y apuntar armas. En ese momento, muchos empleados de Google protestaron por su participación en el Proyecto Maven, hasta el punto de que el gigante tecnológico se negó a renovar el contrato. comprometido a no utilizar IA en armamentos.
“Desde que estaba en medio del proyecto Maven & “Google, es seguro asumir que me pondría del lado del Pentágono”, escribió Shanahan en las redes sociales el jueves. “Aun así, simpatizo con la posición de Anthropic. Incluso más que en Google en 2018”.
Dijo que Claude ya era ampliamente utilizado en todo el gobierno, incluso en entornos clasificados, y que las líneas rojas de Anthropic eran “razonables”. Dijo que los grandes modelos de lenguaje de IA que impulsan los chatbots como Claude tampoco están “listos para su uso en horario de máxima audiencia en contextos de seguridad nacional”, especialmente para armas totalmente autónomas.
“Aquí no están tratando de hacerse los lindos”, escribió.
Parnell dijo el jueves que el Pentágono quería “ utilizar el modelo antrópico para todos los fines legales” y dijo que abrir el uso de la tecnología evitaría que la compañía “ponga en peligro operaciones militares críticas”, aunque ni él ni otros funcionarios han detallado cómo quieren usar la tecnología.
El ejército “no tiene ningún interés en utilizar la IA para llevar a cabo una vigilancia masiva de los estadounidenses (lo cual es ilegal) ni queremos utilizar la IA para desarrollar armas autónomas que operen sin participación humana”, escribió Parnell.
Cuando Hegseth y Amodei se reunieron el martes, los oficiales militares advirtieron que podrían designar antrópico como un riesgo para la cadena de suministro, cancelar su contrato o invocar una ley de la era de la Guerra Fría llamada Ley de Producción de Defensa dando a los militares una autoridad más amplia para utilizar sus productos, incluso si la empresa no lo aprueba.
Amodei dijo el jueves que “estas dos últimas amenazas son inherentemente contradictorias: una nos califica como un riesgo para la seguridad; la otra describe a Claude como esencial para la seguridad nacional”. Dijo que esperaba que el Pentágono reconsiderara su decisión dado el valor de Claude para el ejército, pero si no, Anthropic “trabajará para permitir una transición sin problemas a otro proveedor”.
—-
El periodista de AP Konstantin Toropin contribuyó a este informe.











