El Pentágono y la empresa de inteligencia artificial Anthropic, con sede en San Francisco, están enfrascados en una disputa sobre el uso por parte de la agencia de su modelo insignia de IA, Claude. La disputa, que se refiere a la negativa de Anthropic a permitir que la agencia use a Claude sin restricciones de seguridad para “todos los fines legales”, se intensificó cuando un funcionario del Pentágono dijo que la agencia podría romper los vínculos con la compañía y declararla un “riesgo para la cadena de suministro” debido a la disputa.

Dario Amodei, cofundador y director ejecutivo de Anthropic en Bangalore, India, el lunes 16 de febrero (Bloomberg).

Un funcionario del Pentágono, hablando de forma anónima con Axios, reveló que la agencia podría cortar los vínculos y declarar a la empresa como un “riesgo para la cadena de suministro”, lo que efectivamente significa que cualquier empresa que haga negocios con el Pentágono no puede tener ningún vínculo comercial con Anthropic.

“Va a ser un gran dolor desenredarlo, y nos aseguraremos de que paguen el precio por obligarnos a actuar de esta manera”, dijo el funcionario a Axios, y agregó que el Pentágono estaba “a punto” de cortar los lazos.

Sin embargo, la medida plantea desafíos logísticos, ya que Claude es el único modelo de IA utilizado actualmente en el sistema clasificado del ejército estadounidense y ha sido ampliamente elogiado por su eficacia. Reemplazarlo por otro requeriría que el Pentágono celebrara nuevos contratos con empresas que podrían ser tan efectivas como Claude.

De hecho, la efectividad parece ser un problema mayor en este sentido, ya que otros modelos de IA competidores, como xAI, OpenAI y Google, ya han acordado eliminar las medidas de seguridad, pero aún no se utilizan en el ejército.

Cómo la ruptura de los lazos con el Pentágono podría afectar la antropología

El impacto de la posible ruptura en sí afectaría sólo marginalmente a Anthropic. Axios informa que la operación en cuestión representa aproximadamente 200 millones de dólares en ingresos anuales, lo que es casi insignificante en comparación con sus 14 mil millones de dólares en ingresos anuales. Sin embargo, declararlo como un “riesgo en la cadena de suministro” podría impactar a la empresa, ya que llevaría a otras empresas a cancelar sus vínculos.

Además de eso, los funcionarios del Departamento de Guerra no muestran signos de ceder, a pesar de que Anthropic dice que las conversaciones avanzan en una dirección “productiva”.

“La relación del Departamento de Guerra con Anthropic está bajo revisión”, dijo un portavoz del Departamento de Guerra. “Nuestra nación exige que nuestros socios estén preparados para ayudar a nuestros combatientes a ganar cualquier combate. En última instancia, se trata de nuestras tropas y la seguridad del pueblo estadounidense”.

Lea también: Estados Unidos utilizó la incursión Claude AI de Anthropic en Venezuela para capturar a Nicolás Maduro: informe

De qué se trata la disputa: explicado

La disputa, que no pudo resolverse a pesar de meses de reuniones entre funcionarios de Anthropic y del Pentágono, se refiere a las condiciones bajo las cuales los militares pueden utilizar a Claude. Si bien la agencia quiere un uso sin restricciones para “todos los fines legales”, el director ejecutivo de Anthropic, Dario Amodei, ha expresado su preocupación por la vigilancia y la invasión de la privacidad.

Según Axios, Anthropic quiere que los términos del contrato impidan que la agencia y el ejército lleven a cabo vigilancia masiva de estadounidenses o desarrollen armas capaces de disparar sin intervención humana.

Designar a una empresa como un “riesgo de la cadena de suministro” es un paso importante que normalmente está reservado para adversarios comerciales extranjeros. Parece que en algún momento hay que ceder, ya que los funcionarios admiten que otros modelos de IA están “justo detrás” cuando se trata de manejar operaciones militares especializadas.

Enlace de origen