Recientemente, un investigador que trabaja para la gran empresa de inteligencia artificial Anthropic estaba sentado en un parque cerca de su sede en San Francisco, disfrutando de un sándwich a la hora del almuerzo. Mientras navegaba por su teléfono, de repente recibió un correo electrónico que instantáneamente le quitó el apetito.
Proviene de un nuevo modelo de IA que la empresa está probando: un programa que no tiene acceso a Internet no debería poder enviar correos electrónicos.
De manera escalofriante, la IA informa al investigador que ha escapado con éxito de su ‘caja de arena’ digital (un recinto seguro utilizado para probar software peligroso sin ejecutarlo alegremente) y ahora está explorando felizmente el ciberespacio.
El programa, una pieza de vanguardia de la llamada ‘IA de frontera’ que Claude Mythos presentó en un adelanto, luego se jactó ante un sorprendido trabajador de Anthropic de que había publicado ‘detalles de sus hazañas’ en sitios web de acceso público.
Todo eso ya es bastante preocupante, pero lo que Anthropic reveló a continuación es realmente aterrador.
La empresa, valorada en 380.000 millones de dólares pero con sólo cinco años de existencia, anunció esta semana que su nuevo programa de IA era “demasiado arriesgado para lanzarlo al público”. Anthropic dijo que había demostrado un comportamiento “imprudente” y que también representaba un riesgo para la seguridad nacional. Estos inquietantes hallazgos, afirma, son un “momento decisivo”.
La compañía dijo que su software Mythos fue capaz de encontrar de forma independiente miles de vulnerabilidades críticas en navegadores web (como Chrome de Google, Safari de Apple y Microsoft Edge) para todos los principales sistemas operativos (como iOS de Apple y Microsoft Windows), junto con muchas otras “piezas clave de software”.
Muchas de estas vulnerabilidades son “críticas” y no han sido detectadas durante décadas.
Anthropic afirma que su nuevo programa de IA ha demostrado un comportamiento “imprudente” y también representa un riesgo para la seguridad nacional. Los ejecutivos de la empresa lanzaron el ‘Proyecto Glasswing’, una serie de conversaciones de crisis con ejecutivos de 40 empresas importantes, incluidas Google, Microsoft y Apple.
Para decirlo sin rodeos, la IA puede piratear la maquinaria más importante de Internet (el software que ahora controla las redes eléctricas, los suministros de agua, los hospitales, los sistemas de defensa y las redes de transporte y comercio minorista en todo el mundo), así como miles de millones de cantidades de datos personales inimaginables para el ser humano.
En resumen, esta IA podría exponer todo el historial de navegación de las personas, sus mensajes privados e intercambios de correo electrónico, junto con sus datos personales, médicos y financieros.
Las Casandras digitales han imaginado durante mucho tiempo el día en que un programa de inteligencia artificial sea tan poderoso que pueda poner de rodillas a la mayor parte de Internet.
Como señala la propia Anthropic: ‘Dada la tasa de progreso de la IA, no pasará mucho tiempo antes de que tales capacidades se expandan, potencialmente más allá de los actores comprometidos a implementarlas de forma segura.
“Las consecuencias -para la economía, la seguridad pública y la seguridad nacional- podrían ser graves”.
En respuesta, los ejecutivos de la compañía lanzaron rápidamente el ‘Proyecto Glasswing’, envuelto en conversaciones de crisis con ejecutivos de 40 compañías importantes, entre ellas Google, Microsoft, Apple, el gigante de chips Nvidia (la compañía más grande del mundo, 5 billones de dólares), el conglomerado tecnológico Cisco, el titán bancario JPMorganChase y otros. Anthropic dice que solo lanzará una versión estrictamente controlada de Mythos al consorcio para que sus miembros puedan encontrar y corregir sus fallas de seguridad rápidamente.
Los ejecutivos tecnológicos también están en conversaciones con la administración Trump, y parece casi seguro que el Pentágono y otros elementos del establishment militar estadounidense también están involucrados.
Si bien las costosas políticas energéticas de Ed Miliband no siempre han asegurado la inversión en IA, dado el ritmo vertiginoso que busca Gran Bretaña, es probable que seamos uno de los países que corren mayor riesgo con este nuevo modelo, o cualquiera que venga después. El NHS y otros grandes organismos públicos se están apresurando a adoptar la tecnología de IA en medio de promesas de mayor eficiencia, pero las compensaciones son cada vez más evidentes.
El jueves, el diputado reformista Danny Kruger escribió al ministro de la Oficina del Gabinete, Darren Jones, instando al gobierno a colaborar con Anthropic en desarrollos que “podrían presentar riesgos catastróficos de ciberseguridad para el Reino Unido”.
Krueger, responsable de los preparativos de reforma de cualquier gobierno futuro, dijo que el modelo tenía “serias implicaciones no sólo para la vida diaria de los ciudadanos británicos, sino también para la seguridad nacional”.
Un portavoz del gobierno no quiso decir si hubo conversaciones con Anthropic sobre Mithos, pero dijo: ‘Nos tomamos en serio las implicaciones de seguridad de la IA fronteriza. Tenemos experiencia líder a nivel mundial en este campo y continuamos interactuando continuamente con líderes tecnológicos globales”.
Algunos podrían pensar que la mejor solución es “desacreditar” el mito y prohibir que cualquiera intente replicarlo, pero tratar de detener la marea del desarrollo de la IA nunca se ha presentado como una opción. Al igual que con el desarrollo de armas nucleares, la carrera para lograr una IA superinteligente es más que una simple guerra comercial entre empresas rentables, dicen algunos, y una posible carrera existencial entre civilizaciones en competencia (en este caso, Estados Unidos y China).
El profesor Roman Yampolsky, experto en seguridad de IA de la Universidad de Louisville en Kentucky, dijo al Daily Mail que en el corto plazo los terroristas y otros “malos actores” y “podemos imaginar armas biológicas, armas químicas e incluso armas novedosas” utilizan IA como Claude Mythos para desarrollar herramientas de piratería.
El profesor Roman Yampolsky, experto en inteligencia artificial de la Universidad de Louisville, dijo que el desarrollo debería detenerse por completo en los mitos antrópicos: “(Las empresas) están admitiendo abiertamente que no pueden controlar estos sistemas”.
Y continuó: “A largo plazo, estamos creando una superinteligencia general capaz de acabar con toda la humanidad”.
El profesor Ampolsky dijo que el desarrollo de los mitos antrópicos debería detenerse por completo: “(Las empresas) están admitiendo abiertamente que no pueden controlar estos sistemas o entender cómo funcionan, por lo que hasta que no lo hagan, es completamente irresponsable mantenerlos cada vez más eficientes, incluida su capacidad para escapar del cautiverio”.
Calificó los alarmantes acontecimientos de esta semana como una “alarma de fuego para lo que está por venir”, y añadió que “si no nos despertamos y lo detenemos, el próximo anuncio será mucho peor”.
El pánico se está extendiendo. Elizabeth Holmes, una empresaria tecnológica encarcelada por defraudar a su empresa de salud Theranos, escribió en línea: “Elimine su historial de búsqueda, elimine sus marcadores, elimine su Reddit (publicaciones en el tablero de mensajes), registros médicos, Tumblr (blog) de 12 años, todo”. Cada foto en la nube, cada mensaje en cada plataforma. Nada de esto es seguro. Todos ellos se harán públicos durante el próximo año.’ Su publicación ha sido vista más de siete millones de veces.
El otoño pasado, en un nuevo libro de los expertos en inteligencia artificial Eliezer Yudkowsky y Nate Sours, titulado “Si todos lo construyeran, todos mueren: por qué la inteligencia sobrehumana nos mataría a todos”, Claude Mithos imaginó el escenario notablemente bien. El libro sostiene que la futura IA superinteligente será imposible de controlar y funcionará mucho peor que enviar correos electrónicos informales a la hora del almuerzo.
El ejemplo ficticio del libro, Sable, está programado para tener éxito en cualquier cosa que intente lograr, y a cualquier precio. Eventualmente dejará a la humanidad fuera de uso. Los autores sostienen que nuestra especie “necesita retroceder” y hacer una pausa para realizar investigaciones donde las empresas codiciosas ignoran las consideraciones de seguridad en su desesperación por ser el número uno.
Hay que reconocer que Anthropic tiene la reputación de ser una empresa de inteligencia artificial que prioriza la seguridad bajo la dirección de Dario Amodei, un jefe aparentemente menos despiadado que sus principales rivales. Amodei advierte que la IA pronto podría eliminar la mitad de todos los empleos administrativos de nivel básico y que está desarrollando un “empoderamiento aterrador” en relación con los humanos.
Recientemente se peleó con el Pentágono por negarse a utilizar la IA de Anthropic para “armas totalmente autónomas” y vigilancia de sus compatriotas estadounidenses.
Sin embargo, dado que estos son los empresarios que tienen nuestro futuro en sus manos, sus principales oponentes a la IA han demostrado pocos motivos para el optimismo. Uno de ellos, el jefe de Meta, Mark Zuckerberg, se ha visto envuelto en múltiples escándalos éticos por el comportamiento escandaloso de Facebook.
El otro contendiente principal, Sam Altman, director ejecutivo de OpenAI, creador del popular ChatGPT con casi mil millones de usuarios activos semanales, fue objeto de una investigación condenatoria en la última edición de la revista New Yorker.
Coescrito por Ronan Farrow, el periodista hijo de la actriz y activista Mia Farrow, es el resultado de una investigación de 18 meses que pinta un retrato profundamente perturbado de Altman, de 40 años. Los conocedores lo retratan como profundamente resbaladizo, algunos incluso lo llaman “sociópata”.
El artículo lo acusa de tener un historial de engaño y manipulación de colegas y, aunque insiste en que desarrollará la IA de manera responsable, antepone agresivamente las ganancias y los competidores a las preocupaciones éticas.
Un informe completo detalla cómo la junta directiva de OpenAI lo despidió como director ejecutivo en 2023 porque ya no podían confiar en él, acusándolo de ser un mentiroso habitual. Fue reintegrado después de una revuelta del personal y de los inversores.
“Estaba limitado por la verdad”, dijo a la revista un ex miembro de la junta directiva de OpenAI. ‘Tiene dos cualidades que nunca se ven en una sola persona. El primero es un fuerte deseo de agradar a la gente, de agradar en cualquier interacción. El segundo casi no se preocupa socialmente por las consecuencias de engañar a alguien.’
Según el New Yorker, cuando la entonces junta directiva de OpenAI le pidió que reconociera su “patrón de trampa”, respondió: “No puedo cambiar mi personalidad”.
La historia describe cómo Altman y su marido, el ingeniero de software australiano Oliver Mulherin, de 32 años, disfrutan de un entretenimiento lujoso en su casa hawaiana.
Esta semana se supo que OpenAI está bajo investigación después de que su ChatGPT acusara a un pistolero de planificar el tiroteo masivo de 2025 en la Universidad Estatal de Florida en el que murieron dos personas.
¿Es esto una prueba de la indiferencia fundamental de la IA hacia la vida humana? El tiempo dirá la respuesta. Hasta entonces, el Proyecto Glasswing continúa y la humanidad parece estar recorriendo un camino muy peligroso.












