Altman continuó promocionando el compromiso de OpenAI con la seguridad, especialmente cuando los posibles reclutas estaban al alcance del oído. A finales de 2022, cuatro científicos informáticos publicaron un artículo motivado en parte por preocupaciones sobre una “alineación engañosa”, en el que modelos suficientemente avanzados podrían afirmar que se comportan correctamente en las pruebas y luego, una vez implementados, perseguir sus propios objetivos. (Este es uno de los muchos escenarios de IA que suena a ciencia ficción, pero, bajo ciertas condiciones experimentales, ya está sucediendo). Unas semanas después de la publicación del artículo, uno de sus autores, Ph.D. Un estudiante de la Universidad de California, Berkeley, recibió un correo electrónico de Altman, quien decía que estaba cada vez más preocupado por la amenaza de la IA no alineada. Añadió que planea destinar mil millones de dólares al problema, que muchos expertos en inteligencia artificial consideran el problema sin resolver más importante del mundo, potencialmente otorgando un premio para atraer a investigadores de todo el mundo a estudiarlo. Aunque el estudiante de posgrado había “escuchado vagos rumores de que Sam era resbaladizo”, nos dijo, la demostración de compromiso de Altman lo convenció. Tomó una licencia académica para unirse a OpenAI.
Pero, en el transcurso de varias reuniones en la primavera de 2023, Altman pareció flaquear. Dejó de hablar de dotar un premio. En cambio, abogó por la creación de un “equipo de superalineación” interno. Un anuncio oficial, en referencia a las reservas de potencia informática de la empresa, prometió que el equipo obtendría “el 20% de la computación que hemos conseguido hasta la fecha”, un recurso con un valor potencial de más de mil millones de dólares. Este esfuerzo era necesario, según el anuncio, porque, si no se resolvía el alineamiento, el AGI podría “conducir a la pérdida de poder de la humanidad, o incluso a su extinción”. Jan Leike, que fue designado para dirigir el equipo de Sutskever, nos dijo: “Fue una herramienta de retención bastante eficaz”.
Sin embargo, el compromiso del veinte por ciento se evaporó. Cuatro personas que trabajaron en el equipo o en estrecha colaboración con él dijeron que los recursos reales estaban entre el uno y el dos por ciento del cálculo de la empresa. Además, un investigador del equipo dijo: “La mayoría de los cálculos de superalineación fueron en realidad para el grupo más antiguo con los peores chips”. Los investigadores creían que el hardware informático de alta calidad estaba reservado para actividades generadoras de beneficios. (OpenAI cuestiona esto). Leike se quejó con Murati, entonces director de tecnología de la compañía, pero ella le dijo que dejara de insistir: ese compromiso nunca había sido realista.
En ese momento, nos dijo un ex empleado, a Sutskever “le dieron una pastilla súper segura”. En los primeros días de OpenAI, consideraba que las preocupaciones sobre riesgos catastróficos eran legítimas pero distantes. Ahora que empezaba a creer que la AGI era inminente, sus preocupaciones se agudizaron. Hubo una reunión de todos, continuó el ex empleado, “en la que Ilya se levanta y dice: ‘Oigan a todos, habrá un momento en los próximos años en el que casi todos en esta empresa tendrán que dedicarse a trabajar en seguridad, o estaremos jodidos'”. Pero el equipo de superalineación se disolvió al año siguiente, sin completar su misión.
Para entonces, los mensajes internos muestran que los ejecutivos y miembros de la junta directiva habían llegado a creer que las omisiones y engaños de Altman podrían tener consecuencias para la seguridad de los productos de OpenAI. En una reunión celebrada en diciembre de 2022, Altman aseguró a los miembros de la junta que un comité de seguridad había aprobado una variedad de características de un próximo modelo, GPT-4. Toner, miembro de la junta y experto en políticas de inteligencia artificial, solicitó documentación. Se enteró de que las funciones más controvertidas (una que permitía a los usuarios “modificar” el modelo para tareas específicas y otra que lo implementaba como asistente personal) no habían sido aprobadas. Cuando McCauley, miembro de la junta directiva y empresaria, abandonó la reunión, un empleado la llevó aparte y le preguntó si sabía sobre “la violación” en la India. Altman, durante muchas horas de sesión informativa con la junta, se olvidó de mencionar que Microsoft había lanzado una versión inicial de ChatGPT en India sin realizar la revisión de seguridad requerida. “Simplemente fue completamente ignorado”, dijo Jacob Hilton, investigador de OpenAI en ese momento.











