El príncipe Harry y Meghan, el duque y la duquesa de Sussex, se han unido a una coalición diversa de científicos, líderes políticos, artistas y pioneros de la tecnología para pedir una prohibición global del desarrollo de “superinteligencia” artificial (sistemas de inteligencia artificial capaces de superar a los humanos en la mayoría de las tareas cognitivas) hasta que haya un consenso científico claro sobre el hecho de que dicha tecnología se puede implementar de manera segura.
La declaración, organizada por el Future of Life Institute (FLI), se publicó el miércoles y representa uno de los llamados intersectoriales más amplios jamás realizados para moderar el desarrollo de la IA. Entre los firmantes se encuentran los pioneros de la IA Geoffrey Hinton y Yoshua Bengio, el cofundador de Apple Steve Wozniak, el economista Daron Acemoglu, la exasesora de Seguridad Nacional de Estados Unidos Susan Rice, el exjefe del Estado Mayor Conjunto Mike Mullen, la expresidenta irlandesa Mary Robinson, el multimillonario Richard Branson e incluso figuras conservadoras polarizadoras como Steve Bannon y Glenn Beck.
El mensaje principal de 30 palabras de la declaración dice: “Pedimos una prohibición del desarrollo de superinteligencia, que no se levantará hasta que haya un amplio consenso científico de que se hará de manera segura y controlable, y un fuerte apoyo público”. »
Frente único más allá de las divisiones políticas y profesionales
Aunque ya han surgido llamamientos para una regulación de la seguridad de la IA (incluida la carta abierta anterior de FLI en 2023 pidiendo una pausa temporal en la formación avanzada en IA), este último llamamiento destaca por su amplia diversidad ideológica y profesional.
“Lo que une a todas estas personas en todo el espectro político es que en realidad todos son humanos, no máquinas”, dijo Max Tegmark, profesor del MIT y presidente de FLI. “Les preocupa profundamente que el futuro sea un futuro en el que las máquinas trabajen para nosotros, no como nuevos señores digitales”.
Tegmark añadió que se sintió alentado al ver la conversación sobre la superinteligencia “saliendo de la burbuja nerd” y atrayendo signatarios de la política, el entretenimiento, la religión y las artes.
Príncipe Harry: “La verdadera prueba del progreso será cuán sabiamente lideramos”
En una nota personal que acompaña a la carta, el Príncipe Harry escribió: “El futuro de la IA debe servir a la humanidad, no reemplazarla. La verdadera prueba del progreso no será la rapidez con la que nos movamos, sino la sabiduría con la que lideramos. No hay segundas oportunidades”.
A él se unió Meghan, duquesa de Sussex, quien anteriormente habló sobre la ética digital y los impactos de la tecnología en la salud mental.
Los científicos advierten sobre riesgos existenciales
Luminarias de la IA como Stuart Russell, profesor de informática en UC Berkeley, dijeron que la declaración no era antitecnología sino una exigencia de responsabilidad.
“Esto no es una prohibición en el sentido habitual”, dijo Russell. “Esto es simplemente una propuesta para exigir medidas de seguridad adecuadas para una tecnología que sus desarrolladores creen que tiene altas posibilidades de causar la extinción de la humanidad. ¿Es demasiado pedir?”
Geoffrey Hinton, que ganó el Premio Turing 2018 y el Premio Nobel de Física del año pasado por su trabajo fundamental sobre la IA, y Yoshua Bengio, su colega laureado, también apoyaron la prohibición. Ambos advierten cada vez más sobre los peligros de los sistemas que podrían evolucionar más allá del control humano.
Una preocupación bipartidista y global
Una encuesta reciente de FLI muestra que el 73% de los estadounidenses apoyan una regulación estricta de la IA avanzada. Una encuesta separada de Gallup encontró que el 88% de los demócratas y el 79% de los republicanos e independientes apoyan la vigilancia por razones de seguridad, lo que destaca una rara unidad bipartidista.
Sin embargo, no todos los conservadores comparten la misma preocupación. Algunos, como el zar de la IA de la era Trump, David Sacks, se oponen a una regulación estricta que podría frenar la innovación. Tegmark dijo que sigue en contacto con Sacks y añadió: “Quiere que los grandes centros de datos realicen grandes investigaciones, pero nunca tuve la sensación de que estuviera ansioso por construir un señor supremo digital”.
Conciliar innovación y seguridad
El llamado a una prohibición desafía directamente a los gigantes tecnológicos como OpenAI, Google y Meta, que están en una carrera para desarrollar sistemas más potentes, a menudo descritos como algo parecido a una “inteligencia general artificial” (AGI).
El preámbulo de la carta advierte que tales ambiciones plantean amenazas que van desde “la obsolescencia económica y la pérdida de poder, hasta pérdidas de libertad y dignidad, riesgos para la seguridad nacional e incluso la posible extinción de la humanidad”.
El actor Joseph Gordon-Levitt, otro firmante, escribió que si bien la IA puede aportar inmensos beneficios, no debería convertirse en una herramienta que manipule a las personas o erosione la creatividad. “La mayoría de la gente no quiere que la IA imite a los humanos, cure a nuestros hijos o gane miles de millones con anuncios”, dijo.
El ciclo publicitario en torno a la IA continúa
La carta también reaviva el debate dentro de la comunidad de IA sobre si la “superinteligencia” es realmente inminente o simplemente inverosímil. Algunos críticos dicen que el miedo a una IA desbocada está impulsando la inversión y el interés público en las tecnologías actuales.
Aún así, Tegmark advirtió que los rápidos avances en las capacidades de IA en los últimos años justifican serias preocupaciones: “Hay mucho revuelo, pero eso no cambia el hecho de que los avances en IA han sido más rápidos de lo que casi todos predijeron”.
A pesar de advertencias similares en el pasado, las principales empresas de IA han continuado su desarrollo sin cesar. La carta de la FLI de 2023, firmada por Elon Musk, no logró detener la carrera armamentista, a pesar de que Musk lanzó simultáneamente su propia empresa competidora de inteligencia artificial.