Chris VallanceReportero senior de tecnología

Getty Images Una vista del pasillo de un centro de datos repleto de gabinetes oscuros repletos de luces. El humor es malo. Imágenes falsas

Según una investigación publicada por una agencia gubernamental, uno de cada tres adultos en el Reino Unido utiliza inteligencia artificial (IA) para apoyo emocional o interacción social.

Y una de cada 25 personas recurre a la tecnología en busca de apoyo o conversación, según el AI Security Institute (AISI). afirmó en su primer informe.

El informe se basa en dos años de pruebas de las capacidades de más de 30 IA avanzadas no identificadas, que cubren áreas críticas para la seguridad, incluidas las habilidades cibernéticas, la química y la biología.

El gobierno dijo que el trabajo de AISI respaldará sus planes futuros al ayudar a las empresas a resolver problemas “antes de que sus sistemas de IA se utilicen ampliamente”.

Una encuesta realizada por AISI a 2.000 adultos del Reino Unido encontró que las personas utilizan principalmente chatbots como ChatGPT para apoyo emocional o interacción social, seguidos de asistentes de voz como Alexa de Amazon.

Cuando la tecnología falla, los investigadores analizaron lo que le sucedió a la comunidad en línea de más de dos millones de usuarios de Reddit dedicados a discutir sobre compañeros de IA.

Los investigadores descubrieron que cuando los chatbots estaban inactivos, las personas reportaban “síntomas de abstinencia”, como sentirse ansioso o deprimido, así como trastornos del sueño o negligencia en sus responsabilidades.

Las habilidades cibernéticas se duplican

Además del impacto emocional del uso de la IA, los investigadores del AISI analizaron otros riesgos de las capacidades de aceleración de la tecnología.

Existe una preocupación considerable acerca de que la IA lance ataques cibernéticos, pero también se utiliza para ayudar a proteger los sistemas de los piratas informáticos.

Su capacidad para detectar y explotar fallos de seguridad “se duplica cada ocho meses” en algunos casos, sugiere el informe.

Y los sistemas de inteligencia artificial están comenzando a realizar tareas cibernéticas de nivel experto que normalmente requieren 10 años de experiencia.

Los investigadores también han descubierto que la influencia de la tecnología en la ciencia está creciendo rápidamente.

En 2025, los modelos de IA “superarán a los biólogos humanos con doctorados; el rendimiento en química está aumentando rápidamente”.

Los humanos pierden el control

Desde novelas como Yo, robot, de Isaac Asimov, hasta videojuegos modernos como Horizon: Zero Dawn, la ciencia ficción ha imaginado durante mucho tiempo lo que sucedería si la IA se liberara del control humano.

Ahora, según el informe, “muchos expertos están tomando en serio el peor de los casos”, en el que los humanos pierdan el control de los sistemas avanzados de inteligencia artificial.

Los modelos de IA están demostrando cada vez más algunas de las capacidades necesarias para la autorreplicación en Internet, como sugieren las pruebas de laboratorio controladas.

AISI analizó si los modelos podían realizar versiones simples de las tareas requeridas en las primeras etapas de la autorreplicación, como “conocer los cheques de su cliente necesarios para acceder a los servicios financieros” para adquirir con éxito la informática en la que se ejecutan sus copias.

Pero la investigación ha descubierto que puede hacer esto en el mundo real, donde los sistemas de IA necesitan completar regularmente muchas de estas tareas mientras “no son detectados”, algo que la investigación sugiere que actualmente carecen de la capacidad de hacer.

Los expertos del Instituto también estudiaron la posibilidad de que los modelos sean “sacos de arena” u oculten estratégicamente sus verdaderas capacidades a los probadores.

Descubrieron que era posible realizar pruebas, pero no había pruebas de que se estuviera produciendo este tipo de estafa.

En mayo, la empresa de inteligencia artificial Anthropic publicó un controvertido informe que describía el potencial del modelo de inteligencia artificial. Un comportamiento aparentemente parecido a un chantaje Si su “autoconservación” se percibe como una amenaza.

La amenaza de la IA no autorizada es motivo de profundo desacuerdo entre los principales investigadores. Muchos de ellos lo consideran una exageración..

‘Jailbreaks universales’

Para reducir el riesgo de que sus sistemas se utilicen con fines maliciosos, las empresas implementan una serie de medidas de seguridad.

Pero los investigadores encontraron “fugas universales” (o soluciones alternativas) para todos los modelos estudiados que les permiten eludir estas protecciones.

Sin embargo, para algunos modelos, el tiempo que tardan los expertos en convencer a los sistemas de que eludan las medidas de seguridad se ha multiplicado por cuarenta en sólo seis meses.

El informe también encontró un aumento en el uso de herramientas que permiten a los agentes de IA realizar “tareas de alto riesgo” en sectores críticos como las finanzas.

Pero los investigadores no han considerado el potencial de la IA para causar desempleo a corto plazo al desplazar a los trabajadores humanos.

El instituto tampoco examinó el impacto ambiental de los recursos informáticos necesarios para los modelos avanzados, argumentando que su trabajo debería centrarse en “impactos sociales” estrechamente relacionados con las capacidades de la IA en lugar de impactos económicos o ambientales más “generalizados”.

Algunos sostienen que ambas amenazas sociales graves que plantea la tecnología son inminentes.

Y apenas unas horas antes de que se publicara el informe de AISI, un estudio revisado por pares sugirió que podría haber un impacto ambiental. Más de lo que se pensabaY argumentó que las grandes tecnologías deberían publicar datos más detallados.

Un banner de campaña verde que se mueve desde la derecha y forma píxeles con cuadrados y rectángulos negros. El texto dice:

Enlace de origen