OpenAI ha publicado nuevas estimaciones sobre la cantidad de usuarios de ChatGPT que muestran posibles signos de emergencias de salud mental, incluidas manía, psicosis o pensamientos suicidas.

Alrededor del 0,07% de los usuarios de ChatGPT que estuvieron activos en una semana determinada mostraron tales señales, dijo la compañía, y su chatbot de inteligencia artificial (IA) detecta y responde a estas conversaciones sensibles.

Si bien OpenAI sostiene que estos casos son “extremadamente raros”, los críticos dicen que incluso un pequeño porcentaje podría representar cientos de miles de personas, ya que ChatGPT alcanzó recientemente los 800 millones de usuarios activos semanales, según el jefe Sam Altman.

Ante un mayor escrutinio, la compañía dijo que ha creado una red de expertos en todo el mundo para asesorarla.

Esos expertos incluyen a más de 170 psiquiatras, psicólogos y médicos de atención primaria que ejercen en 60 países, dijo la compañía.

Según OpenAI, diseñaron una serie de respuestas en ChatGPT para animar a los usuarios a pedir ayuda en el mundo real.

Pero un vistazo a los datos de la compañía ha llamado la atención entre algunos profesionales de la salud mental.

“Aunque el 0,07% puede parecer un porcentaje pequeño en una población con cientos de millones de usuarios, en realidad puede ser un porcentaje muy pequeño”, afirmó el Dr. Jason Nagata, profesor que estudia el uso de la tecnología entre los jóvenes de la Universidad de California en San Francisco.

“La IA puede ampliar el acceso a la ayuda para la salud mental y apoyar la salud mental de alguna manera, pero debemos ser conscientes de las limitaciones”, añadió el Dr. Nagata.

La compañía estima que el 0,15% de los usuarios de ChatGPT tienen conversaciones que contienen “indicadores claros de posible planificación o intención suicida”.

Las recientes actualizaciones de OpenAI para su chatbot están diseñadas para “responder de forma segura y empática a posibles signos de delirio o manía” y para observar “signos indirectos de posible autolesión o riesgo de suicidio”.

ChatGPT también está capacitado para “cambiar conversaciones confidenciales de otros modelos a modelos seguros” Se abre en una ventana nueva

En respuesta a las preguntas de la BBC sobre las críticas al número de personas afectadas, OpenAI dijo que este pequeño porcentaje de usuarios equivale a personas significativas y que se están tomando los cambios en serio.

Los cambios se producen cuando OpenAI enfrenta un escrutinio legal sobre la forma en que ChatGPT interactúa con los usuarios.

En una de las demandas más destacadas presentadas recientemente contra OpenAI, una pareja de California demandó a la empresa por la muerte de su hijo adolescente, alegando que ChatGPT lo animó a suicidarse en abril.

La demanda fue presentada por los padres de Adam Raine, de 16 años, y es la primera acción legal que alega muerte por negligencia de OpenAI.

En un caso particular, el sospechoso de un asesinato y suicidio ocurrido en agosto en Greenwich, Connecticut, publicó horas de sus conversaciones en ChatGPT, lo que pareció alimentar los delirios del perpetrador.

“Los chatbots crean la ilusión de la realidad” a medida que más usuarios luchan contra la psicosis de la IA, dijo el profesor Robin Feldman, director del Instituto de Derecho e Innovación de la IA de la Universidad de Derecho de California. “Es una ilusión poderosa”.

Dijo que OpenAI merece crédito por “compartir datos y tratar de mejorar el problema”, pero añadió: “Una empresa puede poner todo tipo de advertencias en la pantalla, pero una persona que está psicológicamente en riesgo puede no ser capaz de ignorar esas advertencias”.

Enlace de origen