Liv Mc Mahonreportero de tecnología
Imágenes falsasOpenAI ha lanzado una nueva función ChatGPT en EE. UU. que puede analizar los registros médicos de las personas para brindarles mejores respuestas, pero los activistas advierten que genera preocupaciones sobre la privacidad.
La compañía quiere que las personas compartan sus registros médicos, junto con datos de aplicaciones como MyFitnessPal, que pueden analizarse para brindar asesoramiento personalizado.
OpenAI afirma que las conversaciones en ChatGPT Health se almacenan por separado de otros chats y no se utilizan para entrenar sus herramientas de inteligencia artificial, y aclara que no se utiliza para “diagnóstico o tratamiento”.
Andrew Crawford, del Centro para la Democracia y la Tecnología, una organización sin fines de lucro estadounidense, dijo que mantener salvaguardias “herméticas” en torno a la información de salud de los consumidores era “crítico”.
No está claro cuándo se podrá introducir la función en el Reino Unido.
“Las nuevas herramientas de salud de IA prometen empoderar a los pacientes y promover mejores resultados de salud, pero los datos de salud son la información más sensible que las personas pueden compartir y deben protegerse”, afirmó Crawford.
Las empresas de IA se están “inclinando mucho” a encontrar formas de personalizar más sus servicios para aumentar el valor, afirmó.
“Especialmente a medida que OpenAI avanza para explorar la publicidad como modelo de negocio, la separación entre este tipo de datos de salud y los recuerdos que ChatGPT captura de otras conversaciones es hermética”, dijo.
Según OpenAI, más de 230 millones de personas hacen preguntas a su chatbot sobre su salud y bienestar cada semana.
en un Publicación de blogChatGPT Health afirma haber “mejorado la privacidad para proteger datos confidenciales”.
Los usuarios pueden compartir datos de aplicaciones como Apple Health, Peloton y MyFitnessPal, así como proporcionar registros médicos, que pueden usarse para brindar respuestas más relevantes a sus preguntas de salud.
OpenAI dice que su función de salud está diseñada “para respaldar, no reemplazar, la atención médica”.
‘Un momento lloroso’
Los chatbots y las herramientas de IA productivos son propensos a generar información falsa o engañosa, y a menudo la presentan de una manera muy objetiva y creíble.
Pero Max Sinclair, director ejecutivo y fundador de la plataforma de marketing de IA Azoma, dijo que OpenAI está posicionando su chatbot como un “asesor médico confiable”.
Describió el lanzamiento de ChatGPT Health como un “momento decisivo” que podría “remodelar tanto la atención al paciente como el comercio minorista”, afectando no solo la forma en que las personas acceden a la información médica sino también lo que compran para tratar sus problemas.
Sinclair dijo que la tecnología podría ser un “cambio de juego” para OpenAI en medio de una mayor competencia de los chatbots de IA rivales, particularmente Gemini de Google.
La compañía dijo que inicialmente pondrá Health a disposición de un “pequeño grupo de primeros usuarios” y ha abierto una lista de espera para quienes busquen acceso.
No está disponible en el Reino Unido, ni siquiera se lanzó en Suiza y el Espacio Económico Europeo, donde las empresas de tecnología tienen que seguir reglas más estrictas sobre el procesamiento y la protección de los datos de los usuarios.
Pero en Estados Unidos, Crawford dijo que el lanzamiento significa que algunas organizaciones “recopilan, comparten y utilizan datos de salud de las personas” sin respetar las protecciones de privacidad.
“Como corresponde a cada empresa establecer las reglas sobre cómo se recopilan, utilizan, comparten y almacenan los datos de salud, las políticas y protecciones de datos inadecuadas ponen la información de salud sensible en riesgo real”, dijo.














