Character.AI ha anunciado un importante cambio de política que prohíbe a los usuarios menores de 18 años entablar conversaciones abiertas con sus chatbots. La medida se produce en medio de crecientes preocupaciones sobre el impacto potencial de las interacciones de inteligencia artificial en los niños y sigue a varias demandas centradas en la seguridad infantil. En particular, la madre de un adolescente presentó un caso legal alegando que los chatbots de la empresa contribuyeron a la trágica decisión de su hijo de suicidarse.
Menlo Park, California, anunció el miércoles que las nuevas restricciones entrarán en vigor el 25 de noviembre con efectos inmediatos, incluido un límite diario de dos horas para el uso de chatbots por parte de menores. En un esfuerzo por proteger mejor a los usuarios jóvenes, Character.AI ha anunciado planes para desarrollar nuevas funciones diseñadas específicamente para niños, como herramientas para crear videos, historias y transmisiones en vivo con personajes de IA. Además, la empresa espera crear un laboratorio de seguridad de IA para mejorar aún más la protección del usuario.
Para hacer cumplir estas restricciones de edad, Character.AI introduce medidas de verificación de edad destinadas a identificar a los usuarios menores de 18 años. La tendencia de implementar estos controles de edad en varias plataformas tecnológicas se está volviendo más común a medida que intentan limitar el acceso de los niños a herramientas digitales potencialmente dañinas. Sin embargo, los expertos señalan que estos métodos de verificación suelen ser defectuosos. Por ejemplo, la tecnología de reconocimiento facial puede tener dificultades para distinguir con precisión entre usuarios de 17 y 18 años, pero exigir que las personas presenten una identificación gubernamental plantea importantes preocupaciones sobre la privacidad.
La plataforma Character.AI permite a los usuarios crear e interactuar con personajes de IA personalizables que pueden usarse para una variedad de experiencias, desde historias imaginativas hasta entrevistas de trabajo simuladas. La aplicación promueve a estas personas artificiales como “realistas” y “antropomórficas”, invitando a los usuarios a explorar los “límites de lo posible” con la tecnología.
Si bien algunos críticos acogieron con agrado el anuncio, muchos creyeron que las medidas eran inadecuadas y debían implementarse lo antes posible. Mitali Jain, directora ejecutiva del Tech Justice Law Project, expresó su preocupación por la falta de claridad sobre la verificación de la edad, las protecciones de la privacidad y las consecuencias psicológicas de cortar repentinamente el acceso a los usuarios jóvenes que han desarrollado dependencias emocionales de estos chatbots. Jain afirma que las características de diseño inherentes de la IA que fomentan las conexiones emocionales pueden causar problemas similares a los usuarios mayores de 18 años.
La prevalencia de compañeros de IA entre los consumidores jóvenes se refleja en una investigación reciente de Common Sense Media, que encontró que el 70% de los adultos jóvenes han interactuado con chatbots de IA, y la mitad los usa a diario. A medida que la conversación sobre la IA y los niños continúa evolucionando, las acciones tomadas por Character.AI son cruciales para los debates en curso sobre la seguridad y los efectos de la inteligencia artificial en las vidas de los consumidores jóvenes, aunque sean controvertidos.












