Después de la preocupación generalizada por los deepfakes sexualizados de IA en países como Grok, el modelo de IA de Elon Musk, las fotos de personas reales con ropa reveladora ya no se pueden editar.

“Hemos implementado medidas técnicas para evitar que la cuenta de Grok permita la edición de imágenes de personas reales con prendas reveladoras como bikinis.

“Esta restricción se aplica a todos los usuarios, incluidos los suscriptores pagos”, se lee en un comunicado de X, que ejecuta la herramienta Grok AI.

El cambio se anunció horas después de que el fiscal principal de California dijera que el estado estaba investigando la difusión de deepfakes sexualizados de IA, incluidos niños producidos por un modelo de IA.

En un comunicado el miércoles, el fiscal general de California, Rob Bonta, dijo: “Este material, que muestra a mujeres y niños desnudos y en situaciones sexualmente indecentes, ha sido utilizado para acosar a la gente en Internet”.

Malasia e Indonesia han bloqueado el acceso a los chatbots en imágenes, y el Primer Ministro del Reino Unido, Sir Keir Starmer, ha advertido que X podría perder su “derecho a la autorregulación” debido a su ira por las imágenes de IA.

Enlace de origen