La Internet Watch Foundation (IWF) dijo que sus analistas habían encontrado “imágenes criminales” de niñas de entre 11 y 13 años “creadas” usando Grok.
La herramienta de IA es propiedad de la empresa xAI de Elon Musk. Se puede acceder a él a través de su sitio web y aplicación o mediante la plataforma de redes sociales X.
La IWF dijo que encontró “imágenes sexuales y en topless de niñas” en un “foro de la web oscura” en el que los usuarios afirmaron haber utilizado Grok para crear las imágenes.
La BBC se ha puesto en contacto con X y xAI para solicitar comentarios.
Ngaire, de la IWF, ahora corre el riesgo de “integrar imágenes sexualizadas de niños mediante IA” con herramientas de la BBC como Alexander Groke.
Según la legislación del Reino Unido, este material está clasificado en la Categoría C, el nivel más bajo de material delictivo.
Pero el usuario que la subió utilizó una herramienta de inteligencia artificial diferente, no creada por xAI, para generar la imagen de Categoría A más extrema, dijo.
“Estamos muy preocupados por la facilidad y velocidad con la que las personas pueden crear material fotorrealista sobre abuso sexual infantil (CSAM)”, dijo.
Una organización benéfica, es El objetivo es eliminar material de abuso sexual infantil. Desde Internet, opera una línea directa donde se pueden denunciar sospechas de CSAM y emplea analistas que evalúan la legitimidad y seriedad del material.
Sus analistas encontraron el contenido en la web oscura; no se encontraron imágenes en la plataforma de redes sociales X.
Ofcom se puso en contacto previamente con X y xAI, luego de informes de que Grok podría usarse para crear “imágenes sexuales infantiles” y desnudar mujeres.
La BBC ha visto varios ejemplos de mujeres en la plataforma de redes sociales X pidiendo al chatbot que alterara imágenes reales para hacerlas aparecer en bikini sin su consentimiento, así como para colocarlas en situaciones sexuales.
La IWF dijo que se han recibido informes de tales imágenes en Ex, pero aún no se ha evaluado que cumplan con la definición legal de CSAM.
En una declaración anterior, X dijo: “Tomaremos medidas para eliminar el contenido ilegal en X, incluido CSAM, suspendiendo permanentemente las cuentas y trabajando con los gobiernos locales y las autoridades.
“Cualquiera que utilice Grok o le solicite crear contenido ilegal enfrentará las mismas consecuencias que si subiera contenido ilegal”.












