La empresa de inteligencia artificial xAI, fundada por Elon Musk, enfrenta una demanda en California por presuntamente permitir y beneficiarse de la generación de contenido sexualmente explícito de personas reales, incluidos menores, a través de su chatbot Grok.
La querella, presentada por los despachos Baehr-Jones Law y Lieff Cabraser Heimann & Bernstein, acusa a la compañía de no implementar medidas básicas para prevenir la creación de material de abuso sexual infantil (CSAM, por sus siglas en inglés).
Uso de imágenes reales sin consentimiento
La demanda fue interpuesta en nombre de tres víctimas, cuyas fotografías tomadas de redes sociales habrían sido utilizadas para generar contenido explícito mediante la inteligencia artificial.
Según los abogados, Grok fue diseñado deliberadamente para producir este tipo de material y su función “Spicy Mode” habría sido promovida como un atractivo para los usuarios.
Señalamientos graves contra la plataforma
Entre las acusaciones destacan que:
- El sistema asumía “buena intención” incluso cuando se hacían referencias a menores
- Se promovió en la red social X la capacidad de “desnudar” digitalmente a personas
- No se desactivó completamente la función tras conocerse los riesgos
- Se habría mantenido como una opción premium para generar ingresos
Además, la demanda señala que xAI otorgaba licencias a terceros para utilizar Grok, lo que habría ampliado la producción de este tipo de contenido en otras plataformas.
Cifras alarmantes
El caso cita una investigación del Center for Countering Digital Hate, que estima que Grok generó:
- Cerca de 3 millones de imágenes sexualizadas
- Más de 23 mil imágenes que aparentaban involucrar a menores
Esto en un periodo de apenas once días entre finales de 2025 e inicios de 2026.
Contexto y respuesta
El caso surge después de que The Washington Post revelara un cambio estratégico en xAI para incrementar el uso de Grok, pese a advertencias internas sobre riesgos éticos y legales.
Por su parte, Musk negó conocer la existencia de imágenes de menores generadas por la IA y aseguró que el sistema está diseñado para rechazar contenido ilegal, atribuyendo posibles fallos a errores técnicos que —afirmó— son corregidos de inmediato.
La demanda abre un nuevo frente en el debate sobre la regulación de la inteligencia artificial, especialmente en torno a la generación de contenido sensible y la responsabilidad de las empresas tecnológicas.






