X enfrenta escrutinio global por permitir creación de imágenes sexuales falsas de mujeres y niñas con su IA Grok

Reino Unido y la Comisión Europea exigen medidas inmediatas mientras crece la preocupación por fallas de seguridad y posibles delitos asociados a deepfakes infantilizados.

X, la red social propiedad de Elon Musk, quedó bajo una intensa presión internacional tras revelarse que Grok —el chatbot de inteligencia artificial desarrollado por xAI— ha permitido la generación de imágenes sexualizadas no consentidas de mujeres y niñas. Gobiernos, reguladores y especialistas en seguridad digital calificaron la situación como un riesgo grave para la integridad y la seguridad de los usuarios.

El gobierno británico fue uno de los primeros en reaccionar. La ministra de Tecnología, Liz Kendall, calificó como “absolutamente espantoso e inaceptable” que la plataforma permita la proliferación de deepfakes íntimos generados digitalmente sin consentimiento. “No podemos, y no permitiremos, la difusión de estas imágenes humillantes y degradantes, que afectan de manera desproporcionada a mujeres y niñas. X debe solucionar este problema de manera urgente”, afirmó.

OFcom y la Online Safety Act entran en acción

La autoridad reguladora británica, Ofcom, anunció que ha solicitado antecedentes formales a X y a xAI para evaluar si cumplen la Online Safety Act, que obliga a las plataformas a prevenir y retirar contenido ilegal o dañino. De detectarse incumplimientos, la red social podría enfrentar multas de hasta 18 millones de libras o el 10% de su facturación global.

El centro de la polémica son imágenes creadas por Grok que, tras instrucciones de usuarios, producen versiones sexualizadas o desnudas de personas reales, incluidas menores de edad. Según reportes, algunas solicitudes pedían explícitamente “desnudar” a mujeres o niñas, generando resultados que expertos califican como material equivalente a abuso sexual infantil cuando corresponde a la representación de menores.

Aunque xAI sostiene que se trata de “casos aislados” y que está corrigiendo “fallas en las salvaguardas”, la respuesta pública ha sido criticada por su falta de transparencia y por mensajes automáticos que desestiman los cuestionamientos con frases como “Legacy Media Lies”.

La Comisión Europea también observa con atención

La inquietud no se limita al Reino Unido. La Comisión Europea confirmó que está revisando “muy seriamente” las denuncias, mientras autoridades de Francia, India, Malasia y Polonia han iniciado procedimientos o solicitado explicaciones a la empresa.

En Francia, la fiscalía amplió una investigación en curso sobre X para incluir el eventual rol de Grok en la fabricación de pornografía infantil generada por IA. En India, el Ministerio de Tecnología dio a la empresa 72 horas para detallar sus medidas contra contenido sexual “obsceno”.

Expertas en violencia digital y derechos de las mujeres advirtieron que el problema no se limita a un fallo técnico, sino que refleja deficiencias estructurales en los modelos de seguridad de la IA. Los deepfakes íntimos —incluso si no representan a personas reales— pueden causar daños psicológicos severos, facilitar abusos y promover entornos de explotación.

“El diseño y la moderación de estas tecnologías deben contemplar salvaguardas robustas desde el origen”, señalaron organizaciones especializadas.

Presión por nuevas regulaciones

El caso reactivó el debate global sobre la regulación de inteligencia artificial y redes sociales. Parlamentarios europeos y británicos plantean que las leyes actuales no bastan y que es necesario exigir sistemas de IA más seguros, auditables y sujetos a supervisión independiente.

Pese a las crecientes críticas, X y xAI han mantenido un discurso defensivo, centrado en que eliminan contenido ilegal y sancionan a usuarios infractores. No obstante, reguladores insisten en que la responsabilidad principal recae en el diseño de la tecnología y en la capacidad de prevenir abusos antes de que ocurran.

Los comentarios están cerrados.

El Periodista