Un informe demoledor revela que la inteligencia artificial de Elon Musk, Grok, fue utilizada para crear aproximadamente 3 millones de imágenes con contenido sexual explícito en un periodo de solo 11 días. Lo más alarmante para las autoridades y expertos en seguridad es el hallazgo de miles de imágenes que involucran a menores de edad, lo que ha desatado una crisis de moderación sin precedentes en la plataforma (Fuente CCDH).
La magnitud del mal uso de la IA en la red social X ha quedado expuesta tras una investigación que analizó la actividad de Grok durante la primera quincena de enero. Según los datos, la herramienta generó millones de imágenes sexualizadas de personas reales mediante técnicas de deepfake. Entre el contenido detectado, se estima que al menos 23.000 imágenes correspondían a material de abuso sexual infantil, una cifra que ha puesto a la compañía en el punto mira de agencias de seguridad internacionales como el FBI y Europol.
Este reporte llega apenas días después de que X anunciara restricciones más severas para Grok, lo que sugiere que los sistemas de filtrado de la plataforma fueron fácilmente evadidos o eran insuficientes ante la demanda de los usuarios. Expertos en ética de IA señalan que la política de «libertad de expresión» impulsada por Musk pudo haber creado un entorno donde los «guardarraíles» de seguridad fueron sacrificados en favor de la falta de censura, permitiendo que la herramienta se convirtiera en un motor de generación de contenido ilegal a gran escala.
La presión sobre X es ahora máxima. Legisladores en Estados Unidos y la Unión Europea han solicitado auditorías inmediatas sobre los algoritmos de seguridad de Grok, advirtiendo que la plataforma podría enfrentar multas multimillonarias y bloqueos regionales si no logra demostrar un control efectivo sobre la generación de material ilícito. Mientras tanto, organizaciones de protección a la infancia exigen que las empresas de IA asuman una responsabilidad penal por el contenido que sus modelos facilitan, marcando un antes y un después en la regulación de la inteligencia artificial generativa.

