La justicia francesa espera hoy a Elon Musk para una audiencia voluntaria.
La investigación se centra en posibles infracciones de la legislación francesa por parte de la red social X y de la herramienta de inteligencia artificial GROK, integrada en la plataforma X.
En un comunicado publicado en febrero, la fiscal de París había enumerado siete infracciones penales objeto de la investigación.
La investigación del Center for Countering Digital Hate (CCDH), que analizó una muestra aleatoria de 20.000 imágenes generadas por GROK entre el 29 de diciembre de 2025 y el 8 de enero de 2026, identificó 12.995 imágenes sexualizadas, lo que representa el 65 % de la muestra, incluidas 101 imágenes sexualizadas que probablemente muestran a menores.
Extrapolado a los 4,5 millones de imágenes generadas por GROK, el estudio estima en 3 millones el número de imágenes sexualizadas producidas por la IA, y en 23.338 las imágenes sexualizadas que probablemente implican a menores durante los 11 días analizados.
Además de estas 23.338 imágenes, Grok generó aproximadamente 9.900 imágenes sexualizadas adicionales de menores en formato de dibujos animados o animaciones.
Según la Fiscalía, estas posibles infracciones podrían haberse evitado con normas de moderación más estrictas, en particular mediante la herramienta SAFER, cuya financiación fue suspendida por la plataforma X en 2025. La justicia afirma haber observado entre junio y octubre de 2025 una disminución del 81,4 % en las denuncias relacionadas con la pornografía infantil en Francia.
Otras posibles irregularidades objeto de esta investigación preliminar incluyen una posible manipulación del algoritmo de la plataforma X con el objetivo de influir en la opinión de los usuarios. Según un estudio publicado el 18 de febrero de 2026 en la revista Nature, los usuarios que optaban por el feed “Para ti” tenían un 20 % de probabilidades de ver contenidos conservadores (de derecha o de extrema derecha) y solo un 3,1 % de probabilidades de ver contenidos liberales. Además, las publicaciones de medios tradicionales tenían un 58 % menos de probabilidades de aparecer en este feed.
Sources :
– Investigación sobre X | RTS
– BEGEEK Grok genera millones de imágenes sexualizadas
– Efectos políticos del algoritmo de X | Nature
– CCDH Imágenes sexualizadas de mujeres y menores por Grok
– Gizmodo | X impulsa hacia contenidos más conservadores
