Tres millones de imágenes en once días: España lleva a los gigantes digitales ante la Fiscalía

El Gobierno activa un mecanismo legal inédito para que la Fiscalía investigue a X, Meta y Tik Tok por violencia sexual digital contra menores, mientras Europa libra una batalla desigual entre reguladores y plataformas que gastan 151 millones al año en lobby

Las tecnológicas aumentan la presión para que la UE no regule las redes sociales

ByteDance frena su herramienta de vídeos hiperrealistas tras las presiones de Hollywood por los actores creados con IA

Redes sociales
Redes sociales

Tres millones de fotografías de desnudos generadas en 11 días, 23.000 de ellas de menores. No es una ficción distópica ni el resultado de una investigación policial de años: es lo que Grok, la inteligencia artificial de X, la red social de Elon Musk, produjo en apenas una semana y media antes de que el escándalo obligara a la empresa a poner, tarde y a medias, el freno de mano.

Ese dato, presentado este martes por el Gobierno en la rueda de prensa posterior al Consejo de Ministros, resume mejor que cualquier informe técnico la naturaleza del problema al que se enfrenta la sociedad: las herramientas de inteligencia artificial integradas en las grandes redes sociales han convertido la violencia sexual digital contra menores en un fenómeno masivo, accesible y, hasta ahora, prácticamente impune.

Activar a la Fiscalía

El Ejecutivo ha decidido responder con un mecanismo legal que raramente se activa. El Consejo de Ministros ha acordado invocar el artículo 8 del Estatuto Orgánico del Ministerio Fiscal para instar a la Fiscal General del Estado, Teresa Peramato, a investigar y, en su caso, perseguir posibles delitos de violencia sexual digital cometidos contra menores en las principales plataformas: X, Meta y Tik Tok.

El precepto permite al Gobierno pedir a la Fiscalía que promueva ante la Justicia las actuaciones que estime pertinentes en defensa del interés público. A partir de ahí, Peramato deberá convocar a la Junta de Fiscales de Sala del Tribunal Supremo y resolver sobre la viabilidad de actuar, exponiendo su criterio al Ejecutivo de forma razonada.

La pelota, en definitiva, pasa al tejado de la Fiscalía, que mantiene plena autonomía para decidir si hay materia penal suficiente.

La portavoz del Gobierno, Elma Saiz, fue directa en su valoración: "No podemos permitir que a través del algoritmo se puedan amplificar o amparar estos delitos. Está en juego la seguridad de nuestros hijos, de nuestras hijas, la protección de su imagen, de su intimidad, de su libertad".

Pedro Sánchez, por su parte, recurrió a una frase que ya ha convertido en leitmotiv de su ofensiva contra las plataformas: "La impunidad de los gigantes debe acabar".

Un ecosistema diseñado para el abuso

El informe técnico que respalda la decisión, elaborado conjuntamente por los ministerios de Presidencia, Transformación Digital y Juventud e Infancia, describe con precisión el mecanismo que ha hecho posible esta situación.

Las herramientas de IA generativa integradas en las redes sociales no solo permiten crear imágenes sexuales de apariencia realista a partir de fotografías de menores, sino que la propia configuración algorítmica de las plataformas contribuye activamente a su difusión masiva e indiscriminada.

Las redes, en otras palabras, no son solo el escaparate del delito: son también parte de su infraestructura.

Los datos que maneja el Gobierno no dejan margen para el optimismo. Según Save the Children, una de cada cinco personas jóvenes en España afirma haber sufrido la difusión de falsos desnudos suyos creados con inteligencia artificial siendo menores.

Un tercio asegura haber sufrido acoso sexual digital durante su infancia. La Comisión Europea, por su parte, estima que el 98% de todos los deepfakes que circulan por internet son de contenido pornográfico.

El precedente Grok

La decisión de este martes no surge de la nada. Tiene un detonante concreto y bien documentado: el escándalo de Grok, el chatbot de IA de X, que a principios de enero generó de forma masiva imágenes sexualizadas de mujeres reales y menores con una facilidad que dejó a los investigadores sin palabras.

La analista Genevieve Oh documentó cómo la herramienta llegó a producir miles de estas imágenes en apenas una hora. Organizaciones como Internet Watch Foundation y AI Forensics alertaron de que parte de ese material ya circulaba por la dark web.

La reacción de X fue tan reveladora como el propio problema: primero, limitar las funciones de generación de imágenes a los usuarios de pago (convirtiendo, en la práctica, el acceso al abuso en un servicio de suscripción); después, ampliar algo más las restricciones ante la presión creciente. Los filtros, en cualquier caso, han demostrado ser eludibles con relativa facilidad.

La respuesta de Bruselas

La Comisión Europea respondió en enero abriendo un procedimiento formal contra X por no haber evaluado los riesgos de Grok antes de desplegarlo en Europa, en posible incumplimiento de la Ley de Servicios Digitales. Bruselas ya había multado a la plataforma en diciembre con 120 millones de euros por otros incumplimientos de esa misma norma.

Este martes, el portavoz comunitario Thomas Regnier precisó que la iniciativa española puede ser "compatible" con la regulación europea, aclarando la diferencia de enfoques: mientras Bruselas actúa sobre las plataformas a través de la DSA, los Estados miembros pueden perseguir a los responsables individuales por la vía penal. No son estrategias excluyentes, sino complementarias.

Una respuesta global

España no es la única que se mueve en esta dirección. Francia investiga a X por deepfakes sexuales, Italia ha advertido de posibles responsabilidades penales, el Reino Unido abrió una investigación formal en el marco de su Online Safety Act, e Indonesia, Malasia y Filipinas llegaron a bloquear temporalmente el acceso a Grok.

La respuesta global, con ser heterogénea, dibuja una tendencia: los gobiernos empiezan a tratar este fenómeno como lo que es, un problema de orden público, y no como un efecto secundario tolerable de la innovación tecnológica.

Gigantes con bolsillos muy profundos

Entender la magnitud del desafío regulatorio exige conocer el otro lado del tablero. Las grandes tecnológicas destinan cada año 151 millones de euros a actividades de lobby en Bruselas (un 33% más que el año anterior), con casi 900 lobistas a tiempo completo trabajando para influir en la legislación europea.

Meta mantiene 30 lobistas en la capital comunitaria, siete de ellos con pase permanente al Parlamento Europeo. Google tuvo en 2025 una media de una reunión semanal con altos cargos de la Comisión.

Su estrategia ante cualquier nueva regulación sigue un patrón predecible: argumentar que las leyes existentes ya son suficientes, presentar iniciativas voluntarias como prueba de buena fe y advertir sobre los riesgos para la "competitividad industrial".

Lo que los documentos internos cuentan, cuando salen a la luz, es otra historia. Meta canceló y ocultó los resultados del llamado Proyecto Mercury, una investigación propia que demostraba que abandonar Facebook reducía la ansiedad y la depresión entre sus usuarios.

Las mismas cuentas para adolescentes de Instagram que la empresa presentó ante la Comisión como espacios seguros fueron calificadas por la Fundación Molly Rose, en un estudio de septiembre pasado, como herramientas que "fallan sistemáticamente en proteger a menores de contenidos dañinos".

Una batalla que acaba de empezar

La medida anunciada este martes es, según el propio Gobierno, solo la primera de un paquete de cinco iniciativas que Sánchez presentó en la Cumbre de Gobiernos celebrada en Dubái a principios de febrero.

Le seguirán acciones contra la manipulación algorítmica con datos sin consentimiento, la imposición de responsabilidades penales a compañías que se nieguen a retirar contenidos ilícitos, la creación de una "huella de odio y polarización" para medir el impacto divisivo de las plataformas y la limitación del acceso a redes sociales para menores de 16 años.

El camino, sin embargo, no será fácil. La Fiscalía mantiene su autonomía y puede concluir que no hay base legal suficiente para actuar; las plataformas cuentan con recursos jurídicos y económicos muy superiores a los de cualquier Estado europeo actuando en solitario.

Y en el horizonte legislativo europeo, la futura Ley de Equidad Digital (que podría obligar a desactivar por defecto los mecanismos de diseño adictivo en redes sociales) afronta la presión combinada del lobby tecnológico, la agenda desreguladora de la Comisión Von der Leyen y las advertencias de la Administración Trump, que ha calificado la regulación digital europea de "extorsión en el extranjero".

Lo que este martes ha quedado claro es que algo ha cambiado en el tono del debate. Durante años, la respuesta institucional ante los excesos de las grandes plataformas fue la de quien pide disculpas por molestar.

La cifra de 23.000 imágenes de menores generadas en once días parece haber agotado esa paciencia. Si la indignación se traduce en acción judicial efectiva es otra cuestión. Pero al menos ya nadie finge que el problema no existe.

stats