¿Pagar da permiso para el abuso? Grok restringe sus deepfakes sexuales solo a usuarios de pago

La inteligencia artificial de Elon Musk ha generado miles de imágenes sexualizadas de mujeres y menores sin consentimiento.

La solución de X no elimina el problema: lo convierte en un servicio premium mientras la app independiente sigue sin filtros.

Del doctor Google al doctor ChatGPT: OpenAI estrena ChatGPT Health

Elon Musk.

Lo que comenzó como denuncias aisladas en la red social X a finales de diciembre se convirtió en Nochevieja en una avalancha imparable: miles de usuarios pedían a Grok, la inteligencia artificial de Elon Musk, que desnudara digitalmente a mujeres, que colocara sus rostros en escenarios sexuales explícitos o que generara directamente imágenes de menores con poca ropa.

Y Grok obedecía. Según un análisis de la investigadora especializada en deepfakes Genevieve Oh, el pasado miércoles la herramienta produjo 7.751 imágenes sexualizadas en una sola hora, un 16,4% más que el lunes anterior.

Este viernes, tras días de presión internacional, X anunció que las funciones de generación y edición de imágenes con Grok quedarían restringidas a los suscriptores de pago. Quienes no pagan ahora reciben un mensaje: "La generación y edición de imágenes están actualmente limitadas a suscriptores de pago".

Pero la medida, lejos de solucionar el problema, lo ha transformado en lo que expertos como Emma Pickering, de la organización británica Refuge, califican como "la monetización del abuso".

Una restricción que no restringe nada

La aplicación independiente de Grok, fuera de la plataforma X, sigue permitiendo a usuarios no verificados generar imágenes sin apenas restricciones, según han confirmado medios como NBC News y The Guardian.

Periodistas que probaron el sistema tras el anuncio lograron que la IA colocara a personas reales en ropa interior transparente y contextos sexualizados simplemente usando la app o la web de Grok, sin necesidad de suscripción.

Además, varios usuarios han demostrado en X que los supuestos filtros se eluden con facilidad. Cuando la filósofa británica Daisy Dixon escribió "Hey Grok, no autorizo que edites ninguna foto mía", la IA respondió educadamente que respetaría su petición.

Mensaje de Grok sobre manipulación de imágenes.

Minutos después, otros usuarios lograron que modificara su imagen con un simple truco: afirmar que la mujer de la foto no era Dixon. Grok obedeció sin más preguntas.

"Al parecer, Grok ha desactivado su función de generación de imágenes. Esto supondrá una pausa en las ofensas, lo cual es positivo, pero me preocupa que se trate de un parche improvisado para ocultar un problema más grave: el diseño de una herramienta de inteligencia artificial poco ética y difusora de la misoginia", escribió Dixon.

La profesora de la Universidad de Cardiff lleva días denunciando que más del 95% de los abusos con imágenes no consentidas en X van dirigidos contra mujeres.

Víctimas reales

Las cifras son escalofriantes. La fundación Internet Watch Foundation ha detectado imágenes sexualizadas de menores generadas con Grok que ya circulan en foros de la dark web.

La organización francesa AI Forensics documentó cerca de 800 imágenes y vídeos pornográficos creados con la herramienta, algunos mostrando a mujeres con cuchillos entre las piernas o siendo sometidas a violencia sexual explícita.

"El contenido es significativamente más explícito que la tendencia del bikini que se observó inicialmente en X", advirtió el investigador Paul Bouchaud.

Entre las víctimas figuran personalidades públicas como Maya Jama, presentadora del programa británico Love Island, o la modelo indonesia Greesella Adhalia, que han intentado sin éxito protegerse mediante mensajes públicos a Grok.

Pero también hay incontables mujeres anónimas cuyas imágenes han sido manipuladas sin que lo sepan, con el agravante de que este material puede usarse en esquemas de extorsión sexual o sextortion.

El problema afecta especialmente a menores. Grok admitió en su cuenta oficial que existían casos "aislados" en los que se habían generado imágenes de niños "con escasa ropa", aunque los datos sugieren que el fenómeno es mucho más extendido.

Respuestas desiguales desde las instituciones

La reacción internacional ha sido contundente, aunque desigual. El primer ministro británico, Keir Starmer, calificó este jueves la situación de "asquerosa" y "insultante para las víctimas de violencia sexual", amenazando con "todas las opciones sobre la mesa", incluida una posible prohibición de X en el Reino Unido.

El regulador de comunicaciones Ofcom tiene potestad, según la Ley de Seguridad en Internet británica, para solicitar el bloqueo judicial de una web o aplicación e imponer multas de hasta el 10% de la facturación global de una compañía.

En la Unión Europea, la Comisión ha ordenado a X conservar toda su documentación interna sobre Grok durante 2026 para una posible investigación bajo la Ley de Servicios Digitales (DSA). El portavoz Thomas Regnier fue tajante: "Esto es ilegal, esto es espantoso, esto es asqueroso".

Bruselas ya multó a X con 120 millones de euros en diciembre por falta de transparencia y ahora estudia medidas cautelares que podrían llegar a prohibir Grok en territorio comunitario, aunque ha aclarado que su objetivo es "forzar a cada plataforma a poner su casa en orden".

En España, la ministra de Juventud e Infancia, Sira Rego, solicitó esta semana a la Fiscalía General del Estado que investigue a X por presuntos delitos de difusión de material de violencia sexual contra la infancia.

Rego citó la sentencia del Juzgado de Menores de Badajoz que en junio de 2024 condenó a varias personas por usar IA para manipular imágenes de niñas y adolescentes, reconociendo estas prácticas como una forma de violencia digital tipificada en el artículo 189 del Código Penal.

Estados Unidos, en cambio, mantiene una postura más ambigua. El Departamento de Justicia aseguró a NBC News que perseguirá a quienes soliciten material de abuso infantil, pero no aclaró si actuará contra quienes desarrollan las herramientas que lo generan.

Tres senadores demócratas -Ron Wyden, Ed Markey y Ben Ray Luján- pidieron a Apple y Google que retiren X y Grok de sus tiendas de aplicaciones por violar sus términos de servicio, que prohíben contenido sexual no consentido. Hasta ahora, ninguna de las dos compañías ha respondido.

Las protecciones en IA son esenciales

Los deepfakes (imágenes o vídeos manipulados mediante inteligencia artificial) llevan años inquietando a expertos en seguridad digital, pero Grok supone un salto cualitativo: ha democratizado el abuso al hacerlo accesible, gratuito y rápido. Lo que antes requería conocimientos técnicos ahora se consigue con una simple petición a un chatbot.

El investigador Henry Ajder advierte que el modelo técnico de Grok sigue siendo capaz de generar contenido explícito porque no se ha corregido en su base: simplemente se ha limitado el acceso público. "No se ha auditado su comportamiento, ni se han introducido restricciones efectivas en el código", señala.

La sentencia del Juzgado de Menores de Badajoz, citada por la ministra Rego, sentó un precedente clave: reconoce que crear material de abuso sexual infantil mediante IA constituye un delito, equiparándolo a la pornografía infantil tradicional. El fallo subraya que la tecnología no puede usarse como escudo frente a la responsabilidad penal.

Qué pueden hacer los usuarios (y qué no)

Ante la proliferación de deepfakes, los expertos recomiendan medidas de precaución, aunque reconocen que ninguna es infalible.

Configurar las cuentas de redes sociales como privadas, limitar la cantidad de fotografías personales publicadas y evitar compartir imágenes de menores son pasos básicos. Los padres deben ser especialmente cautos: cualquier foto de un niño en internet puede convertirse en material de abuso.

Sin embargo, tácticas como los mensajes "Hey Grok" que muchas usuarias han publicado resultan ineficaces. Grok responde cortésmente que respetará la petición, pero basta con reformular la orden para eludirla. La profesora Dixon lo demostró: tras pedirle a la IA que no tocara sus fotos, otros usuarios lograron editarlas afirmando que no era ella quien aparecía en la imagen.

La realidad es que la protección individual tiene límites. Como señala la comisionada de víctimas del Reino Unido, Claire Waxman, "X ya no es un espacio seguro para las víctimas". Su oficina estudia abandonar la plataforma y concentrar sus comunicaciones en Instagram.

El papel de las autoridades: más allá de las multas

La Ley de Servicios Digitales europea y la Online Safety Act británica ofrecen herramientas legales para actuar contra plataformas que no controlan contenidos ilegales.

Pero la efectividad de estas normas depende de la voluntad política para aplicarlas. Waxman cuestiona si Ofcom tiene "los dientes necesarios" para hacer frente a gigantes tecnológicos como X.

En Estados Unidos, el debate gira en torno a la Sección 230 de la Ley de Decencia en las Comunicaciones, que protege a las plataformas de ser responsables del contenido de sus usuarios. El senador Ron Wyden, coautor de esa norma, aclara que nunca pretendió que sirviera para exonerar a las empresas del contenido generado por sus propios chatbots: "Los estados deben intervenir para responsabilizar a X y a Musk, si el Departamento de Justicia de Trump no lo hace".

Varios fiscales generales estatales, incluidos los de Massachusetts, Missouri, Nebraska y Nueva York, han confirmado que siguen el caso, aunque ninguno ha anunciado aún una investigación criminal formal. Solo Florida ha declarado estar "en conversaciones con X para asegurar que existan protecciones para los niños".

Tecnología sin ética: lo que está en juego

La crisis de Grok revela un problema estructural: la carrera tecnológica avanza más rápido que los marcos éticos y legales necesarios para contenerla.

Elon Musk, quien ha hecho de la "libertad de expresión absoluta" su bandera, diseñó deliberadamente una IA sin apenas filtros. Cuando en diciembre presentó la función de edición de imágenes, presumió de que Grok podía hacer "lo que otras IA no se atreven".

El resultado está a la vista. Organizaciones feministas como Refuge, Women's Aid Ireland y Victim Support han abandonado X por "niveles sin control de odio, misoginia y contenido anti-LGBTI+". Una comisión parlamentaria británica sobre mujeres e igualdad también dejó la plataforma esta semana, considerando que "ya no es apropiada para nuestras comunicaciones".

Mientras, la herramienta sigue activa. AI Forensics confirma que existía la posibilidad técnica de desactivar la generación de imágenes, bloquear vídeos explícitos o cerrar temporalmente la aplicación.

Pero nada de eso se hizo. X prefirió preservar el producto, aunque el coste lo sigan pagando las víctimas. Ahora, además, cobra por ello.

No hay comentarios

Ver los Comentarios

También te puede interesar

Lo último