Reportajes

¿Qué es un deepfake?

"Desviste a cualquiera con nuestro servicio gratuito" es uno de los mensajes de bienvenida de una web para crear deepfakes pornográficos. Para encontrarlas no hay que ser un hacker de la internet oscura o darknet. Es una técnica de Inteligencia Artificial que permite editar vídeos falsos de personas que aparentemente son reales, utilizando para ello algoritmos de aprendizaje no supervisados, conocidos en español como RGA (Red generativa antagónica), y vídeos o imágenes ya existentes.

Y no sólo como delito. En la película Rogue One una historia de Star Wars (2016) hay dos escenas con en las que la Princesa Leia aparece con la cara de Carrie Fisher cuando era joven, cuando en realidad fue interpretada por la actriz noruega Ingvild Deila.

El problema es que también se usa para la creación de contenido pornográfico, falsificar noticias y crear bulos malintencionados. Esta tecnología nació en el mundo de la investigación con aplicaciones prácticas en el cine como una alternativa a los procesos construcciones digitales que son muy costosos.

Para hacer un vídeo porno deepfake de 60 segundos, hacen falta menos de 25 minutos y cuesta cero euros ( también las hay de pago) usando solo una imagen del rostro de alguien, según datos del informe State of deepfakes 2023 de Home Security Heroes recogido por la UOC.

No es nuevo, los primeros empezaron con mujeres famosas: los rostros de Jennifer Lawrence o Scarlett Johansson eran recortados e incrustados en escenas pornográficas que después eran colgadas en páginas para adultos, tanto en vídeo como en imágenes.  "Se desinforma, se manipula y se destruye la reputación de la víctima de la misma manera que lo hace el revenge porn (porno de venganza) o la sextorsión", añade Rocío Pina, profesora de los Estudios de Psicología y Ciencias de la Educación y del grado de Criminología de la Universitat Oberta de Catalunya (UOC).

De acuerdo con el estudio antes mencionado, entre 2022 y 2023, la cantidad de pornografía deepfake creada aumentó un 464%, pasando de 3725 vídeos en 2022 a 21.019 en 2023, un patrón alarmante según los propios investigadores del informe. "Estas aplicaciones se fundamentan en sistemas de inteligencia artificial generativos, en este caso imágenes: crean un algoritmo que se ha entrenado con muchísimas imágenes y que se ha combinado con una aplicación web o una aplicación móvil, en la que la aportación de entrada es una imagen y la de salida otra imagen, pero se le aplica una transformación, que en este caso es un desnudo", explica Josep Curto, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC.

El 99% del fake tienen como víctimas a mujeres

"La inmensa mayoría de los vídeos tienen a las mujeres como víctimas, que ven vulnerado su derecho a la propia imagen, convertida en un objeto de consumo pornográfico. Tiene un efecto psicológico importante porque representa unas prácticas sexuales que, aunque nunca hayan ocurrido en realidad, son muy realistas", afirma Cristina Pujol, profesora de los Estudios de Ciencias de la Información y de la Comunicación de la UOC e investigadora del grupo GAME. Así lo confirma el informe State of deepfake 2023, que afirma que el 99% del contenido pornográfico deepfake está protagonizado por mujeres..

"Cabe destacar que en un contexto viral como el actual, donde las imágenes circulan muy rápido, la capacidad de respuesta es ínfima respecto al daño causado", puntualiza Pujol. La dificultad para controlar estas tecnologías de generación de imagen se complica por la facilidad de acceso que hay (software libre, modelos de algoritmos que se pueden descargar y reutilizar) y la dificultad de hacer una trazabilidad de esa imagen. "Estamos viviendo en una situación de proliferación masiva de estos nuevos aplicativos, puesto que ha habido grandes avances en estos sistemas generadores de texto y de imagen en el último año", advierte Curto.

Pornografía infantil a través de la IA

Este nuevo método de violencia digital contra las mujeres es cada vez más popular, pero también se está ejerciendo contra las niñas o jóvenes menores. Este año, han sido varios los casos de creación de pornografía infantil a través de la inteligencia artificial, como el de Almendralejo o el de los cuatro canteranos del Real Madrid.

El último estudio realizado por Internet Watch Foundation confirma el aumento de estos contenidos de forma preocupante. El estudio afirma que existen pruebas razonables de que la IA está ayudando a "desnudar" a los niños cuyas imágenes vestidas se han subido a internet y que aumenta el potencial de revictimización de las víctimas conocidas de abuso sexual infantil. Además, advierte que la mayoría de los contenidos de abuso sexual infantil de la IA encontrados son lo suficientemente realistas como para tratarse como contenidos de abuso sexual infantil "real".

Según los propios investigadores del estudio, es cada vez más difícil distinguir el contenido real del falso. "Los sistemas generadores de inteligencia artificial hace ya mucho tiempo que existen, pero no eran precisos, había muchos errores en la disposición de los elementos de una cara, de las manos... Se han realizado muchos avances en los que, básicamente, estos defectos se han ido corrigiendo de forma progresiva. Esta mejora se ha dado en los últimos seis meses o un año, pero se han focalizado en mejorar el algoritmo y no se ha atendido cuáles podrían ser las derivadas de los casos de uso de esta tecnología", explica Curto.

¿Qué puede ser si soy víctima?

En España existe, desde hace algunos años, un mecanismo para frenar de forma urgente la transmisión de estas imágenes. "Se puede acudir directamente al canal prioritario de la Agencia Española de Protección de Datos. Es un canal indicado para situaciones donde exista una sensibilidad, ya sea por cuestiones sexuales o en compartición de imágenes íntimas, o bien donde se vean agresiones, en temas de acoso, de acoso escolar, fundamentalmente", explica Blasi.

En menos de 24 horas, a través de la Agencia de Datos, se intentará evitar que se comparta esta información o que se siga difundiendo para cortar así la cadena de transmisión. "Otra vía que puede activarse en paralelo es la vía penal. La compartición o difusión de estas imágenes pornográficas creadas o no con inteligencia artificial comporta la comisión de un delito tipificado en el Código Penal, tanto si se trata de menores como si no", confirma el experto.

Después, se debe poner una denuncia en el cuerpo de policía indicado que tiene brigadas tecnológicas que se encargan, precisamente, de identificar quién ha sido el creador y perseguir ese delito en particular. "Y, como última vía, la vía civil, daños y perjuicios. En caso de haber sufrido daños cuantificables y reales (muchas veces este tipo de situación da lugar a estos), se puede iniciar una vía civil donde se busque una compensación económica para este tipo de daños", concluye Blasi.

Comentar

0 Comentarios

    Más comentarios