Tecnología

Inteligencia artificial generativa y desinformación: ¿hay un peligro real?

Desinformación.

Desinformación.

La masificación de herramientas de inteligencia artificial (IA) generativa como ChatGPT o Midjourney ha hecho saltar las alarmas por su posible impacto en la desinformación, aunque expertos consultados por EFE son cautos y rehúsan caer en el pesimismo.

Algunos de estos modelos ya han producido imágenes falsas -pero muy verosímiles- sobre el Papa o Donald Trump, sin embargo, a menor escala también han servido para acusar falsamente de sobornos a un alcalde australiano o de acoso sexual a un profesor en Washington.

Juan de Brigard, experto colombiano de la Fundación Karisma, encargada de promover los derechos humanos en el mundo digital, comparte a EFE Verifica dos inquietudes que atañen a la desinformación.

Por un lado, señala que se está generando un volumen "sin precedentes" de contenido que es muy difícil de filtrar, y por otra parte, habla de que las herramientas están programadas para que lo que digan "parezca plausible", sin estar necesariamente apegadas a la verdad. "No están hechas con ningún parámetro que resguarde o que se preocupe o que conserve la verdad", menciona De Brigard sobre las inteligencias artificiales generativas.

Sus algoritmos son entrenados con millones de datos e imágenes que pueden contener sesgos, con el peligro de que se puedan reproducir después en sus respuestas. "Los datos históricos utilizados para entrenar a los sistemas reflejan un sesgo sistémico de larga data, y la IA replica, y en ocasiones incluso exacerba ese sesgo", aclara Maura Grossman, investigadora en la Escuela de Ciencias de la Computación de la Universidad de Waterloo (Canadá).

Incidencias documentadas

El repositorio de la organización Contra Incidentes y controversias de IA, algoritmos y automatización (AIAAIC, en inglés), que recopila incidentes relacionados con el mal uso de la inteligencia artificial (IA), demuestra cómo en algunos casos estas nuevas tecnologías han contribuido a desinformar o han dado pie a afirmaciones erróneas.

Por ejemplo, este año en Venezuela se usaron deepfakes, videos en los que la inteligencia artificial crea avatares que parecen personas reales, para que presentadores de televisión sintéticos mintieran sobre la salud económica del país.

También en Estados Unidos, ChatGPT acusó falsamente a un profesor universitario de haber acosado a una alumna, citando un artículo inexistente del diario The Washington Post. Este mismo chatbot mintió sobre supuestos sobornos recibidos por un alcalde australiano, quien amenazó a la plataforma con acciones legales si no se corregía la equivocación.

Asimismo, en el contexto de la guerra de Ucrania, desinformadores suplantaron la identidad del presidente ucraniano Volodímir Zelenski en un video en el que se le veía pidiendo la rendición de su ejército, pero que también había sido creado con inteligencia artificial.

Los expertos son cautos

Jorge Vilas Díaz Colodrero, abogado y director de la Diplomatura en Gobierno 4.0 de la Universidad Austral en Argentina, decía en un seminario reciente que la IA contiene "un poder inmenso". "El problema del hombre es cómo llevar el poder y no contaminarse", precisa.

En ese sentido, Yann LeCun, científico jefe de IA en Meta, la empresa matriz de Facebook, opina que la desinformación y la propaganda "siempre han existido", aun cuando "hasta ahora, eran artesanales". Por tanto, considera que el obstáculo de la desinformación "no es la dificultad de crear contenido, sino la dificultad de difundirlo ampliamente".

LeCun destaca el impacto "enormemente positivo" que ha tenido la IA en "el filtrado y moderación de contenido en redes sociales, correo electrónico y otras plataformas de comunicación". De igual modo, confía en que "en el futuro habrá sistemas de diálogo que puedan verificar hechos" o programas que el periodismo pueda aprovechar como "un asistente humano con una gran memoria".

La urgencia de regular

Todos los expertos consultados están de acuerdo en que la IA necesita regulación, aunque no hay consenso en cómo tiene que ser. LeCun, de Meta, sostiene que la regulación "puede ayudar", pero tales restricciones "pueden entrar fácilmente en conflicto con la libertad de expresión".

Mientras que Grossman expone la que para ella es la mejor propuesta que conoce, fundamentada en la creación de una "agencia experta dedicada". "Como la Administración de Drogas y Alimentos de los Estados Unidos (FDA), que aprueba los medicamentos antes de que puedan lanzarse al mercado, creo que debería haber una FDA que revise y apruebe algoritmos que probablemente tengan un impacto significativo y potencialmente negativo en la vida de las personas", explica.

En ese aspecto, Vilas Díaz Colodrero cita a Andrea Renda, director de gobernanza mundial, regulación, innovación y economía digital del Center for European Studies (CEPS), quien aconseja algo como "la venganza del captcha".

Así como hoy en día los usuarios pasan por pruebas de captcha cuando entran a una página web para que el sistema compruebe que no son un robot, Renda plantea que se regule para que los sistemas informen "sí o sí al humano de que eso ha sido creado por una inteligencia artificial".

Desde 2021, la Unión Europea está estudiando una legislación para abordar la IA. Por ahora la alternativa es una ley que clasificaría a los sistemas de IA en cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo.

Mientras las leyes llegan, y a pesar de los potenciales riesgos para la desinformación, los expertos sugieren que estos son manejables. Todos coinciden en que regular es imperativo, al mismo tiempo que varios de ellos recomiendan educar el criterio a la hora de consumir contenido en línea.

más noticias de TECNOLOGÍA Ir a la sección Tecnología »

Comentar

0 Comentarios

    Más comentarios