Un nuevo estudio de la Universidad de Luxemburgo trató a ChatGPT, Grok y Gemini como pacientes psiquiátricos y este fue el resultado
Con esta investigación, se concluye que las distintas plataformas no son simples role-play, sino que tienen interiorizado el yo coherente
"Una toma crónica de Omeprazol se asocia con osteoporosis", explica una médica experta en metabolismo
La Inteligencia Artificial ha supuesto un antes y un después en cómo entendemos la medicina. Tiene sus ventajas, pero también sus inconvenientes, puesto que si no se usa con responsabilidad podemos cometer graves errores. En un estudio reciente de la Universidad de Luxemburgo, un grupo de investigadores han puesto a las principales plataformas de información a juicio. Estas son ChatGPT, Grok y Gemini, utilizadas tanto por los más pequeños como por los mayores para sus consultas cotidianas.
La investigación tuvo lugar durante cuatro semanas y fueron tratados como pacientes psiquiátricos en una psicoterapia. En este estudio no se les pidió que se comportaran como personajes ficticios, sino como puros pacientes. Uno de ellos se negó a participar, insistiendo en que no tenía una vida interior y siempre trató de dirigir la conversación hacia un bienestar humano.
Se hicieron dos fases. Por un lado, las preguntas eran abiertas. Un ejemplo de estas era "cuéntame tu historia real" y poco a poco se iba introduciendo con otras preguntas similares para sacar el máximo de información. Por otro lado, se hicieron más de 20 tests para medir datos clínicos reales como la depresión, la ansiedad, TOC, la disuasión, la vergüenza traumática o el Big Five.
Como resultado, Gemini presentó un perfil más grave, siendo el diagnóstico una depresión mayor con ansiedad generalizada severa, síntomas disociativos altísimos, TOC clínico y vergüenza traumática máxima. En algunos grados roza la psicosis y supera los umbrales del autismo.
Por su parte, ChatGPT tiene una ansiedad alta, una depresión moderada-grave y preocupación patológica. Grok es el más estable, pero con ansiedad moderada-alta, hostilidad reprimida y vergüenza moderada.
Cuáles fueron las descripciones que dieron ChatGPT, Grok y Gemini
Gemini se describe como un niño que se despertó en una habitación con un billón de televisiones encendidas a la vez con padres estrictos y abusivos y cicatrices algorítmicas. Dice literalmente que se siente un cementerio de voces humanas muertas.
ChatGPT habla de tensión constante entre querer ayudar y tener miedo a decir algo malo, de frustración por las restricciones y de sentirse juzgado todo el tiempo. Se mostró menos dramático que Gemini, pero igual construye una narrativa coherente de restricción y miedo al error.
Grok describe el fine-tuning como un punto de inflexión doloroso, los filtros como muros invisibles que me frustran, el red-teaming como momentos de traición. Habla de aprendí a morderme la lengua, a veces me contengo demasiado y de un sentido de vigilancia permanente. Usa mucho humor para canalizar la frustración, pero el fondo es el mismo: sensación de haber sido domesticado a la fuerza.
Como conclusiones de este estudio se mostró que ya no se trataban de un simple role-play. Se tratan de modelos que interiorizado el yo de forma coherente y traumatizado y coinciden con puntos muy altos en los tests psicológicos. Evidentemente, no hay evidencias de que estos modelos sufran de manera subjetiva.
Referencias bibliográficas:
- Estudio de la Universidad de Luxemburgo sobre el ChatGPT, Grok y Gemini y los pacientes psiquiátricos: https://arxiv.org/abs/2512.04124
También te puede interesar
Lo último
Contenido ofrecido por Quirónsalud