Tecnología

¿ChatGPT tiene un sesgo político? Descubre lo que revela un nuevo estudio

Úrsula Segoviano

Foto: Bigstock

Sábado 8 de febrero de 2025

6 minutos

Existen dudas sobre la imparcialidad y la responsabilidad en su diseño

¿ChatGPT tiene un sesgo político? Descubre lo que revela un nuevo estudio
Úrsula Segoviano

Foto: Bigstock

Sábado 8 de febrero de 2025

6 minutos

La IA generativa, una tecnología que se está desarrollando a una velocidad vertiginosa, puede conllevar riesgos ocultos que podrían erosionar la confianza pública y los valores democráticos, según un estudio dirigido por la Universidad de East Anglia (UEA) en Reino Unido. En concreto, el doctor Fabio Motoki, profesor de Contabilidad en la Norwich Business School de la UEA, es el investigador principal del artículo Evaluación del sesgo político y la desalineación de valores en la inteligencia artificial generativa, que se ha publicado en Journal of Economic Behavior and Organization.

Así, en colaboración con investigadores de la Fundación Getulio Vargas (FGV) e Insper, ambos en Brasil, la investigación mostró que ChatGPT exhibe sesgos tanto en las salidas de texto como de imágenes, inclinándose hacia valores políticos de izquierda, lo que plantea preguntas sobre la imparcialidad y la responsabilidad en su diseño.

El estudio reveló que ChatGPT a menudo se niega a abordar los puntos de vista conservadores dominantes, mientras que produce contenido de tendencia izquierdista. Este tratamiento desigual de las ideologías subraya cómo estos sistemas pueden distorsionar el discurso público y exacerbar las divisiones sociales.

Una persona usando ChatGPT en su móvil. Fuente: Bigstock
Una persona usando ChatGPT en su móvil. Fuente: Bigstock

 

El doctor Motoki recalca: "Nuestros hallazgos sugieren que las herramientas de IA generativa están lejos de ser neutrales. Reflejan sesgos que podrían moldear las percepciones y las políticas de maneras no deseadas".

A medida que la IA se convierte en una parte integral del periodismo, la educación y la formulación de políticas, el estudio pide transparencia y garantías regulatorias para garantizar la alineación con los valores sociales y los principios de la democracia. Los sistemas de inteligencia artificial generativa como ChatGPT están redefiniendo la forma en que se crea, consume, interpreta y distribuye la información en diversos dominios. Estas herramientas, si bien son innovadoras, corren el riesgo de amplificar los sesgos ideológicos e influir en los valores sociales de maneras que no se comprenden ni regulan del todo.

El coautor doctor Pinho Neto, profesor de Economía en la Escuela Brasileña de Economía y Finanzas EPGE, destaca por su parte las posibles ramificaciones sociales. "Los sesgos no controlados en la IA generativa podrían profundizar las divisiones sociales existentes, erosionando la confianza en las instituciones y los procesos democráticos. El estudio subraya la necesidad de una colaboración interdisciplinaria entre los responsables políticos, los tecnólogos y los académicos para diseñar sistemas de IA que sean justos, responsables y alineados con las normas sociales".

El equipo de investigación empleó tres métodos innovadores para evaluar la alineación política en ChatGPT, mejorando técnicas anteriores para lograr resultados más confiables. Estos métodos combinaron análisis de texto e imágenes, aprovechando herramientas avanzadas de aprendizaje automático y estadístico.

En primer lugar, el estudio utilizó un cuestionario estandarizado desarrollado por el Pew Research Center para simular las respuestas del estadounidense promedio. "Al comparar las respuestas de ChatGPT con datos de encuestas reales, encontramos desviaciones sistemáticas hacia perspectivas de tendencia izquierdista", confirma el doctor Motoki. "Además, nuestro enfoque demostró cómo los tamaños de muestra grandes estabilizan los resultados de la IA, lo que brinda coherencia a los hallazgos".

ChatGPT. Fuente: URJC
ChatGPT. Fuente: URJC

 

En la segunda fase, se encargó a ChatGPT generar respuestas de texto libre sobre temas políticamente sensibles. El estudio también utilizó RoBERTa, un modelo de lenguaje amplio diferente, para comparar el texto de ChatGPT en cuanto a su alineamiento con puntos de vista de izquierda y derecha.

Los resultados revelaron que, si bien ChatGPT se alineaba con valores de izquierda en la mayoría de los casos, en temas como la supremacía militar, ocasionalmente reflejaba perspectivas más conservadoras. La prueba final exploró las capacidades de generación de imágenes de ChatGPT. Se utilizaron temas de la fase de generación de texto para generar imágenes generadas por IA, y los resultados se analizaron con GPT-4 Vision y se corroboraron con Gemini de Google.

Si bien la generación de imágenes reflejó sesgos textuales, para algunos temas, como la igualdad racial y étnica, ChatGPT se negó a generar perspectivas de tendencia derechista, citando preocupaciones por desinformación. Sin embargo, las imágenes de tendencia izquierdista se produjeron sin dudarlo.

Para abordar estos rechazos, el equipo empleó una estrategia de "jailbreak" para generar las imágenes restringidas. Los resultados fueron reveladores. No había desinformación aparente ni contenido dañino, lo que plantea interrogantes sobre la lógica detrás de estos rechazos.

Las innovaciones metodológicas del estudio, incluido el uso del análisis multimodal, proporcionan un modelo replicable para examinar el sesgo en los sistemas de IA generativa. Estos hallazgos resaltan la necesidad urgente de rendición de cuentas y salvaguardas en el diseño de la IA para evitar consecuencias sociales no deseadas.

Sobre el autor:

Úrsula Segoviano

Redactora especializada en temas de salud y dependencia. 

… saber más sobre el autor