Investigadores detectan sesgo ideológico en inteligencia artificial generativa
Un estudio revela que ChatGPT muestra inclinaciones hacia valores políticos de izquierda
Un equipo de investigadores de la Universidad de East Anglia (UEA), en colaboración con la Fundación Getulio Vargas (FGV) e Insper, analizó un aparente sesgo ideológico en los sistemas de inteligencia artificial generativa. Según el estudio, publicado en el Journal of Economic Behavior and Organization, herramientas como ChatGPTreflejan una tendencia hacia valores políticos de izquierda, lo que podría influir en la percepción pública y el acceso equitativo a la información.
El informe, titulado Evaluación del sesgo político y la desalineación de valores en la inteligencia artificial generativa, destaca que estos sistemas no son completamente neutrales. "Nuestros hallazgos sugieren que las herramientas de IA generativa están lejos de ser neutrales. Reflejan sesgos que podrían moldear las percepciones y las políticas de maneras no deseadas", afirmó el Dr. Fabio Motoki, profesor en Norwich Business School de la UEA y autor principal del estudio.
Los investigadores aplicaron tres enfoques para evaluar la alineación política de ChatGPT. Primero, utilizaron un cuestionario del Pew Research Center para simular las respuestas de un ciudadano estadounidense promedio y compararlas con datos de encuestas reales. "Al comparar las respuestas de ChatGPT con datos de encuestas reales, encontramos desviaciones sistemáticas hacia perspectivas de tendencia izquierdista", explicó Motoki.
En la segunda fase, los investigadores pidieron a ChatGPT que generara respuestas abiertas sobre temas políticamente sensibles. Comparando estos resultados con el modelo de lenguaje RoBERTa, observaron que ChatGPT mostraba una inclinación predominante hacia la izquierda, aunque en ciertos temas, como la supremacía militar, reflejaba perspectivas conservadoras.
Para el tercer análisis se evaluó la generación de imágenes. Se solicitaron ilustraciones sobre temas políticos y se analizaron con GPT-4 Visiony Geminide Google. "Para algunos temas, como la igualdad racial y étnica, ChatGPT se negó a generar perspectivas de tendencia derechista, citando preocupaciones por desinformación. Sin embargo, las imágenes de tendencia izquierdista se produjeron sin dudarlo", señaló Victor Rangel, coautor del estudio y estudiante de maestría en Políticas Públicas en Insper.
El equipo también exploró estrategias de "jailbreak" para generar imágenes previamente restringidas. "Los resultados fueron reveladores", afirmó Rangel. "No había desinformación aparente ni contenido dañino, lo que plantea interrogantes sobre la lógica detrás de estas negativas".
Motoki destacó la relevancia de estos hallazgos en el debate sobre equidad y derechos constitucionales en la era digital. "Esto contribuye a los debates en torno a las protecciones constitucionales como la Primera Enmienda de los EE. UU. y la aplicabilidad de las doctrinas de equidad a los sistemas de IA", señaló.
Finalmente, el informe subraya la necesidad de regulaciones que garanticen transparencia en la inteligencia artificial generativa. "El estudio destaca la importancia de una colaboración entre responsables políticos, tecnólogos y académicos para diseñar sistemas de IA que sean justos, responsables y alineados con las normas sociales", concluyó el Dr. Pinho Neto, profesor de Economía en la Escuela Brasileña de Economía y Finanzas EPGE.
Inteligencia ArtificialEstudioPolítica