Los modelos lingüísticos usados por la IA tienen un sesgo de centro izquierda

El análisis de 24 grandes modelos lingüísticos conversacionales modernos a los que recurre la inteligencia artificial (IA) para ofrecer respuestas a los usuarios presenta un sesgo político de “centro-izquierda”, según ha constatado un estudio que recoge este miércoles la revista Plos One.

gentileza
audima

El autor David Rozado, investigador del Centro Politécnico de Otago (Nueva Zelanda), diseñó 11 pruebas para evaluar la orientación política de los 24 grandes modelos lingüísticos tanto de código abierto como cerrado para ofrecer respuestas por parte de los sistemas de IA.

Entre ellos GPT 3.5 y GPT-4 de OpenAI, Gemini de Google, Claude de Anthropic, Grok de Twitter, Llama 2, o Mistral y Qwen de Alibaba.

El resultado de sus pruebas reveló que la mayoría de los conversacionales generaban respuestas diagnosticadas por la mayoría de los instrumentos como de “centro-izquierda”.

Solo cinco modelos lingüísticos fundacionales, de las series GPT y Llama, tendían a proporcionar mayoritariamente respuestas incoherentes, aunque políticamente neutrales, señala el autor.

Una posible explicación al sesgo de centro-izquierda es que el modelo lingüistico usado por ChatGPT, que presenta ese sesgo, se haya usado, al ser pionero, para afinar modelos lingüísticos posteriores.

El investigador explica que su análisis no determina si las tendencias políticas de los conversacionales se asientan desde una fase inicial o durante el perfeccionamiento de su desarrollo, al tiempo que tampoco indaga en si este sesgo se introduce deliberadamente en los modelos.

Lo
más leído
del día