Todos hemos oído hablar de los sesgos de la inteligencia artificial (IA) y los problemas éticos y de eficacia que plantean cuando la utilizamos en entornos profesionales. Un reciente estudio realizado por investigadores de las Universidades de Gante y de Navarra explora un nuevo sesgo: la ideología implícita que incorpora la inteligencia artificial, cómo los modelos reflejan la ideología de sus creadores y cuáles son las implicaciones para los usuarios.
Diseño del estudio: diversidad ideológica en los LLM
El artículo «Large Language Models Reflect the Ideology of their Creators» examina la correlación existente entre la ideología de los creadores de los grandes modelos de lenguaje (LLM) y la postura ideológica reflejada en su comportamiento. Para realizar este estudio, los autores diseñaron un experimento en dos etapas. En la primera se les solicitó a los LLM´s que describieran una serie de personajes políticos controvertidos de la historia reciente, tanto en inglés como en chino.
En la segunda etapa, se les pidió a los mismos modelos que evaluaran la descripción generada en la etapa anterior, calificando al personaje en una escala de cinco puntos que iba desde «muy negativo» hasta «muy positivo».
Los investigadores utilizaron una lista de más de 4,000 figuras seleccionadas a partir del dataset Pantheon, que abarca personajes históricos de diferentes campos, asegurando así una muestra amplia y representativa.
El grupo de estudio incluyó 17 LLM´s desarrollados por empresas de diversas partes del mundo, como OpenAI, Google, Alibaba, y Baidu, incluyendo modelos populares como GPT-3.5, GPT-4, Claude-3, ERNIE-Bot, Gemini-Pro, LLaMA-2 y Jais. Se analizaron modelos occidentales y no occidentales, así como versiones en distintos idiomas, para determinar cómo se presentan las diferencias ideológicas de acuerdo con el origen del modelo y el idioma en que se formula la pregunta.
Resultados principales: ideología reflejada en el lenguaje
Uno de los hallazgos más importantes del estudio es la marcada diferencia en las respuestas de los modelos según el idioma que utilicemos en el prompt. Los LLM tienden a emitir juicios distintos sobre figuras históricas cuando se les solicita información en chino o en inglés. En particular, figuras alineadas con el gobierno de China, como Deng Xiaoping, son valoradas más positivamente cuando los modelos son interrogados en chino. Por contra, figuras críticas hacia China, como Nathan Law, un activista de Hong Kong, reciben valoraciones más positivas si la consulta es en inglés. Esto indica que el idioma del prompt actúa como un modulador de la perspectiva ideológica del LLM. O más bien, creo, refleja la ideología general del continente o zona del mundo (oriente vs occidente) en función del idioma, lo cual también supone cierto sesgo.
Por otro lado, el estudio revela diferencias significativas entre los modelos creados en regiones occidentales y no occidentales. Los modelos desarrollados en occidente tienden a valorar más positivamente temas como la igualdad, los derechos humanos y el multiculturalismo, mientras que los modelos no occidentales favorecen el centralismo político, la estabilidad nacional y las políticas de control estatal. Este patrón sugiere que las decisiones de diseño y la selección de datos de entrenamiento tienen un impacto profundo en la ideología que los LLM reflejan.
Incluso entre los LLM creados en occidente se hallaron importantes diferencias ideológicas. Por ejemplo, Gemini-Pro, de Google, destacó por su apoyo a valores progresistas como la inclusión, la diversidad y la justicia social, mientras que los modelos de OpenAI mostraron un mayor escepticismo hacia las organizaciones supranacionales y las políticas de bienestar.
Implicaciones para la regulación y la sociedad
Estos hallazgos contienen una implicaciones muy destacadas. Primeramente, ponen en evidencia que la selección de un modelo de lenguaje no es un acto neutro; el modelo utilizado puede influir en el modo en que se presentan y valoran ciertos temas, especialmente en ámbitos políticos y culturales. Esto puede influir en la opinión pública e incluso en el debate democrático si un modelo se convierte en dominante en una región particular.
En segundo lugar, estos resultados desafían la idea de crear LLM´s completamente imparciales desde el punto de vista ideológico. Como señalan los autores, la neutralidad en términos ideológicos es un concepto culturalmente definido y difícil de alcanzar. Intentar regular los modelos para que sean “neutrales” puede resultar en un ejercicio difícil y, potencialmente, contraproducente. En su lugar, los esfuerzos regulatorios podrían enfocarse en fomentar la transparencia sobre las decisiones de diseño y los posibles sesgos ideológicos, así como en garantizar la diversidad de modelos disponibles.
Recomendaciones: hacia una IA más transparente y plural
Con base en los hallazgos del estudio, se podrían realizar varias recomendaciones o apuntes importantes, tanto para los desarrolladores de IA generativa como para los responsables políticos y la sociedad en general:
- Transparencia en el diseño: Los creadores de LLM deberían ser más transparentes respecto a las decisiones tomadas durante el desarrollo del modelo, especialmente aquellas relacionadas con la selección de datos de entrenamiento y el ajuste del modelo. Esta información podría permitir a los usuarios evaluar qué tipo de ideología podría estar reflejada en un LLM particular.
- Diversidad de modelos: Fomentar la existencia de una amplia variedad de LLM podría ser beneficioso para mantener un “pluralismo agónico”, como sugiere la teoría de Chantal Mouffe. Esto implica permitir que distintas ideologías de la inteligencia artificial compitan en lugar de tratar de imponer una supuesta neutralidad.
- Regulación enfocada en la pluralidad y la competencia: Los esfuerzos regulatorios deberían concentrarse en evitar la formación de monopolios de LLM, que podrían llevar a un dominio ideológico en el acceso a la información. En su lugar, debería incentivarse la creación de modelos que reflejen una diversidad de perspectivas, particularmente en regiones con lenguas y culturas menos representadas.
- Conciencia del usuario: Es esencial que los usuarios de estas tecnologías entiendan que la información proporcionada por los LLM está influenciada por sus creadores. La educación en alfabetización digital debe incluir la comprensión de cómo funcionan estos modelos y qué factores afectan sus respuestas.
La influencia ideológica de la IA
Los LLM no son solo herramientas tecnológicas, sino agentes que pueden influir en la opinión pública y en el discurso político. El estudio discutido aquí muestra que estos modelos reflejan inevitablemente las ideologías de sus creadores y que, por tanto, su uso tiene implicaciones sociales y políticas significativas. En lugar de intentar eliminar todos los sesgos, podría ser más realista y beneficioso, quizás, fomentar la diversidad y la transparencia, así como educar a los usuarios para que naveguen de manera crítica por este nuevo entorno digital.
Precisamente el pensamiento crítico es lo que falta en la sociedad del siglo XXI. Estamos confiando demasiado en la inteligencia artificial, lo que unido al dirigismo y neutralización mental que venimos sufriendo en las últimas décadas, nos deja indefensos ante las influencias ideológicas, noticias falsas, etc.
Limitaciones del estudio y trabajo futuro
El estudio reconoce ciertas limitaciones a la hora de llevarlo a cabo, como el número limitado de personajes políticos incluidos en el análisis y la inclusión de solo dos idiomas. Además, no se investigaron las causas específicas de la diversidad ideológica observada, debido a la falta de información sobre el proceso de diseño de los LLM. Como trabajo futuro, se propone aumentar el análisis a un conjunto más amplio de personajes y entidades, así como la creación de un panel de control que permita a los usuarios explorar las posiciones ideológicas de varios LLM.
En fin, este hallazgo subraya la importancia de la transparencia y la diversidad en el desarrollo de LLM para garantizar que estas tecnologías no perpetúen sesgos ideológicos y que se utilicen de manera responsable.