Un estudio reciente demuestra que ningún modelo de lenguaje es políticamente neutral.
Cada IA refleja los valores de sus desarrolladores y su contexto cultural.
Por ejemplo, ChatGPT muestra una inclinación más conservadora, mientras que Gemini, de Google, tiene posturas progresistas enfocadas en la justicia social.
Los sesgos en la inteligencia artificial
El método utilizado incluyó analizar cómo los modelos describen a 4000 personajes célebres.
Estas descripciones fueron evaluadas para determinar si los modelos mostraban opiniones positivas, negativas o neutras, revelando tendencias ideológicas claras en cada uno.
Cómo se detectaron los sesgos
Los modelos chinos valoran figuras como Yang Shangkun y Lei Feng, íconos comunistas, mientras que los occidentales prefieren activistas liberales como Jimmy Lai.
Los sesgos en IA pueden surgir tanto de los datos de entrenamiento como de las decisiones en la refinación y alineación de los modelos.
En Occidente, la realimentación humana puede enfatizar ciertos valores, mientras que en China los sesgos están más influenciados por directrices gubernamentales.
La IA occidental vs la IA china
La idea de una IA completamente neutral es un mito.
Los expertos sugieren tratar a las IA como periódicos: consultar varios para obtener una visión equilibrada.
Además, proponen garantizar "libertad de IA" para evitar regulaciones que limiten la diversidad ideológica en los modelos.
¿Qué significa esto para los usuarios?
Con el tiempo, los modelos de IA deberán ser más plurales para reflejar una mayor diversidad de ideologías.
Esto es esencial para evitar que la IA concentre la diversidad ideológica mundial en unos pocos bloques políticos y culturales.
La transparencia será clave para saber qué postura adopta cada modelo.