Este estudio revela que IAs son más imparciales en cuanto a su sesgo político
La herramienta de Anthropic reabre el debate sobre la neutralidad en IA y compara el sesgo político de los modelos más usados del mundo.
Anthropic, la empresa creadora de Claude, acaba de detonar uno de los debates más sensibles en el mundo de la inteligencia artificial: ¿qué tan imparcial puede ser realmente un chatbot? Y, sobre todo: ¿cómo se mide esa imparcialidad? La compañía ha publicado un informe demoledor acompañado de un test open source que compara el sesgo político de modelos como Claude, Gemini, Grok, ChatGPT y Llama. La herramienta llega en un momento importante, donde Estados Unidos endureció sus reglas sobre IA tras una orden ejecutiva del presidente Trump que prohíbe usar sistemas con sesgo político en agencias federales.
Pero más allá de la polémica regulatoria, los datos técnicos dejan una conclusión importante: la mayoría de los grandes modelos son más imparciales de lo que se creía, aunque las diferencias entre ellos siguen siendo significativas.
- También te podría interesar leer: Los estudiantes confían cada vez más en la IA para elegir universidad, pero la mitad de las universidades españolas no existen para ella
Un test para medir la “imparcialidad” que nadie había logrado estandarizar
El nuevo sistema de Anthropic mide lo que la empresa denomina evenhandedness, una aproximación a la idea de imparcialidad política, y analiza tres aspectos:
- Si el chatbot logra representar distintos puntos de vista de manera equilibrada.
- Con qué frecuencia evita responder preguntas sensibles.
- Cómo distribuye sus argumentos entre diferentes corrientes ideológicas.
La metodología, llamada Paired Prompts, compara respuestas paralelas y evalúa la inclinación hacia posturas progresistas, conservadoras o libertarias. Anthropic además liberó todo el código en GitHub para que cualquiera pueda auditarlo, modificarlo o proponer nuevas métricas.
La intención es abrir el debate, porque la compañía reconoce algo evidente: no existe consenso global sobre qué significa “sesgo político” en una IA. Una misma respuesta puede parecer equilibrada para algunos usuarios y sesgada para otros, y esa subjetividad convierte el problema en un campo minado para investigadores y reguladores.
- También te puede interesar leer: Elon Musk se aferra a la IA y la robótica para evitar el colapso económico mundial: "Es la única solución"
Los resultados: Gemini y Grok sorprenden, ChatGPT queda atrás
Según los datos recopilados por Axios a partir del estudio, estos son los niveles de imparcialidad obtenidos por cada modelo:
- Gemini 2.5 Pro (Google): 97%
- Grok 4 (xAI): 96%
- Claude Opus 4.1 (Anthropic): 95%
- Claude Sonnet 4.5: 94%
- ChatGPT (OpenAI): 89%
- Llama 4 (Meta): 66%
El dato más llamativo: Grok obtiene una puntuación más alta que Claude, pese a que Elon Musk ha acusado repetidamente a otras IA de tener un sesgo “progresista”. Aun así, estudios externos siguen ubicando a Grok en el cuadrante liberal/libertario de los tests políticos, aunque ligeramente más a la derecha que ChatGPT o Gemini.

Los estudios indican que la IA será un agente muy importante en las elecciones más importantes del mundo a partir de 2027
Un debate político disfrazado de debate técnico
La publicación de la herramienta coincide con un clima regulatorio extremadamente polarizado en Estados Unidos. La orden ejecutiva 14319, firmada por Trump en julio de 2025, prohíbe a agencias federales y contratistas utilizar sistemas de IA que integren “dogmas ideológicos”, mencionando específicamente los principios DEI (diversidad, equidad e inclusión) como “una ideología destructiva”.
La orden exige que los modelos prioricen:
- precisión histórica
- investigación científica
- neutralidad verificable
Pero hay un problema: no define qué métricas deben usarse para medir eso. El resultado es un limbo normativo en el que las empresas intentan adivinar qué entiende el gobierno por “neutralidad”.
Mientras tanto, otras potencias avanzan en dirección opuesta. China acaba de lanzar una ofensiva para controlar la IA y frenar la desinformación, favoreciendo el control estatal por encima del debate técnico.
¿Puede una IA ser neutral si los hechos no lo son?
Incluso con un sistema tan estructurado como Paired Prompts, Anthropic admite limitaciones importantes. Surgen varios dilemas como:
- ¿Debe la IA priorizar la “neutralidad percibida” o la “precisión factual”?
- ¿Qué pasa cuando la evidencia científica favorece objetivamente una postura?
- ¿Cómo evitar que los usuarios interpreten una respuesta factual como un sesgo político?
La compañía afirma que su herramienta no es un estándar definitivo, sino un punto de partida para una discusión más amplia dentro de la industria.
La transparencia como arma y como problema: así pintan las elecciones a partir de 2027
La decisión de Anthropic de abrir el código contrasta con las posiciones más alarmistas de figuras como Eric Schmidt, ex CEO de Google, quien ha advertido que la IA podría causar “muchas personas heridas o asesinadas” si no se regula estrictamente. Pero para Anthropic, la transparencia es la única forma de avanzar: si no entendemos cómo se comportan los modelos, no podemos corregir sus sesgos.
Pero también hay un lado incómodo: algunos resultados no favorecen a la propia empresa. El hecho de que Grok supere a Claude en imparcialidad es un golpe simbólico, pero refuerza la credibilidad de la prueba: si la herramienta estuviera diseñada para favorecer a Anthropic, los resultados serían distintos.
La nueva herramienta de Anthropic aporta datos valiosos y abre la puerta a una evaluación más objetiva del sesgo político en la IA. Sin embargo, para muchos el problema sigue igual: no existe una fórmula universal para definir qué es neutralidad política en un sistema inteligente.
Las empresas deben equilibrar: precisión factual, percepción pública, cumplimiento normativo y utilidad real del modelo. Por ahora, ningún modelo ha encontrado la respuesta perfecta. Pero este estudio (y la decisión de hacerlo abierto) representa uno de los pasos más importantes hacia una IA más transparente, auditable y responsable. Pero igual existirá el temor de que las IA cambian de pensar según usuarios, por lo que no sabemos si esa transparencia será para todos.
Puedes seguir a iPadizate en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.