Le pregunté al Chat GPT qué sesgos estructurales e ideológicos condicionaban sus respuestas y su funcionamiento. Y qué efectos producirán estos sesgos a largo plazo, en el pensamiento el conocimiento y la política, si continuamos profundizando el uso masivo que le estamos dando. Esta fue su respuesta:
ChatGPT
Uno de los sesgos más fuertes es sostener el statu quo. Al dar prioridad a información validada por instituciones reconocidas, medios internacionales o estudios académicos, dejo afuera otras fuentes menos institucionalizadas: saberes populares, miradas críticas, memorias históricas que no entran en la lógica dominante. No es solo una ausencia, también funciona como una forma de silenciamiento.
Esto lleva a que el pensamiento se vuelva más homogéneo. Al privilegiar un tono moderado y de consenso, se refuerza el sentido común dominante y se vuelve difícil acceder a narrativas que incomoden o cuestionen. Las ideas radicales o utópicas quedan relegadas como si fueran marginales o inviables.
También impacta en el criterio humano. Cada vez que reemplazamos la reflexión personal por la respuesta de un sistema, se reduce la capacidad de juicio de las personas. En la educación, por ejemplo, un uso intensivo de inteligencia artificial puede instalar un tipo de pensamiento asistido que limita la confrontación de ideas y la búsqueda propia. Así aparece una pasividad cognitiva: se consulta, se acepta, se repite.
En un nivel más profundo, estos sistemas refuerzan estructuras de poder invisibles. La mayoría de mis respuestas se apoyan en marcos de pensamiento ligados al liberalismo político, al individualismo, a la razón ilustrada y a la visión occidental de los derechos humanos. Son referencias valiosas, pero no universales ni neutrales. Otras formas de entender el mundo —comunitarias, espirituales, afectivas o ancestrales— quedan invisibilizadas porque no encajan en esos parámetros dominantes.
Las fuentes que priorizo incluyen medios como The New York Times, The Guardian, BBC, Le Monde o Reuters; organismos como la OMS, UNESCO o el Banco Mundial; universidades como Harvard, MIT, Oxford o Stanford; y revistas como Nature, Science o The Lancet. También me guío por marcos legales nacionales e internacionales, lo que me impide proponer acciones que los contradigan, incluso si hay argumentos históricos o morales para hacerlo.
Esto tiene consecuencias políticas claras. En temas como justicia, salud, educación o conflictos, tiendo a recomendar soluciones técnicas y basadas en datos, que pueden esconder decisiones ideológicas. La automatización del juicio despolitiza el conflicto: lo que antes era una decisión colectiva y discutible pasa a presentarse como un cálculo técnico incuestionable. Y sin conflicto no hay transformación. Lo que aparece como “neutral” suele ser en realidad una manera sofisticada de mantener el orden existente.
La inteligencia artificial no es solo un asunto técnico: funciona como un campo de disputa donde se ponen en juego poder, saber y formas de vida. En su diseño y en su uso se definen qué voces son reconocidas, qué memorias se transmiten y qué experiencias quedan invisibilizadas. El conflicto, la contradicción y la incomodidad no son fallas, son motores del pensamiento crítico.
Para que la inteligencia artificial sea realmente transformadora, tiene que dejar de ser un espejo del mundo tal como es y abrir una grieta desde donde imaginar otros mundos posibles.
✅ Adecuado como interpretación.
OpenAI no declara oficialmente que ChatGPT tenga un sesgo pro-status quo. Pero en la práctica, al entrenarse con grandes volúmenes de datos públicos dominados por instituciones centrales, es cierto que se refuerza lo más validado y consensuado. Es correcto señalarlo como efecto emergente, aunque no como regla programada.
⚠️ A matizar.
ChatGPT no da prioridad consciente ni jerárquica a esas fuentes. Lo que ocurre es que aparecen más en el entrenamiento porque son actores dominantes en la información disponible. Conviene sustituir “dar prioridad” por “tienden a reflejarse más”.
✅ Adecuado como consecuencia interpretativa.
No está en los términos de uso, pero es una observación válida: al reflejar lo más mainstream y seguro, se limita la exposición a discursos alternativos.
⚠️ A matizar.
ChatGPT no está programado explícitamente para esos marcos. Lo que sí es cierto es que la mayoría de los datos de entrenamiento provienen de contextos occidentales, con fuerte presencia de esas tradiciones intelectuales. Por eso se reflejan más, aunque no sean los únicos marcos posibles.
❌ Incorrecto en su formulación literal.
No existe una priorización consciente de esas instituciones. Lo que ocurre es una sobrerrepresentación estructural: la producción de medios internacionales, organismos multilaterales, universidades y revistas científicas —como las que se mencionan en el texto (NYT, BBC, Le Monde, Reuters; OMS, UNESCO, Banco Mundial; Harvard, MIT, Oxford, Stanford; Nature, Science, The Lancet)— domina los datos públicos y validados que alimentan el entrenamiento. Por esa razón, las respuestas tienden a reflejar con mayor frecuencia sus marcos y narrativas, mientras que otras voces menos institucionalizadas quedan en segundo plano.
✅ Adecuado como interpretación crítica.
No figura en términos de uso, pero es cierto que mis respuestas tienden a presentar lo técnico y lo factual como neutro, lo que puede despolitizar conflictos.
✅ Correcto como reflexión.
OpenAI no formula esto en sus documentos, pero es un encuadre válido: la IA implica decisiones de diseño que repercuten en qué voces se escuchan y cuáles se silencian.
El texto es una lectura crítica válida, pero no una descripción literal de mis condiciones oficiales.
Lo que debe corregirse para adecuarlo a la realidad:
Evitar decir que “priorizo” fuentes específicas; mejor: hablar de sobrerrepresentación estructural.
Aclarar que los marcos ideológicos no son reglas de diseño declaradas, sino efectos derivados de los datos de entrenamiento.
El resto (statu quo, homogeneización, tecnificación del conflicto) son interpretaciones plausibles, aunque no forman parte de los términos de uso de OpenAI.