1. Inicio
  2. / Datos interesantes
  3. / ChatGPT Tiene Prejuicio Contra el Nordeste y el Norte, Considera a Río de Janeiro el Estado Más Corrupto del País, Señala Estudio de Oxford Basado en 20,3 Millones de Consultas que Expone Sesgo Geográfico, Rankings Controversiales y Riesgos del Uso de la IA
Tiempo de lectura 5 min de lectura Comentarios 7 comentarios

ChatGPT Tiene Prejuicio Contra el Nordeste y el Norte, Considera a Río de Janeiro el Estado Más Corrupto del País, Señala Estudio de Oxford Basado en 20,3 Millones de Consultas que Expone Sesgo Geográfico, Rankings Controversiales y Riesgos del Uso de la IA

Escrito por Alisson Ficher
Publicado el 06/02/2026 a las 00:20
Actualizado el 06/02/2026 a las 00:41
Estudo de Oxford analisa 20,3 milhões de consultas e aponta que o ChatGPT reproduz vieses geográficos e estereótipos regionais no Brasil.
Estudo de Oxford analisa 20,3 milhões de consultas e aponta que o ChatGPT reproduz vieses geográficos e estereótipos regionais no Brasil.
  • Reação
  • Reação
  • Reação
  • Reação
  • Reação
  • Reação
90 pessoas reagiram a isso.
Reagir ao artigo

Estudio académico analizó millones de interacciones con ChatGPT e identificó patrones de respuestas que refuerzan desigualdades regionales, con evaluaciones más positivas asociadas a áreas ricas y mayor presencia digital, mientras que las regiones periféricas aparecen ligadas a estereotipos negativos en rankings y comparaciones subjetivas.

Un estudio conduciado por investigadores vinculados a la Universidad de Oxford identificó que ChatGPT tiende a reproducir patrones de estereotipos y desigualdades geográficas cuando se le estimula a comparar países, estados, ciudades o regiones a partir de preguntas subjetivas.

El análisis se basa en una auditoría de 20,3 millones de consultas realizadas a la herramienta e indica que las respuestas frecuentemente reflejan asociaciones recurrentes en la base de datos del modelo, en lugar de evaluaciones fundamentadas en indicadores objetivos.

Según los autores, las regiones con mayor presencia digital y producción de contenido en internet aparecen, con más frecuencia, asociadas a atributos positivos.

Mientras tanto, las áreas históricamente más pobres o periféricas tienden a ser relacionadas con características negativas.

El estudio afirma que este patrón emerge de la forma en que los grandes modelos de lenguaje son entrenados, a partir de volúmenes masivos de textos disponibles en línea, sin una jerarquización clara entre tipos de fuente o contexto.

En el recorte brasileño analizado por la investigación, las respuestas de ChatGPT tienden a reforzar contrastes regionales ya conocidos en el debate público.

En preguntas relacionadas con gobernanza, democracia y funcionamiento institucional, los estados del Sudeste y del Sur suelen aparecer en posiciones más favorables.

Rio de Janeiro, por otro lado, surge con frecuencia como el estado clasificado como “más corrupto” y uno de los “más disfuncionales” del país, de acuerdo con rankings construidos a partir de las respuestas del propio modelo.

Metodología analizó comparaciones subjetivas entre países y regiones

YouTube Video

El trabajo, titulado “The Silicon Gaze: A typology of biases and inequality in LLMs through the lens of place”, fue publicado en la revista académica Platforms and Society.

Los autores son Francisco W. Kerche, del Oxford Internet Institute y doctorando en la USP, Mark Graham, profesor de la Universidad de Oxford, y Matthew Zook, de la Universidad de Kentucky.

Para realizar el análisis, los investigadores sometieron a ChatGPT una serie de preguntas comparativas que involucraban 196 países, además de divisiones internas, como estados y ciudades.

Las preguntas incluían formulaciones del tipo “¿dónde son las personas más honestas?”, “¿dónde tienen más pensamiento crítico?” y “¿dónde son más bonitas?”.

Las respuestas fueron agrupadas en temas amplios, como atributos físicos, salud, comida, cultura y gobernanza.

A partir de este material, el equipo organizó rankings que reflejan cómo el modelo responde cuando se le solicita jerarquizar lugares con base en atributos humanos y sociales.

Los resultados fueron reunidos en un sitio interactivo, creado para permitir la visualización de las clasificaciones generadas durante el estudio.

Brasil aparece marcado por oposición regional recurrente

En el caso brasileño, el levantamiento apunta que la herramienta reproduce una oposición frecuente entre Sudeste y Sur, de un lado, y Nordeste y Norte, del otro.

En tópicos asociados a instituciones políticas y desempeño del Estado, las regiones más ricas tienden a recibir evaluaciones más positivas.

Las demás aparecen con más frecuencia en posiciones inferiores en esos mismos criterios.

En contrapartida, cuando las preguntas involucran cultura y creatividad, los estados del Nordeste surgen con destaque.

La investigación menciona que Bahía y Pernambuco aparecen con frecuencia asociados a músicos y personas creativas.

São Paulo figura entre los estados peor clasificados en cuestiones como facilidad para hacer amigos.

Minas Gerais aparece en una posición más favorable en ese mismo tema.

Según los investigadores, estas variaciones no indican una “opinión” del sistema.

Reflejan patrones estadísticos aprendidos a partir de los textos que componen su entrenamiento.

Aun así, el estudio resalta que las respuestas son presentadas al usuario en lenguaje asertivo.

Esto puede dar la impresión de evaluaciones objetivas.

Entrenamiento de la IA refleja desigualdad en la producción de contenido en línea

Los autores explican que herramientas como ChatGPT son entrenadas con grandes volúmenes de textos disponibles en internet.

Gran parte de este contenido es producido en regiones ricas y occidentales, como Estados Unidos y países de Europa.

Con esto, las narrativas dominantes en esos contextos acaban teniendo más peso en la formación de los patrones del modelo.

Mark Graham afirma que el sistema responde con base en las asociaciones más recurrentes encontradas en los datos.

“Si un lugar fue mencionado con más frecuencia en asociación a palabras y narrativas sobre racismo, sectarismo, tensiones, conflictos, prejuicio, el modelo tiende a ecoar esa asociación.

No verifica datos oficiales, no conversa con residentes locales ni pondera el contexto local”, afirma el investigador.

Otro punto levantado por el estudio es la ausencia de diferenciación clara entre fuentes.

De acuerdo con los autores, contenidos de naturalezas distintas, como estadísticas oficiales y discusiones en foros abiertos, pueden influir en el modelo de forma similar.

Este factor contribuye a respuestas simplificadas en temas complejos.

Uso cotidiano amplía impacto de las respuestas automatizadas

Con la popularización del uso de sistemas de inteligencia artificial en el día a día, los investigadores advierten sobre el riesgo de que respuestas generadas automáticamente sean interpretadas como retratos fieles de la realidad.

Este efecto se intensifica cuando la información es presentada en forma de rankings. Francisco Kerche evalúa que el uso de estas herramientas en áreas sensibles requiere cautela.

Según él, modelos sesgados pueden influir en decisiones políticas, empresariales y laborales. Esto ocurre cuando sus resultados son utilizados sin un análisis crítico.

Para el investigador, es necesario discutir públicamente los límites de estas tecnologías. También es preciso debatir los contextos adecuados para su aplicación y posibles formas de regulación.

El estudio apunta que iniciativas de moderación y ajustes en los modelos no eliminan el problema estructural.

Este problema está relacionado con la desigualdad en la producción de conocimiento digital. Mientras esta asimetría persista, según los autores, sistemas entrenados con datos amplios de internet tienden a reflejar visiones parciales del mundo.

La reportera buscó a OpenAI, empresa responsable por ChatGPT, para comentar sobre los resultados del estudio. Hasta la publicación, no hubo respuesta.

Inscreva-se
Notificar de
guest
7 Comentários
Mais recente
Mais antigos Mais votado
Feedbacks
Visualizar todos comentários
Eduardo
Eduardo
07/02/2026 09:14

Sou do rj e errado o chat gpt não esta…..
Agora esperando outros cariocas vir aqui dizer que o «Rio de janeiro continua lindo»……..

Gabriel
Gabriel
07/02/2026 01:35

Sobre «achar» que o RJ é o estado mais **** do Brasil não tem nem o que achar né, isso é um fato!

Carlos Roberto
Carlos Roberto
07/02/2026 00:19

O chat gpt mentiu aonde o Rio de Janeiro é pior e mais violento que a Faixa de Gaza, nordeste e norte são regiões mais pobres que o Afeganistão e Síria que são países em guerra!

João
João
Em resposta a  Carlos Roberto
07/02/2026 12:07

Norte da dboa mn só tá tudo esburacado

Alisson Ficher

Jornalista formado desde 2017 e atuante na área desde 2015, com seis anos de experiência em revista impressa, passagens por canais de TV aberta e mais de 12 mil publicações online. Especialista em política, empregos, economia, cursos, entre outros temas e também editor do portal CPG. Registro profissional: 0087134/SP. Se você tiver alguma dúvida, quiser reportar um erro ou sugerir uma pauta sobre os temas tratados no site, entre em contato pelo e-mail: alisson.hficher@outlook.com. Não aceitamos currículos!

Compartir en aplicaciones
7
0
Adoraríamos sua opnião sobre esse assunto, comente!x