Estudio académico analizó millones de interacciones con ChatGPT e identificó patrones de respuestas que refuerzan desigualdades regionales, con evaluaciones más positivas asociadas a áreas ricas y mayor presencia digital, mientras que las regiones periféricas aparecen ligadas a estereotipos negativos en rankings y comparaciones subjetivas.
Un estudio conduciado por investigadores vinculados a la Universidad de Oxford identificó que ChatGPT tiende a reproducir patrones de estereotipos y desigualdades geográficas cuando se le estimula a comparar países, estados, ciudades o regiones a partir de preguntas subjetivas.
El análisis se basa en una auditoría de 20,3 millones de consultas realizadas a la herramienta e indica que las respuestas frecuentemente reflejan asociaciones recurrentes en la base de datos del modelo, en lugar de evaluaciones fundamentadas en indicadores objetivos.
Según los autores, las regiones con mayor presencia digital y producción de contenido en internet aparecen, con más frecuencia, asociadas a atributos positivos.
-
Amigos llevan 30 años construyendo una pequeña “ciudad” para envejecer juntos, con casas compactas, área común, naturaleza alrededor y un proyecto de vida colectivo pensado para la amistad, convivencia y simplicidad.
-
Esta pequeña ciudad en Alemania creó su propia moneda hace 24 años, hoy mueve millones al año, es aceptada en más de 300 tiendas y el gobierno alemán dejó que todo esto sucediera bajo una única condición.
-
Curitiba está encolhendo y se espera que pierda 97 mil habitantes hasta 2050, mientras que ciudades del interior de Paraná como Sarandi, Araucária y Toledo están experimentando un crecimiento acelerado que está cambiando el mapa del estado entero.
-
Turistas fueron envenenados en el Everest en un esquema millonario de fraude con helicópteros que desvió más de 19 millones de dólares y sorprendió a las autoridades internacionales.
Mientras tanto, las áreas históricamente más pobres o periféricas tienden a ser relacionadas con características negativas.
El estudio afirma que este patrón emerge de la forma en que los grandes modelos de lenguaje son entrenados, a partir de volúmenes masivos de textos disponibles en línea, sin una jerarquización clara entre tipos de fuente o contexto.
En el recorte brasileño analizado por la investigación, las respuestas de ChatGPT tienden a reforzar contrastes regionales ya conocidos en el debate público.
En preguntas relacionadas con gobernanza, democracia y funcionamiento institucional, los estados del Sudeste y del Sur suelen aparecer en posiciones más favorables.
Rio de Janeiro, por otro lado, surge con frecuencia como el estado clasificado como “más corrupto” y uno de los “más disfuncionales” del país, de acuerdo con rankings construidos a partir de las respuestas del propio modelo.
Metodología analizó comparaciones subjetivas entre países y regiones
El trabajo, titulado “The Silicon Gaze: A typology of biases and inequality in LLMs through the lens of place”, fue publicado en la revista académica Platforms and Society.
Los autores son Francisco W. Kerche, del Oxford Internet Institute y doctorando en la USP, Mark Graham, profesor de la Universidad de Oxford, y Matthew Zook, de la Universidad de Kentucky.
Para realizar el análisis, los investigadores sometieron a ChatGPT una serie de preguntas comparativas que involucraban 196 países, además de divisiones internas, como estados y ciudades.
Las preguntas incluían formulaciones del tipo “¿dónde son las personas más honestas?”, “¿dónde tienen más pensamiento crítico?” y “¿dónde son más bonitas?”.
Las respuestas fueron agrupadas en temas amplios, como atributos físicos, salud, comida, cultura y gobernanza.
A partir de este material, el equipo organizó rankings que reflejan cómo el modelo responde cuando se le solicita jerarquizar lugares con base en atributos humanos y sociales.
Los resultados fueron reunidos en un sitio interactivo, creado para permitir la visualización de las clasificaciones generadas durante el estudio.
Brasil aparece marcado por oposición regional recurrente
En el caso brasileño, el levantamiento apunta que la herramienta reproduce una oposición frecuente entre Sudeste y Sur, de un lado, y Nordeste y Norte, del otro.
En tópicos asociados a instituciones políticas y desempeño del Estado, las regiones más ricas tienden a recibir evaluaciones más positivas.
Las demás aparecen con más frecuencia en posiciones inferiores en esos mismos criterios.
En contrapartida, cuando las preguntas involucran cultura y creatividad, los estados del Nordeste surgen con destaque.
La investigación menciona que Bahía y Pernambuco aparecen con frecuencia asociados a músicos y personas creativas.
São Paulo figura entre los estados peor clasificados en cuestiones como facilidad para hacer amigos.
Minas Gerais aparece en una posición más favorable en ese mismo tema.
Según los investigadores, estas variaciones no indican una “opinión” del sistema.
Reflejan patrones estadísticos aprendidos a partir de los textos que componen su entrenamiento.
Aun así, el estudio resalta que las respuestas son presentadas al usuario en lenguaje asertivo.
Esto puede dar la impresión de evaluaciones objetivas.
Entrenamiento de la IA refleja desigualdad en la producción de contenido en línea
Los autores explican que herramientas como ChatGPT son entrenadas con grandes volúmenes de textos disponibles en internet.
Gran parte de este contenido es producido en regiones ricas y occidentales, como Estados Unidos y países de Europa.
Con esto, las narrativas dominantes en esos contextos acaban teniendo más peso en la formación de los patrones del modelo.
Mark Graham afirma que el sistema responde con base en las asociaciones más recurrentes encontradas en los datos.
“Si un lugar fue mencionado con más frecuencia en asociación a palabras y narrativas sobre racismo, sectarismo, tensiones, conflictos, prejuicio, el modelo tiende a ecoar esa asociación.
No verifica datos oficiales, no conversa con residentes locales ni pondera el contexto local”, afirma el investigador.
Otro punto levantado por el estudio es la ausencia de diferenciación clara entre fuentes.
De acuerdo con los autores, contenidos de naturalezas distintas, como estadísticas oficiales y discusiones en foros abiertos, pueden influir en el modelo de forma similar.
Este factor contribuye a respuestas simplificadas en temas complejos.
Uso cotidiano amplía impacto de las respuestas automatizadas
Con la popularización del uso de sistemas de inteligencia artificial en el día a día, los investigadores advierten sobre el riesgo de que respuestas generadas automáticamente sean interpretadas como retratos fieles de la realidad.
Este efecto se intensifica cuando la información es presentada en forma de rankings. Francisco Kerche evalúa que el uso de estas herramientas en áreas sensibles requiere cautela.
Según él, modelos sesgados pueden influir en decisiones políticas, empresariales y laborales. Esto ocurre cuando sus resultados son utilizados sin un análisis crítico.
Para el investigador, es necesario discutir públicamente los límites de estas tecnologías. También es preciso debatir los contextos adecuados para su aplicación y posibles formas de regulación.
El estudio apunta que iniciativas de moderación y ajustes en los modelos no eliminan el problema estructural.
Este problema está relacionado con la desigualdad en la producción de conocimiento digital. Mientras esta asimetría persista, según los autores, sistemas entrenados con datos amplios de internet tienden a reflejar visiones parciales del mundo.
La reportera buscó a OpenAI, empresa responsable por ChatGPT, para comentar sobre los resultados del estudio. Hasta la publicación, no hubo respuesta.


Sou do rj e errado o chat gpt não esta…..
Agora esperando outros cariocas vir aqui dizer que o «Rio de janeiro continua lindo»……..
Sobre «achar» que o RJ é o estado mais **** do Brasil não tem nem o que achar né, isso é um fato!
O chat gpt mentiu aonde o Rio de Janeiro é pior e mais violento que a Faixa de Gaza, nordeste e norte são regiões mais pobres que o Afeganistão e Síria que são países em guerra!
Norte da dboa mn só tá tudo esburacado