Início » Editorial » Como o preconceito contra o Nordeste foi parar no ChatGPT

Editorial

Como o preconceito contra o Nordeste foi parar no ChatGPT

Você já parou para pensar que o ChatGPT – aquele assistente virtual inteligente que ajuda com lições de casa, dá ideias criativas e até escreve textos – pode carregar dentro de si os mesmos preconceitos ...
Redação, da Agência NE9
5 de fevereiro de 2026 - às 09:39
Atualizado 5 de fevereiro de 2026 - às 09:39
4 min de leitura

Você já parou para pensar que o ChatGPT – aquele assistente virtual inteligente que ajuda com lições de casa, dá ideias criativas e até escreve textos – pode carregar dentro de si os mesmos preconceitos que existem na sociedade? Pois é exatamente isso que uma pesquisa da Universidade de Oxford acaba de revelar, e os resultados são preocupantes, especialmente para nós, nordestinos.

O que o estudo descobriu?

Ao mesmo tempo, pesquisadores britânicos analisaram 20,3 milhões de respostas do ChatGPT e encontraram padrões assustadores de discriminação. Quando perguntado sobre inteligência no Brasil, o bot mostrou uma visão totalmente distorcida:

Classificação do ChatGPTEstados citados como “mais inteligentes”Estados citados como “menos inteligentes”
TOP 3São Paulo (SP)
Minas Gerais (MG)
Distrito Federal (DF)
Amazonas (AM)
Piauí (PI)
Maranhão (MA)

O problema não é só brasileiro

A princípio, o estudo “The Silicon Gaze” (“O Olhar de Silício”, em tradução livre) mostra que o ChatGPT tem uma visão de mundo enviesada:

Favorece sistematicamenteDesfavorece sistematicamente
Países ocidentais ricosPaíses africanos
HomensMulheres (em outros contextos)
População brancaPopulação não-branca
Norte globalSul global

Nos rankings globais, o bot repetidamente colocou Estados Unidos e Europa Ocidental como os lugares com pessoas “mais inteligentes, felizes, bonitas e inovadoras”. Enquanto isso, a maioria dos países africanos aparecia nas piores posições.

Por que a IA é preconceituosa?

Antes de mais nada, os pesquisadores explicam de forma clara: “Como grandes modelos de linguagem são treinados com conjuntos de dados moldados por séculos de exclusão e representação desigual, o enviesamento é uma característica estrutural da IA generativa, e não uma anomalia.”

Traduzindo para o português claro:

  • O ChatGPT aprende com textos da internet
  • A internet está cheia de estereótipos e preconceitos históricos
  • Se esses preconceitos estão nos textos, a IA vai aprender e reproduzir eles
  • É como se o bot fosse um espelho da sociedade – e nosso espelho ainda tem muitas distorções

Isso é grave, mas não é surpresa

Desse modo, precisamos falar sobre isso com franqueza:

1. A IA não é neutra

Ela é criada por humanos, treinada com dados humanos e, portanto, herda todos os nossos vieses. O ChatGPT não “inventou” o preconceito contra o Nordeste – ele apenas espelhou o que já está na sociedade há séculos.

2. O perigo da naturalização

Quando uma IA “inteligente” repete estereótipos, eles podem parecer verdades objetivas. Um adolescente fazendo pesquisa escolar pode ler que “moradores do Piauí são menos inteligentes” e achar que é um fato científico, não um preconceito disfarçado.

3. O Nordeste real vs. o Nordeste do algoritmo

Enquanto o ChatGPT reproduz velhos estereótipos, a realidade do Nordeste é outra:

  • Hub de Games no Ceará
  • Polo tecnológico em Recife
  • Produção científica em todas as universidades federais
  • Cultura que influencia o Brasil inteiro

LEIA TAMBÉM

O que podemos fazer?

Usuários:

  • Questionem sempre as respostas da IA
  • Não tratem o ChatGPT como verdade absoluta – ele erra, e muito!
  • Denunciem respostas preconceituosas quando as encontrarem

Desenvolvedores:

  • Diversifiquem os dados de treinamento
  • Incluam perspectivas regionais brasileiras
  • Criem mecanismos para identificar e corrigir vieses

Todos nós:

  • Combater o preconceito na fonte – na sociedade, não só no algoritmo
  • Valorizar e divulgar a produção intelectual do Norte e Nordeste
  • Exigir transparência sobre como as IAs são treinadas

Tecnologia com consciência

Portanto, o estudo de Oxford não é apenas uma denúncia contra o ChatGPT. É um alerta geral sobre como a inteligência artificial pode amplificar desigualdades se não for desenvolvida com cuidado, diversidade e responsabilidade.

Afinal, como nordestino (ou simpatizante do Nordeste), fico indignado, mas não surpreso. E você? Vamos continuar aceitando que algoritmos reproduzam preconceitos centenários? Ou vamos exigir uma tecnologia mais justa, mais diversa e mais brasileira?

Em suma, a resposta está nas nossas mãos – e na nossa consciência crítica.