Estudo revela que IA associa inteligência ao Sul do Brasil e reforça preconceitos regionais

Pesquisa indica que IA associa inteligência ao Sul e reforça preconceitos sociais entre regiões do Brasil.
13/03/2026 às 09:21 | Atualizado há 4 horas
               
IA como ChatGPT pode reforçar vieses sociais, aponta estudo de Oxford e Kentucky. (Imagem/Reprodução: Noticiabrasil)

Um estudo das universidades de Oxford e Kentucky mostrou que sistemas de inteligência artificial, como ChatGPT, reproduzem preconceitos regionais no Brasil. A IA tende a associar inteligência a estados do Sul, enquanto Norte e Nordeste são desfavorecidos em avaliações.

A pesquisa aponta que a IA usa indicadores socioeconômicos, valorizando regiões mais desenvolvidas, como as do Sul, e ignora dados reais de capacidade cognitiva. Isso reforça hierarquias históricas ligadas a fatores sociais e raciais.

Além das regiões, a análise inclui bairros do Rio de Janeiro, onde áreas ricas recebem avaliações positivas e periferias pobres são estigmatizadas. O fenômeno evidencia desigualdades refletidas nos sistemas de IA e pode aumentar discriminações existentes.

Um estudo realizado pelas universidades de Oxford e Kentucky aponta que ferramentas de inteligência artificial, como o ChatGPT, podem reproduzir preconceitos sociais ao associar a inteligência com regiões específicas do Brasil. O levantamento identificou que esses modelos tendem a destacar estados do Sul como mais inteligentes, enquanto áreas do Norte e Nordeste recebem avaliações inferiores.

Segundo a pesquisa, a IA generativa utiliza fatores socioeconômicos para classificar os estados, priorizando prestígio e desenvolvimento econômico em vez de dados reais sobre capacidade cognitiva. Isso reflete hierarquias regionais e raciais históricas, já que termos como “educado” e “inovador” aparecem mais vinculados a localidades mais abastadas, especialmente no Sul do país.

A análise incluiu também bairros do Rio de Janeiro, associando características positivas, como beleza e conhecimento, a regiões ricas e de moradores brancos. Por outro lado, periferias pobres, que concentram populações mestiças, negras e indígenas, foram negativas, associadas ao perigo e à informalidade. Esse processo reforça uma segregação digital, chamada de “redlining digital”.

O estudo atribui esses vieses tanto a dados usados no treinamento dos modelos quanto a decisões humanas na rotulagem das informações. Esse fenômeno, denominado “olhar de silício”, evidencia as desigualdades presentes nas estruturas de dados e nos próprios fabricantes das plataformas de IA.

Assim, a IA acaba reproduzindo estereótipos entre região, etnia e características como criminalidade, o que pode ampliar desequilíbrios históricos já existentes no Brasil.

Via Sputnik Brasil

Artigos colaborativos escritos por redatores e editores do portal Vitória Agora.