IA em Buscas Promove Racismo Científico com Dados Desacreditados

Foto do autor
Cláudio Cordovil

Artigo da Wired analisa como ferramentas de busca com IA, como as da Google, Microsoft e Perplexity, têm promovido acidentalmente teorias pseudocientíficas de racismo científico ao exibir dados e análises que sustentam alegações falsas sobre a inteligência entre diferentes raças.

O pesquisador Patrik Hermansson, da organização britânica Hope Not Hate, se deparou com essas respostas enviesadas ao buscar dados sobre QI de diferentes nações, encontrando resultados baseados em estudos de Richard Lynn – um proeminente defensor de teorias racistas de “melhoria racial”.

Pesquisas enviesadas e pseudociência nas respostas da IA

Ao buscar termos como “QI do Paquistão” ou “QI de Serra Leoa”, Hermansson foi surpreendido com números específicos que remetiam diretamente ao banco de dados de Lynn. Esta pesquisa, considerada altamente problemática e amplamente desacreditada, usa amostras limitadas e tendenciosas, chegando a apresentar informações de populações em condições extremas e não representativas, como refugiados ou órfãos. Mesmo após anos de críticas, os estudos de Lynn continuam sendo usados por grupos de extrema-direita como “prova” de superioridade racial, promovendo ideias infundadas de hierarquias raciais.

Riscos e o papel dos algoritmos de IA

Um problema destacado é o uso dessas informações enviesadas nas respostas automáticas geradas pelas IA, que exibem resumos sem a devida contextualização sobre as limitações dos dados. O artigo destaca que essas ferramentas de busca podem amplificar conteúdos problemáticos, contribuindo, ainda que de forma indireta, para a radicalização de novas audiências.

Rebecca Sear, diretora do Centro de Cultura e Evolução da Universidade Brunel, alerta para a gravidade de promover essas informações, enfatizando que dados enviesados promovem um projeto político de racismo científico, onde as desigualdades raciais são apresentadas como “naturais” ou “inevitáveis”. A questão é intensificada pelo fato de as informações apresentadas pelas IAs costumarem ser diretas e sem indicação das fontes de origem, tornando difícil para o usuário avaliar a confiabilidade dos dados.

Limitações e respostas das empresas

Google e Microsoft afirmam que seus sistemas estão em constante atualização para evitar a veiculação de informações incorretas, mas a investigação da Wired mostra que muitas respostas das IAs ainda citam ou replicam números da pesquisa de Lynn. Essas empresas mencionam que a escassez de dados confiáveis para determinadas consultas agrava o problema, mas que esforços estão em andamento para que os conteúdos promovidos sejam mais precisos e éticos.

Essa situação levanta um alerta sobre os impactos éticos e sociais das ferramentas de IA, especialmente na responsabilidade das empresas em controlar como essas IAs acessam, filtram e disseminam informações.


Fonte: Google, Microsoft, and Perplexity Are Promoting Scientific Racism in Search Results / Wired

Este artigo foi criado em colaboração entre Cláudio Cordovil e Chat GPT-4

Imagem gerada por Inteligência Artificial

Deixe um comentário