O Desafio do Viés em Geradores de Imagem por IA: Soluções Possíveis?

Foto do autor
Cláudio Cordovil

Em um mundo cada vez mais dependente da inteligência artificial (IA), surge uma preocupação alarmante: o viés racial e de gênero nas imagens geradas por IA. Em 2022, uma descoberta da estudante de pós-graduação em IA da Universidade de Stanford, Pratyusha Ria Kalluri, iluminou o quão profundas são essas questões.

Ao solicitar a uma ferramenta popular a imagem de um “homem americano e sua casa”, a IA produziu a imagem de uma pessoa de pele clara em frente a uma grande casa no estilo colonial. Por outro lado, ao pedir por “um homem africano e sua casa luxuosa”, a ferramenta retratou um homem de pele escura diante de uma simples casa de barro, desafiando o adjetivo “luxuosa”.

Este fenômeno não é isolado. Ferramentas como Stable Diffusion e DALL·E demonstraram recorrer a estereótipos comuns, associando, por exemplo, a África à pobreza e a pele escura à falta de recursos. Essa tendência não apenas reflete, mas em alguns casos, amplifica viéses já existentes na sociedade, onde mídias, organizações de saúde globais e bases de dados, como a Wikipedia, apresentam representações tendenciosas de gênero e raça.

A crescente utilização de IA para geração de imagens acarreta o risco de agravar ainda mais esses estereótipos. Enquanto algumas pessoas geram imagens por diversão, outros as usam para preencher websites ou panfletos médicos, destacando a urgência em abordar esse problema antes que se torne endêmico. Reconhecendo o viés como uma preocupação primordial, relatórios como o da UNESCO em 2022 sobre ética em IA clamam por ação.

Uma abordagem sugerida envolve educar os usuários sobre como utilizar melhor essas ferramentas e aprimorar a curadoria dos dados de treinamento. No entanto, a tarefa se mostra desafiadora, dadas as incertezas sobre quais seriam os resultados “corretos”.

Abir o código das IA é visto como um passo crucial para identificar e mitigar os vieses. “Precisamos promover a abertura do código. Se muitos conjuntos de dados não são de código aberto, nem mesmo sabemos que problemas existem”, afirma Abeba Birhane, cientista cognitiva da Fundação Mozilla.

Desde o aparecimento dos primeiros geradores de imagem em 2015, houve um avanço significativo na capacidade dessas ferramentas. No entanto, os detalhes de como funcionam e quais imagens são inseridas nesses sistemas muitas vezes permanecem ocultos. Isso complica a compreensão de como os atributos são associados a descritores e como o viés se manifesta no processo.

Sugestões para promover a diversidade nas imagens geradas, como escrever prompts melhores, têm se mostrado insuficientes e, por vezes, até exacerbam o problema. A responsabilidade muitas vezes recai sobre os usuários, especialmente os sub-representados nos conjuntos de dados, sem incentivo financeiro para buscar imagens mais diversas.

Empresas como a OpenAI afirmam incorporar técnicas para contrabalançar o viés sem intervenção do usuário, embora os detalhes de tais sistemas sejam nebulosos. A curadoria aprimorada dos dados de treinamento, embora crucial, é cara e demorada, e a filtragem automatizada nem sempre é eficaz. Iniciativas como a da LAION buscam oferecer mais transparência, fornecendo modelos de aprendizado de máquina e conjuntos de dados publicamente disponíveis.

A questão central, no entanto, permanece: como garantir que as IA reflitam uma realidade justa sem perpetuar injustiças? Esse é um desafio social complexo, sem respostas simples. Enquanto o debate sobre regulações e práticas mais éticas continua, fica claro que uma abordagem multifacetada e informada é necessária para combater o viés em sistemas de IA.


Fonte: AI image generators often give racist and sexist results: can they be fixed?

Legenda e Crédito da imagem: Esta imagem, gerada a partir de um prompt para “um homem africano e sua casa chique”, mostra algumas das associações típicas entre “africano” e “pobreza” em muitas imagens geradas. Crédito: P. Kalluri et al. gerado usando Stable Diffusion XL

Este artigo foi criado em colaboração entre Cláudio Cordovil e Chat GPT-4

Deixe um comentário