IA no combate ao abuso: solução ou ameaça velada?

Foto do autor
Cláudio Cordovil

A inteligência artificial está sendo cada vez mais usada para prevenir abusos e proteger pessoas vulneráveis — de crianças em lares adotivos a idosos em instituições. Promete-se detectar perigos em tempo real e alertar autoridades antes que algo grave ocorra.

Mas será que essa tecnologia está realmente cuidando de quem mais precisa ou está apenas automatizando sistemas falhos, marcados por desigualdades históricas?

Como pesquisadora da violência familiar e ex-assistente social de linha de frente, Aislinn Conrad acompanha com atenção e preocupação esse movimento. Hoje, colabora no desenvolvimento de uma câmera inteligente que detecta violência por meio de movimentos corporais, sem reconhecimento facial ou de voz. A ferramenta, chamada iCare, ilustra bem a promessa e o risco da IA no cuidado social.

Sistemas enviesados aprendem com dados históricos marcados por injustiças. Um estudo em Allegheny, nos EUA, mostrou que um modelo de risco preditivo recomendaria mais investigações de crianças negras do que brancas — diferença que caiu com supervisão humana.

Tecnologias baseadas em linguagem também erram. Dialetos como o inglês vernacular afro-americano são rotulados como “agressivos” com muito mais frequência. E mensagens irônicas ou fictícias podem ser classificadas como ameaças reais.

Na prática, comunidades negras e indígenas são as mais vigiadas e punidas, muitas vezes por erros de interpretação cultural ou preconceito.

A vigilância, em vez do cuidado, se tornou o padrão. Hospitais, escolas e lares adotivos estão adotando ferramentas de monitoramento que geram falsos alertas, expõem dados sensíveis e, em alguns casos, punem injustamente comportamentos normais, como rir ou tossir.

Estudantes LGBTQ+ nos EUA, por exemplo, já foram “denunciados” a seus pais por algoritmos que detectaram pesquisas sobre identidade de gênero. A linha entre proteção e violação da privacidade é tênue — e frequentemente ultrapassada.

Como garantir que a IA proteja sem punir?


Conrad sugere quatro princípios fundamentais para uma “IA sensível ao trauma”:

  1. Controle do sobrevivente: pessoas devem decidir como e se serão monitoradas.
  2. Supervisão humana: algoritmos devem ser ferramentas auxiliares, não juízes automáticos.
  3. Auditoria de viés: usar ferramentas abertas para detectar e corrigir distorções raciais e sociais.
  4. Privacidade desde a origem: anonimização e proteção de identidade precisam ser padrão.

Algumas iniciativas já adotam esses princípios, como a Coalition Against Stalkerware, que inclui sobreviventes na criação de tecnologias de proteção.

Na legislação, Montana aprovou uma lei exigindo supervisão humana em decisões automatizadas pelo governo — um passo concreto contra o uso cego da IA.

A lição é clara: tecnologia social precisa de mais empatia e menos punição. Sistemas automatizados jamais substituirão a sensibilidade humana, mas podem ser moldados para trabalhar a seu favor — se colocarmos os valores certos no centro do design.


Fonte: Protecting the vulnerable, or automating harm? AI’s double-edged role in spotting abuse / The Conversation

Imagem gerada por Inteligência Artificial

Este artigo foi criado em colaboração entre Cláudio Cordovil e Chat GPT-4

Deixe um comentário