Política de IA nos EUA: inovação acelerada e riscos éticos na saúde

Foto do autor
Cláudio Cordovil

Com a assinatura da Executive Order 14179Removing Barriers to American Leadership in Artificial Intelligence — o presidente Donald Trump reafirmou o compromisso dos EUA em liderar globalmente o avanço da inteligência artificial. Na prática, a nova diretriz elimina políticas da era Biden voltadas a mitigar vieses e reforçar a segurança, priorizando uma abordagem desregulatória para acelerar a inovação e ampliar a autonomia do setor privado — muitas vezes à custa da supervisão ética.

Essa ordem foi apenas o primeiro passo de uma série de mudanças:

  • O NIST (National Institute of Standards and Technology) orientou cientistas a não priorizarem temas como “segurança em IA” ou “IA responsável”;
  • O OMB (Office of Management & Budget) publicou memorandos que incentivam ganhos econômicos nacionais acima de outras considerações;
  • No Senado, republicanos têm atuado para impedir regulações estaduais, concentrando o controle no nível federal.

Esse cenário abre espaço para que bioeticistas ajudem formuladores de políticas a compreender as nuances práticas e éticas da IA — especialmente na área da saúde, onde o avanço da chamada IA médica promete benefícios, mas também traz riscos sérios.

Bioética e IA médica: aprendizados históricos

Desde os anos 1970, comissões federais de bioética têm assessorado políticas públicas sobre temas complexos, contando com apoio bipartidário. Porém, nem Trump nem Biden, em seus mandatos, engajaram formalmente esses órgãos. Ainda assim, referências à bioética em documentos estratégicos conservadores mostram que o tema mantém relevância política.

Três contribuições centrais dos bioeticistas para a IA médica

1. Atualização constante sobre riscos e usos
O setor de IA médica muda rapidamente, exigindo que legisladores recebam informações sobre impactos éticos, legais e sociais. Exemplos como leis aprovadas na Califórnia, Colorado e Illinois para regular IA em seguros de saúde mostram a importância desse conhecimento. Casos como o da State Farm Insurance, acusada de negar de forma discriminatória pedidos de clientes negros via sistema automatizado, evidenciam como algoritmos podem reproduzir vieses humanos.

2. Defesa do bem-estar do paciente
Falhas tecnológicas recaem sobre quem está em situação mais vulnerável: o paciente. O caso do sistema de predição de sepse da Epic Systems ilustra como erros de diagnóstico por IA podem comprometer vidas. Com a revisão de algoritmos muitas vezes protegida por sigilo comercial, há risco de aumento de erros médicos e excesso de confiança por parte de profissionais exaustos.

3. Apoio regulatório em tempos de redução de pessoal
Com cortes e mudanças no FDA, a análise crítica de tecnologias médicas fica sobrecarregada. Delegar parte dessa avaliação a bioeticistas pode aliviar o trabalho regulatório e fortalecer a confiança pública. Como lembrou TJ Leonard, CEO da Storyblocks, a pressão competitiva frequentemente enfraquece compromissos éticos no setor de tecnologia.

Conclusão

A promessa da IA médica ainda é incerta e, sem supervisão ética adequada, pode ampliar desigualdades e riscos para pacientes. O modelo do Vale do Silício — “mover rápido e quebrar coisas” — parece especialmente problemático na saúde. Seja por meio de uma nova comissão federal ou por outros formatos de colaboração, a integração entre formuladores de políticas e bioeticistas é essencial para garantir aplicações de IA seguras, confiáveis e centradas no interesse público.


Fonte: Medical AI: A Space For Bioethicists and Policymakers to Collaborate / Bioethics Today

Deixe um comentário