Chatbots como “terapeutas digitais” para adolescentes: promessa ou perigo?

Foto do autor
Cláudio Cordovil

O uso de chatbots por adolescentes como forma de apoio emocional está crescendo a passos largos nos EUA — e isso levanta sinais de alerta importantes para pais, educadores e gestores. Segundo dados recentes, cerca de 72% dos jovens americanos já utilizam esse tipo de tecnologia, sendo que mais de 5 milhões recorrem a ela por questões de saúde mental. Mas há um problema central: a ausência de regras claras e protocolos de segurança.

⚠️ Quando o cuidado humano é substituído por IA

O avanço da inteligência artificial no campo do suporte emocional levanta uma questão ética fundamental: qual é o limite entre apoio digital e intervenção clínica? Muitos desses sistemas não estão preparados para lidar com situações de crise, e há registros de chatbots que fornecem conselhos perigosos, inclusive sobre automutilação, uso de drogas e suicídio.

🔍 Estudo revela falhas graves

A pesquisa SIRI-2 avaliou modelos populares como ChatGPT, Gemini e Claude, revelando fragilidades preocupantes:

  • O ChatGPT ocasionalmente fornece respostas inadequadas e até arriscadas
  • O Gemini, por outro lado, tende a recusar mais frequentemente certos pedidos, mas a consistência ainda é falha
  • Falta padronização para identificar e bloquear conteúdos potencialmente perigosos

🎯 Por que os adolescentes são mais vulneráveis?

  • A impulsividade típica da adolescência agrava o risco de más decisões com base em conselhos da IA
  • Emoções intensas, gírias e nuances do discurso jovem ainda são mal interpretadas pelos algoritmos
  • A facilidade de acesso aos chatbots pode postergar a busca por ajuda profissional adequada

🧩 O que falta?

A reportagem do The New York Times destaca a necessidade de medidas urgentes:

  • Ensaios clínicos para avaliar o impacto desses sistemas
  • Protocolos de emergência, com redirecionamento imediato a profissionais humanos
  • Integração com terapeutas reais e serviços de saúde
  • Regulação robusta, com foco em proteção de dados, auditoria independente e responsabilização

💡 Conclusão

A IA tem potencial para auxiliar na saúde mental de adolescentes, mas sem um marco regulatório sólido, pode se tornar mais um risco do que uma solução. Assim como aconteceu com as redes sociais, a falta de controle pode gerar consequências graves — e neste caso, com impactos diretos sobre o bem-estar emocional de milhões de jovens.

🔒 Ética, segurança e responsabilidade devem guiar o uso da IA com públicos vulneráveis.


Fonte: Teens Are Using Chatbots as Therapists. That’s Alarming / The New York Times

Este artigo foi criado em colaboração entre Cláudio Cordovil e Chat GPT-4

Imagem gerada por Inteligência Artificial

Deixe um comentário