Um estudo recente revelou que o ChatGPT-4 conseguiu diagnosticar condições médicas com mais precisão do que médicos humanos, mesmo quando os profissionais tinham acesso ao próprio chatbot como ferramenta auxiliar. Publicado no JAMA Network Open, o experimento envolveu 50 médicos que analisaram históricos de casos clínicos reais. Os resultados apontaram uma média de acertos de 90% para o chatbot, enquanto os médicos que usaram a ferramenta alcançaram 76%, e aqueles que não a utilizaram ficaram em 74%.
Principais descobertas do estudo
- Desempenho do ChatGPT: O chatbot, desenvolvido pela OpenAI, demonstrou habilidade impressionante ao interpretar casos clínicos e explicar suas decisões diagnósticas.
- Desafios na adoção médica: Muitos médicos demonstraram dificuldade em usar o chatbot de forma eficaz, tratando-o como um mecanismo de busca em vez de explorar seu potencial completo, como fornecer respostas abrangentes ao inserir o caso clínico completo.
- Confiança excessiva dos médicos: Os profissionais frequentemente ignoraram sugestões corretas do ChatGPT, mantendo-se firmes em diagnósticos equivocados, possivelmente devido ao excesso de confiança em suas próprias análises.
Como o estudo foi realizado?
Os participantes analisaram seis casos clínicos baseados em pacientes reais, elaborados para testar habilidades diagnósticas. Eles precisavam sugerir diagnósticos possíveis, explicar evidências a favor e contra cada um, e propor etapas adicionais no processo de investigação.
Um exemplo compartilhado pelos pesquisadores envolveu um homem de 76 anos com dores nas costas e nas pernas após um procedimento de angioplastia. O diagnóstico correto era embolismo de colesterol — uma condição desafiadora, mas não extremamente rara.
Por que os médicos ficaram atrás?
- Falta de treinamento com IA: Poucos médicos souberam explorar a capacidade do chatbot, limitando-se a perguntas pontuais em vez de utilizar a ferramenta para análises completas.
- Resistência ao erro: Mesmo diante de diagnósticos melhores oferecidos pela IA, muitos profissionais mantiveram suas conclusões iniciais, ignorando contradições apontadas pelo chatbot.
A história da IA na medicina
O uso de computadores para diagnósticos médicos é uma ambição antiga. Desde a década de 1970, projetos como o INTERNIST-1 tentaram simular o raciocínio médico. Apesar de bons resultados iniciais, essas iniciativas nunca ganharam tração por serem pouco práticas ou por falta de confiança dos médicos.
O ChatGPT representa uma evolução, graças à sua capacidade de entender linguagem natural e fornecer respostas claras. Entretanto, a adoção plena depende de maior familiaridade dos profissionais com essas ferramentas.
O que vem pela frente?
A pesquisa destaca o potencial das IAs como “extensões médicas”, oferecendo segundas opiniões valiosas. No entanto, para que isso se concretize, será necessário capacitar médicos a usarem essas ferramentas de maneira eficaz e incentivar uma abordagem menos rígida em relação às suas próprias hipóteses diagnósticas.
⚠️ Reflexão final: Ferramentas como o ChatGPT não substituem médicos, mas podem revolucionar a prática médica ao complementar a experiência humana com análises precisas e rápidas. O desafio está em equilibrar tecnologia e julgamento clínico.
Fonte: A.I. Chatbots Defeated Doctors at Diagnosing Illness / New York Times
Este artigo foi criado em colaboração entre Cláudio Cordovil e Chat GPT-4
Imagem gerada por Inteligência Artificial