Pesquisa da Nature revela divisão entre cientistas sobre uso da IA na redação de artigos científicos

Foto do autor
Cláudio Cordovil

Com o avanço acelerado das ferramentas de inteligência artificial generativa, como o ChatGPT, a comunidade científica está cada vez mais dividida sobre quando e como é ético utilizar IA na produção de artigos acadêmicos. Uma pesquisa recente feita pela revista Nature, com mais de 5 mil pesquisadores ao redor do mundo, escancara esse cenário de incertezas e opiniões conflitantes.

O que os cientistas acham aceitável?

A maioria dos participantes (mais de 90%) considera aceitável usar IA para editar ou traduzir artigos. No entanto, surgem divergências quanto à necessidade de divulgar esse uso — seja por meio de uma menção simples ou pela descrição dos comandos usados.

Já quando a IA é usada para gerar trechos ou o rascunho completo de um artigo, o consenso se desfaz: 65% acham eticamente aceitável, enquanto cerca de um terço se opõe. A aceitação varia conforme a parte do artigo: usar IA para escrever o resumo é mais aceito do que para redigir a seção de resultados, por exemplo.

Revisão por pares com IA: ponto sensível

O uso de IA para gerar relatórios iniciais de revisão por pares foi considerado inaceitável por mais de 60% dos participantes — muitos citando preocupações com privacidade. Por outro lado, mais da metade achou aceitável usar IA para responder a perguntas durante a revisão de manuscritos.

O uso ainda é minoritário (e pouco divulgado)

Apesar do debate, a adoção prática de IA na escrita científica ainda é baixa. Apenas 28% disseram ter usado IA para editar um artigo, e menos de 10% a utilizaram para redigir rascunhos, fazer resumos ou traduzir textos. Curiosamente, a maioria dos que usaram não revelou isso em seus trabalhos.

Ética, aprendizado e equidade

As opiniões variam do entusiasmo ao repúdio. Alguns pesquisadores comparam o uso da IA à calculadora — algo já normativo, que não exigiria mais disclosure. Outros consideram o uso um tipo de trapaça ou fraude. Há também quem reconheça o potencial da IA como ferramenta de apoio, mas lamente a perda do aprendizado envolvido nos processos manuais de escrita e revisão.

Para pesquisadores de países onde o inglês não é o idioma principal, a IA surge como aliada importante para reduzir barreiras linguísticas, ainda que muitos mantenham reservas quanto à geração de conteúdo original.

Diretrizes editoriais: em busca de consenso

A maior parte das editoras já tem políticas que proíbem o uso de IA para criar ou manipular dados e imagens, e nenhuma permite que IA seja listada como autora. A necessidade de divulgar o uso da tecnologia varia conforme a aplicação: tarefas simples como correção gramatical não exigem disclosure; já a geração de conteúdo novo sim.

Algumas editoras — como JAMA e Science — têm regras rigorosas, exigindo detalhes sobre a ferramenta utilizada e seu papel. Outras, como a britânica IOP, recuaram da obrigatoriedade e apenas incentivam a transparência.

Conclusão: ética em construção

Fica claro que a ciência vive um momento de transição em relação à IA. Enquanto ferramentas evoluem rapidamente, as normas éticas ainda estão sendo debatidas e ajustadas. Como resume Michael Wise, da COPE, a chave está na transparência e na integridade: o que foi feito, por que foi feito e quais são as limitações — com ou sem IA.


Fonte: Is it OK for AI to write science papers? Nature survey shows researchers are split / Nature

Foto de Ylanite Koppens

Este artigo foi criado em colaboração entre Cláudio Cordovil e Chat GPT-4

Deixe um comentário