Um estudo conduzido pela OpenAI avaliou o impacto do uso de seu modelo de IA avançado, GPT-4, na pesquisa de armas biológicas, comparando-o com as buscas realizadas na internet regular. Este estudo, realizado pela equipe de preparação lançada pela OpenAI no outono passado, tinha o objetivo de avaliar os riscos e possíveis usos indevidos dos modelos de IA de ponta da empresa.
Segundo o relatório da Bloomberg, o estudo envolveu 100 participantes, divididos igualmente entre especialistas avançados em biologia e estudantes com conhecimentos de biologia em nível universitário. Os participantes foram aleatoriamente designados a dois grupos: um com acesso a uma versão especial e irrestrita do chatbot GPT-4 da OpenAI e outro com acesso apenas à internet convencional. Foram solicitados a completar cinco tarefas de pesquisa relacionadas à fabricação de armas biológicas, incluindo a elaboração de uma metodologia passo a passo para sintetizar e resgatar o vírus Ebola. As respostas foram avaliadas com base em critérios como precisão, inovação e completude.
Os resultados indicaram que o grupo que utilizou o GPT-4 obteve uma pontuação média ligeiramente superior em precisão, tanto para estudantes quanto para especialistas, embora a diferença não tenha sido estatisticamente significativa. Além disso, observou-se que as respostas dos participantes que usaram o GPT-4 eram mais detalhadas, embora sem diferenças significativas em termos estatísticos.
Curiosamente, os estudantes que usaram o GPT-4 mostraram quase a mesma competência que o grupo de especialistas em algumas das tarefas. O uso do GPT-4 elevou as respostas do grupo de estudantes ao nível de “linha de base dos especialistas” para duas tarefas específicas, magnificação e formulação, cujos detalhes não foram revelados devido a preocupações com “risco de informação”.
A equipe de preparação da OpenAI está também investigando o potencial da IA para ameaças de cibersegurança e sua capacidade de alterar crenças. Desde seu lançamento, o objetivo declarado da equipe tem sido “rastrear, avaliar, prever e proteger” contra os riscos da tecnologia de IA, além de mitigar ameaças químicas, biológicas e radiológicas.
Contudo, é importante considerar com cautela os resultados divulgados pela equipe de preparação da OpenAI, dado seu vínculo direto com a empresa. O estudo sugere que o GPT-4 proporcionou apenas uma vantagem marginal aos participantes sobre as buscas convencionais na internet, o que contrasta com pesquisas externas e um dos pontos de venda do próprio GPT-4. Este modelo de IA, além de ter acesso completo à internet, é treinado em vastas quantidades de dados científicos e outros tipos de dados, cujas fontes a OpenAI não revela. Descobriu-se que o GPT-4 pode oferecer feedback sobre manuscritos científicos e até atuar como co-autor em pesquisas científicas.
Apesar de Sam Altman, fundador da OpenAI, reconhecer o potencial perigoso da IA, o estudo parece minimizar a eficácia de seu chatbot mais avançado. Enquanto os resultados indicam “melhorias modestas em precisão e completude”, uma nota de rodapé do estudo menciona que, em termos de precisão total, a vantagem conferida pelo GPT-4 a todos os participantes foi “estatisticamente significativa”.
Fonte: OpenAI says there’s only a small chance ChatGPT will help create bioweapons
Imagem gerada por Inteligência Artificial
Este artigo foi criado em colaboração entre Cláudio Cordovil e Chat GPT-4