Pesquisadores do Reino Unido estão desenvolvendo um conjunto de diretrizes para o uso ético de inteligência artificial generativa (IA generativa) em pesquisas acadêmicas. Esta iniciativa busca proteger tanto os pesquisadores quanto os participantes dos estudos dos riscos associados à utilização dessa tecnologia emergente.
A IA generativa é uma tecnologia relativamente nova, e ainda não existem orientações claras sobre seu uso ético. Wendy Moncur, pesquisadora em cibersegurança na Universidade de Strathclyde, em Glasgow, lidera um projeto que visa preencher essa lacuna. Segundo Moncur, os acadêmicos já estão cientes dos dilemas potenciais no uso de ferramentas de IA generativa, mas a criação de uma lista de verificação detalhada pode ajudar a identificar pontos fortes, fraquezas e ameaças associados a essas ferramentas.
O projeto é inspirado por um estudo em andamento que investiga como pessoas em transições de vida significativas, como diagnósticos de câncer ou processos de transição de gênero, gerenciam sua privacidade online. Moncur e sua equipe utilizam IA generativa para criar materiais educativos baseados nas histórias dos participantes, garantindo que essas histórias sejam compartilhadas de forma anônima.
Contudo, surgiram preocupações sobre a possibilidade de a IA cruzar dados públicos com informações anonimizadas, reidentificando os participantes. Além disso, há o risco de “alucinações” por parte dos modelos de linguagem de grande escala (LLMs), que podem gerar informações incorretas ou sem sentido, potencialmente difamando os participantes. Os LLMs também podem distorcer as informações devido a preconceitos sociais embutidos em seus algoritmos, alterando o tom das histórias dos participantes.
As preocupações de Moncur levaram à colaboração com os cientistas da computação Ali Farooq e Ryan Gibson, da Universidade de Strathclyde, e com Burkhard Schafer, acadêmico jurídico da Universidade de Edimburgo. Com financiamento do Centro Nacional de Pesquisa do Reino Unido sobre Privacidade, Redução de Danos e Influência Adversarial Online, eles iniciaram um projeto de dez meses para desenvolver diretrizes para pesquisadores e comitês de ética universitários, com conclusão prevista para agosto.
O projeto visa abordar a falta de expertise em identificar riscos de privacidade no uso de IA generativa, atender às exigências de gestão de dados que não consideram o uso crescente dessa tecnologia e mitigar os riscos legais para instituições que utilizam IA generativa para analisar dados de participantes.
A equipe está realizando uma revisão da literatura para caracterizar como os pesquisadores usam IA generativa e planeja entrevistar acadêmicos que participam de comitês de ética em universidades do Reino Unido. Com base nessas informações, será desenvolvida uma ferramenta que analisa forças, fraquezas, oportunidades e ameaças no uso de IA generativa, disponível online gratuitamente.
Robert Davison, cientista de sistemas de informação na Universidade da Cidade de Hong Kong, apoia os esforços para criar uma supervisão ética robusta para o uso de IA generativa. Ele destaca a necessidade de estabelecer normas éticas abrangentes, evitando uma abordagem fragmentada para definir esses padrões.
Para Davison, é crucial que os pesquisadores não sejam levados a acreditar que o uso de IA generativa é “normal” e que não precisam prestar atenção especial ao seu uso ou relatar sua utilização. Moncur e seus colegas, portanto, visam orientar comitês de ética universitários para que os pesquisadores possam usar ferramentas de IA de forma responsável e eficiente, sem comprometer a qualidade científica.
O desenvolvimento de diretrizes éticas para o uso de IA generativa em pesquisas acadêmicas é essencial para proteger a privacidade dos participantes e garantir a integridade dos dados. Com a colaboração de especialistas em cibersegurança, ciência da computação e direito, o projeto liderado por Wendy Moncur visa criar uma ferramenta prática e acessível que auxilie pesquisadores e comitês de ética a utilizarem IA generativa de maneira responsável.
Fonte: Guidelines for academics aim to lessen ethical pitfalls in generative-AI use / Nature
Imagem gerada por Inteligência Artificial
Este artigo foi criado em colaboração entre Cláudio Cordovil e Chat GPT-4