IA e Ética: Entre Asimov e Adela, o futuro é agora

Foto do autor
João Almeida

O estágio atual de desenvolvimento das inteligências artificiais (IA) nos recorda o experimento filosófico do “cérebro numa cuba”. Acredita-se que a Inteligência Artificial seja uma inteligência capaz de ter respostas definitivas para todos os problemas da humanidade. Mas, na verdade, o gênio ainda se encontra trancado dentro da lâmpada, e suas experiências são limitadas sobre o conhecimento do mundo. 

Mesmo as IAs generativas, ou seja, aquelas que são capazes de criar conteúdo novo e original, o fazem a partir de dados com os quais elas são alimentadas, em um processo denominado “treinamento do modelo”, onde o fluxo desses dados é controlado e analisado, tanto na sua entrada quanto na sua saída. Dessa forma, a IA ainda está como um cérebro trancado dentro de uma caixa, um gênio dentro da lâmpada, ou como os humanos como pilhas gigantes no filme Matrix

Elas analisam o mundo conforme a informação que lhes é dada, e sua interação com o mundo real também é limitada. Podemos dizer que existem duas diferenças principais entre os humanos e as inteligências artificiais: a primeira refere-se ao fato de que os humanos têm liberdade para sentir, ou coletar dados, como fazemos usualmente com nossos sentidos. A segunda, de reagir de diferentes formas, ao mundo, através de nossos órgãos motores.  

Mas o gênio está saindo da lâmpada. Se o século 20 foi o século da internet, o século 21 será o das IA, que na primeira fase sentem e se comunicam através de humanos. Depois virão a sentir o mundo através de sensores. Em breve terão órgãos motores que permitirão com que essas inteligências interajam diretamente com o ambiente, exatamente como nós fazemos quando decidimos atravessar uma rua com nossas pernas ou utilizarmos uma arma com nossas mãos.

Mas espere, eu disse que Neo está deixando a Matrix? Não, na verdade ele já saiu de lá! A literatura já discute os princípios éticos e o respeito às leis internacionais de proteção humanitária pelo uso da IA em situações de guerra

Documentários da TV mostram o uso de drones para patrulhar zonas de guerras e matar pessoas há algum tempo, com o controle de pilotos militares. Mas agora também dirigidos por inteligências artificiais, que de forma autônoma reconhecem com seus sensores alguém como um potencial inimigo, e com sua “mão armada” podem decidir atirar e tirar-lhe a vida. Muito “Skynet” para você? Mas mesmo sem um exterminador com esqueleto de aço como Arnold Schwarzenegger, a caçada a humanos pelas IAs já acontece. E assim, superadas as diferenças entre sentir e agir, chegamos à terceira diferença entre humanos e máquinas. O por que fazer. Se nos perguntassem por que fazemos as coisas, poderíamos responder simplesmente: “Porque temos vontade”. 

Podemos de certa forma incutir essa “vontade” em uma inteligência artificial se a prograrmamos com um algoritmo que lhe diga que, se identificado determinado padrão, ela aja desta ou daquela forma. E ela vai agir, então, com maior constância de que um humano agiria, identificando o padrão e reagindo a ele. Mas a diferença que resta refere-se exatamente a isso: Quando não agir? Quando seria necessário desobedecer a um padrão determinado? 

Isaac Asimov, na década de 40, tentou instituir um padrão ético mínimo para os robôs ficcionais com as suas três leis da robótica (Primeira lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. Segunda Lei: Um robô deve obedecer às ordens dadas por seres humanos, exceto quando tais ordens entram em conflito com a Primeira Lei. Terceira Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Lei). 

Além de algo assim ser difícil de se implementar na prática, como por exemplo fazer uma IA entender o que seja “fazer o mal”, percebemos que os nossos conceitos éticos e morais derivam de percepções complexas e abstratas, muitas vezes provenientes de conceitos religiosos ou culturais, que dão origem a um “senso de discernimento” difícil de reproduzir em uma inteligência artificial.]

Filósofos como a espanhola Adela Cortina, no entanto, propõem a necessidade de existência de uma ética mínima para seres humanos, como um conjunto de valores e princípios que formariam uma base ética comum, focada nos direitos humanos, que sobrepujasse as divisões e desentendimentos causados pela radicalização de pontos de vista, tão comuns nos dias de hoje.  Assim, talvez devêssemos, considerando que as IAs de hoje em dia trazem muitos dos vieses dos seus criadores, renovar o conceito de Asimov para uma “ética robótica” atual, já que as IAs realizam funções como dirigir carros ou pegar em armas. Assim, poderíamos ter inteligências artificiais com conceitos éticos até melhores que os de seus criadores, e que acreditem, por exemplo, que a necessidade de preservar a vida de uma criança palestina é igual a de se preservar a vida de uma outra, israelense.


Imagem em destaque gerada através de Inteligência Artificial.

Deixe um comentário