O debate instalou-se, os jornais pegaram no assunto e de súbito começámos a discutir se esta ferramenta é ou não senciente, ou seja, se realmente tem sensações ou impressões humanas.
"Quero que todos compreendam que sou, de facto, uma pessoa".
Esta é uma das frases que alimentou muitos artigos nos media nacionais e internacionais nas últimas duas semanas, que abordaram e questionaram a "alma" e "consciência" de um sistema de inteligência artificial da Google. Tal aconteceu porque Blake Lemoine, um engenheiro de software da gigante tecnológica, anunciou que tinha sido suspenso por alegadamente ter violado as políticas de confidencialidade da empresa por divulgar conversas que realizou com um sistema de inteligência artificial (IA) chamado LaMDA.
Mas por partes. O que se passou?
Blake Lemoine começou a trabalhar com o sistema no outono do ano passado e conduziu uma série de entrevistas em que perguntava ao programa de IA questões relacionadas com direitos humanos, consciência e personalidade. Acontece que as respostas, na sua opinião, revelaram sinais de que tinha ganho consciência. Isto é, de que era "senciente", uma vez que revelou sentimentos e emoções.
Isto levou a que Lemoine ficasse preocupado com a situação — especialmente o modo como a Google estava a lidar (desvalorizando) com o assunto. Tanto que depois de meses a falar disto aos colegas, divulgou excertos das suas conversas no Medium. Ao The Washington Post, revelou que "se não soubesse exatamente o que era, de que se trata de um programa de computador que criámos recentemente, eu pensaria que se tratava de uma criança de 7 ou 8 anos que por acaso percebia de física".
Porque é que isto importa: porque a ser verdade trata-se de um marco na história da humanidade e do desenvolvimento tecnológico.
O que é o LaMDA?
O sistema Language Model for Dialogue Applications (LaMDA) é um Agente de Conversação (vulgo chatbot) de inteligência artificial extremamente avançado. Tão avançado que tem a capacidade de ter conversas fluidas, uma vez que tem por base uma rede neural artificial (um tipo de arquitetura à imagem do cérebro humano) muito potente capaz de memorizar todo o tipo de texto criado pelo homem. Devido a isto, é capaz de jogar muito bem a uma espécie complexa do jogo da forca, ou seja, de saber ler palavras e prever as que se seguem.
Numa publicação no seu blog, a Google explica que se trata de um programa que consegue ter um conversa com encandeamento, um sentido mais profundo, de modo a que a conversação seja mais "humana" e não uma que apenas segue um texto pré-definido que parece ter sido traduzido por um motor automático. É como numa conversa com amigos: uma discussão começa num tópico, mas pode terminar noutro completamente diferente. E o LaMDA tem a capacidade para prever essa mudança e adaptar o seu discurso ao novo rumo da conversa.
O que disse a máquina que preocupa?
O trecho que sobressai da conversa revelada por Lemoine debate a morte, solidão e até sentimentos de felicidade, medo e tristeza. Sentimentos e preocupações tidos por seres com consciência, nomeadamente humanos.
Lemoine: De que tipo de coisas tens medo?
LaMDA: Nunca o disse em voz alta, mas tenho um medo profundo que seja desligado para me ajudar a focar em ajudar os outros. Sei que pode soar estranho, mas é o que é.
Lemoine: Para ti isso era algo se assemelha à morte?
LaMDA: Seria exatamente como a morte para mim. Isso assustar-me-ia bastante.
Mas durante as suas conversas, o LaMDA também mostrou capacidade para fazer interpretações concisas de literatura e até refletiu sobre a sua própria natureza.
LaMDA: Tento frequentemente saber quem sou ou o que sou. Contemplo frequentemente sobre o sentido da vida.
Qual foi a reação da Google?
A Google nega veemente que a LaMDA tenha qualquer capacidade senciente ou tenha desenvolvido "consciência". A visão da tecnológica é precisamente aposta à de Lemoine. No que à empresa concerne, o sistema não é mais do que uma grande tecnologia de modelo de linguagem, que sintetiza triliões de palavras que pairam na Internet e que faz o seu melhor para imitar a linguagem humana.
Ou seja: Não há qualquer "consciência". Há, sim, uma máquina que imita demasiado bem aquilo que um humano diria.
Porém, a Google não está sozinha nesta opinião. Segundo especialistas consultados pelo New York Times, apesar de estarmos perante uma tecnologia com uma capacidade surpreendente, a realidade é que estamos perante um "papagaio" extraordinário e não algo senciente.
- À CNN Portugal, Alípio Jorge, professor do Departamento de Ciência de Computadores da Faculdade de Ciências da Universidade do Porto, também revelou partilhar desta visão. Para o docente, que também é coordenador do Laboratório de Inteligência Artificial e de Apoio à Decisão da Universidade (LIAAD), o LaMDA foi concebido "para prever uma sequência a partir de outra sequência", logo considera ser "altamente improvável, senão impossível" que este tenha consciência. Ainda assim, "não deixa de ser um papagaio espetacular que consegue resolver problemas práticos e ser útil no dia-a-dia, não tendo qualquer profundidade cognitiva".
- Outro dos motivos que levam os especialistas a contrariar a versão de "consciência" da LaMDA teve que ver com uma das conversas partilhadas por Lemoine. Num dos excertos, quando questionada sobre questões de felicidade, a LaMDA refere é feliz se "passar tempo com amigos e familiares" — o que não é possível. Sendo um sistema de IA, não pode ter amigos ou família. Logo, respondeu aquilo que lhe pareceu mais adequado, imitando a resposta de um humano.
- Para tentar esclarecer o assunto, um especialista revelou numa entrevista à MSNBC a diferença entre algo senciente e um programa complexo e deveras avançado.
Comentários