Bastava ter vivido mais alguns dias e Marvin Minsky teria testemunhado o mais recente triunfo na área que ajudou a criar há 60 anos. Desenvolvido pela Google, o Alpha Go cometeu a proeza de ganhar a um campeão humano naquele que é reconhecido como o mais intelectualmente complexo de todos os jogos de mesa, o milenar e chinês Go [sobre o qual até Confucio falou] e uma década antes do que a maioria dos especialistas no assunto previa. Minsky, pioneiro da inteligência artificial, morreu no passado dia 24 de Janeiro, aos 88 anos e, para os que acreditam no além, pode estar neste preciso momento a discutir com Einstein a comprovação científica da existência das ondas gravitacionais que este previra há 100 anos, isto se, e entretanto, nesse além-vida ou além-morte, a barreira da língua não existir. Ainda jovem, Minsky almoçou com o famoso físico alemão, mas o sotaque carregado deste último ao falar a língua de Shakespeare impediu que os dois génios pudessem ter uma experiência intelectual à altura do cérebro de ambos.
Universalmente considerado como pioneiro e uma das maiores autoridades mundiais na área da inteligência artificial (IA), Minsky começou por estudar Matemática em Harvard, interessou-se pelo campo da genética, mas seria à possibilidade de reproduzir a inteligência humana numa máquina – uma ideia inicialmente proposta por Alan Turing, de quem era amigo – que viria a dedicar a sua vida. Em 1958, e depois de terminado o seu pós-doutoramento em Matemática, e ainda em Harvard, mudar-se-ia para o MIT onde, juntamente com outro cientista da computação, John McCarthy, fundaria o primeiro laboratório de Inteligência Artificial, sendo também, já em 1986, membro fundador do famoso Media Lab da mesma instituição. Cientista e filósofo, a sua influência nas várias ciências computacionais foi sempre acompanhada pelos mistérios da inteligência e pensamento humanos, processos que, acreditava, não seriam assim tão diferentes quando transpostos para as máquinas.
Desde os anos 50 que Minsky trabalhou em “desafios” computacionais para caracterizar os processos psicológicos humanos, ao mesmo tempo que produzia teorias para dotar as máquinas de inteligência. No livro que publicou em meados da década de 80, “The Society of Mind” – e que combinava perspetivas sobre a psicologia do desenvolvimento infantil e a pesquisa da inteligência artificial, – sublinhava a sua crença inabalável de que não existia uma verdadeira diferença entre humanos e máquinas, na medida em que os primeiros eram, afinal, máquinas cujos cérebros eram compostos por muito agentes semi-autónomos, mas não inteligentes e que, para desenvolverem tarefas diferentes, exigiam mecanismos totalmente distintos. Tal como as máquinas. Esta teoria (desenvolvida em conjunto com o também cientista e pedagogo Seymour Papert) revolucionou o pensamento vigente sobre o funcionamento do cérebro e também sobre a aprendizagem humana.
Num paper escrito em 1982, Minsky explicava: “Tal como a Evolução alterou a visão do homem no que respeita à Vida, a Inteligência Artificial irá alterar a visão da Mente. À medida que encontramos mais formas de as máquinas se comportarem de uma maneira mais sensível, mais aprenderemos sobre os nossos processos mentais. E, ao longo deste caminho, encontraremos também novas formas de pensar sobre o ‘pensamento’ e sobre o ‘sentimento’. A visão que teremos de ambos alterar-se-á de mistérios opacos para redes complexas, mas ainda sim compreensíveis, para representar e utilizar ideias. Por seu turno, essas ideias irão originar novas máquinas e essas, por sua vez, permitir-nos-ão ter mais ideias. Ninguém pode afirmar até onde tudo isto nos irá levar e existe apenas uma certeza: não há nada, hoje, que nos permita afirmar que existem quaisquer diferenças básicas entre as mentes dos homens e aquelas que poderão existir em possíveis máquinas”.
Para o homem que, em outubro passado, foi entrevistado pela Technology Review do MIT e confessou considerar os avanços na inteligência artificial das décadas de 50 e 60 do século passado muito mais empolgantes do que os da atualidade, o que pensaria se soubesse que, dois dias depois da sua morte, a revista Wired pediria ao robot Wordsmith, o bot criado pela Automated Insights e que “redige” notícias “à medida das necessidades dos clientes”, para escrever o seu obituário?
A pergunta permanecerá sem resposta, mas são muitas outras as que se colocam face aos progressos da IA nas últimas décadas. Se as máquinas ainda não podem pensar ou sentir tal como Minsky considerava ser possível, a verdade é que o seu trabalho inspirou várias gerações e muitos dos seus alunos são hoje especialistas na área – como Ray Kurzweil, o visionário, inventor e defensor da Singularidade – conceito que defende que o progresso tecnológico irá culminar numa fusão entre a inteligência humana e a das máquinas -, ou Gerald Sussman, reconhecido investigador e professor no MIT ou ainda Patrick Winston, que sucedeu aos destinos do AI Lab depois de Minsky se ter retirado. E também não é de admirar que tanto Stanley Kubrick como Arthur C. Clarke o tenham consultado enquanto congeminavam o argumento de 2001: Odisseia no Espaço.
Mas e afinal, e em plena adolescência do século XXI, estão os humanos mais perto de dotar as máquinas de “consciência” ou estarão as máquinas, num futuro não muito distante, prestes a ultrapassar a inteligência dos humanos e a preparem-se, tal como temem muitos profetas da tecnodesgraça, fazer um “delete” da raça humana?
“A natureza darwiniana brutal da evolução tecnológica”
[caption][/caption]
Quando Isaac Asimov começou a escrever sobre robots na década de 40 do século passado, desenvolveu três regras para os ditos, sendo a número um aquela que clama que “um robot não pode causar mal a um ser humano ou, por inação, permitir que um humano sofra algum mal”. Provado que está que a realidade, em muitos casos, já ultrapassou a ficção científica, são muitos os cientistas, académicos, filósofos, empreendedores, especialistas em tecnologia e outros observadores do progresso acelerado que pauta as áreas da ciência e da tecnologia que têm vindo a alertar para uma ausência de controlo em todos estes avanços.
E, em alguns casos e sem histeria, é possível dar-lhes razão. Por exemplo, em Julho de 2015, na International Joint Conference on Artificial Intelligence, um conjunto de especialistas da área, entre os quais os (re)conhecidos Stephen Hawking, Elon Musk, Steve Wozniak ou Noam Chomsky, divulgariam uma carta aberta contra as denominadas “armas autónomas” que, graças à inteligência artificial, conseguem selecionar e atingir alvos sem qualquer intervenção humana. No documento que mais tarde viria a ser subscrito por mais de 14 mil outros cientistas de várias áreas, alertava-se para a inevitabilidade, caso não se faça nada, de este tipo de armas se transformar nas “Kalashnikovs de amanhã”. É que, ao contrário das armas nucleares, a produção deste tipo de armamento não exige custos elevados nem materiais difíceis de obter, sendo fácil a sua produção massificada. E, para os subscritores desta carta, é apenas uma questão de tempo até que as mesmas comecem “a aparecer no mercado negro e nas mãos de terroristas, de ditadores que desejam controlar melhor as suas populações, da senhores da guerra que pretendam perpetrar limpezas étnicas, etc.”.
Esta carta aberta, disponível no Future of Life Institute, é apenas uma das várias manifestações de apreensão que começa a ter cada vez mais adeptos no que respeita aos perigos e ameaças que se escondem por trás dos avanços na IA. E, apesar de, na generalidade, nem o mundo científico nem o mundo académico estarem convencidos que a inteligência artificial é uma ameaça iminente, a verdade é que alguns dos seus respeitados especialistas têm vindo a debater o assunto não só nos seus círculos internos, mas também e obviamente nos media e a apelar para que alguma coisa seja feita para que não chegue o dia em que poderá ser tarde demais para os humanos controlarem as máquinas.
Com menos ou mais histeria, e apesar de não existirem ainda máquinas – ao que se sabe – que estejam “no controlo”, também sabemos que a inteligência artificial faz parte integrante do nosso quotidiano, mesmo que tal facto não ocupe lugar ou preocupação alguma nas nossas mentes. Como escreve o repórter do Washington Times, Joel Achenbach, em The Resistance: Digital Dissent in the Age of Machines, “os computadores já pilotam aviões sozinhos, os carros sem condutor estão praticamente ao nosso dispor, os algoritmos antecipam as nossas necessidades e decidem que tipo de anúncios é que deveremos ver, as máquinas já criam peças jornalísticas e conseguem reconhecer o nosso rosto no meio de uma multidão”. Tudo isto em (con)fusão com a engenharia genética – basta estar atento aos media e vemos que a terapia de edição de genes, entre outros avanços inimagináveis, começa a ser notícia, e com a nanotecnologia (os bots de que fala Ray Kurzweil nos seus livros sobre a Era da Singularidade e que podem coexistir no interior do corpo humano e serem programados para tarefas específicas) a dar cartas em inúmeras áreas. E a lista poderia continuar.
Por outro lado, e apesar de o sonho de Minsky de dotar as máquinas de consciência ou sentimentos ainda não se ter verificado, também é verdade que a evolução tecnológica aparenta ser uma corrida rápida e sem limites preestabelecidos. Como escreve Tom Chatfield, num interessante artigo do The Guardian, intitulado “O que significa ser humano na era da tecnologia”, a nossa interdependência com as máquinas é um facto consumado e há que reconhecer “a natureza darwiniana brutal da evolução tecnológica”. Chatfield alerta também para o facto de “apesar de as nossas máquinas ainda não estarem ‘vivas’, as pressões evolucionárias que as rodeiam são tão intensas quanto as que existem na natureza, mas com uma dose muito menor dos seus constrangimentos”. E, a este propósito cita o filósofo Daniel Dennett, entre outros [que apesar de considerarem que a Singularidade, enquanto o “momento fatal em que a IA irá ultrapassar a inteligência dos seus criadores e tomar conta do mundo” está ainda a muitos séculos de distância, mas mais vale prevenir que remediar], que afirma que a lógica de atualização e aperfeiçoamento constante vai muito além de áreas como as finanças, a indústria do armamento ou a da produção. “Se se provar que um algoritmo pode produzir diagnósticos mais consistentemente rigorosos do que um médico, então a recusa em utilizá-lo será, em simultâneo, não ética e legalmente questionável”. A verdade é que neste momento, e apesar da frustração manifestada por Minsky face aos verdadeiros - ou questionáveis – avanços na inteligência artificial, são muito poucas as áreas de “esforço humano” que permanecem intocáveis em termos tecnológicos.
E parece ser este esforço de antecipação aos perigos que deles podem emergir que move figuras incontornáveis como Stephen Hawking, por exemplo, a darem a cara por movimentos que, apesar de não serem contra os progressos da AI, estão preocupados com as inúmeras questões éticas que lhes estão inerentes, em conjunto com a necessidade de existir algum tipo de “autoridade” que lhes imponha limites e controlos apropriados, seja lá o que isto queira dizer.
Max Tegmark, professor de física no MIT, tem vindo a encabeçar um destes movimentos. Como conta Joel Aschenbach no seu livro acima referido, Tegmark é um de vários cientistas que acredita que a inteligência artificial poderá vir a ser o melhor ou o pior que pode acontecer à raça humana.
Em 2014, Tegmark reuniu em sua casa 33 cientistas para discutirem as ameaças existenciais originárias dos avanços da IA, tendo de seguida persuadido várias personalidades do mundo da ciência, da tecnologia e do entretenimento para fundarem o já acima referido Future of Life Institute (FLI). A missão desta organização sem fins lucrativos visa catalisar e apoiar pesquisas e iniciativas que salvaguardem a vida [humana], ao mesmo tempo que espera contribuir para o desenvolvimento de visões otimistas para o futuro, incluindo formas positivas para a humanidade se manter no seu próprio caminho tendo em conta as novas tecnologias e respetivos desafios.
O próprio Hawking consta do quadro de fundadores do FLI e, dado o seu mediatismo, foi a figura estrategicamente escolhida para afirmar, numa entrevista à BBC, que a IA, se não eficazmente controlada, poderia ditar o fim da raça humana. Tegmark escolheu também para companheiros desta cruzada o laureado com o Nobel da Física Francis Wilczek, o famoso investigador em IA Stuart Russel, o ator Morgan Freeman, o fundador do Skype Jaan Tallinn e também Elon Musk que, por sua vez, é também o fundador de outra iniciativa sem fins lucrativos, a OpenAI que, em conjunto com muitos insiders de Silicon Valley, cientistas e engenheiros, pretende manter a inteligência artificial como uma “extensão das vontades humanas”, assente na premissa de que é tão difícil imaginar o quanto esta pode beneficiar a sociedade, como o quão perigosa a mesma pode vir a ser se construída ou usada de forma incorreta. De sublinhar também que Musk é um dos maiores investidores, em conjunto com Mark Zuckerberg do Facebook e o actor Ashton Kuchner, de uma empresa cujo principal objectivo é construir um robot que pense como uma pessoa, através de uma rede neural capaz de replicar a parte do cérebro que controla a visão, os movimentos do corpo e a linguagem. Todavia, é também da sua autoria a frase que reza que “com a inteligência artificial, poderemos estar a convocar o demónio”.
Superinteligência, superestupidez ou Xanax precisa-se?
[caption][/caption]
Se, à luz da lógica e da inversão do ditado que afirma “casa roubada, trancas à porta”, estas iniciativas e movimentos parecem fazer sentido, também é verdade que os progressos ditados pela inteligência artificial constituem terreno fértil para muita imaginação e fundamentalismo. Que o diga o filósofo sueco Nick Bostrom, professor em Oxford e amigo e aliado intelectual de Tegmark, autor do livro “Superintelligence: Paths, Dangers, Strategies”. Bostrom é inigualável no que respeita a divisar cenários apocalípticos e, como refere Aschenbach, na sua mente “a extinção humana poderá ser só o início”. Se assim for, na verdade, não teremos muito com que nos preocupar, visto já termos entretanto desaparecido. Mas se existem muitos tecnoprofetas da desgraça - como existem outros tantos que passam a sua vida a tentar acertar no dia do juízo final – o que mais impressiona em Bostrom, fundador da Humanity +, uma organização internacional que defende a utilização ética da tecnologia para a expansão das capacidades humanas e também do Institute for Ethics & Emerging Technologies, é o facto de ser um académico mundialmente respeitado.
Muito resumidamente, a história que conta no seu mais recente livro tem como premissa uma determinada máquina (programada para fazer clips) que vai ganhando inteligência e poder contínuos sem nunca desenvolver quaisquer valores humanos, e que acaba por transformar, quando atinge a sua superinteligência, toda a Terra - inclusive a raça humana – em … clips. Sim, está na hora do leitor sorrir e convencer-se que Bostrom é completamente lunático. Mas bastará ler o resumo do livro disponível na Internet ou pesquisar um pouco mais acerca de Bostrom para, pelo menos, lhe dar algum crédito. Crente que chegará a altura, mais ou cedo mais tarde, em que os “cérebros das máquinas” ultrapassarão os dos humanos em termos de intelecto, gerando-se a tal superinteligência, será esta a poder substituir os humanos como forma de vida dominante na Terra. Máquinas suficientemente inteligentes poderão aperfeiçoar as suas capacidades de uma forma muito mais rápida comparativamente às dos cientistas humanos. E, como escreve “tal como o destino dos gorilas depende agora mais dos humanos do que das suas próprias ações, o mesmo acontecerá com o destino da humanidade futura, a qual dependerá das ações das máquinas superinteligentes”.
Apesar do tom catastrófico assumido por Bostrom nos seus livros, papers e nas inúmeras conferências que profere no mundo académico e científico, o filósofo é a favor da criação desta superinteligência, mas apenas se a mesma for alvo de uma cuidada e apertada vigilância, com salvaguardas suficientes que assegurem que estas máquinas não escaparão ao controlo humano e que não colocarão em perigo a existência futura da humanidade.
Bostrom é considerado como um dos expoentes máximos em termos de “ansiedade” face ao futuro da tecnologia. Mas e como refere o jornalista do Washington Post que acompanha esta área, esta “ansiedade” parece estar a ganhar cada vez mais adeptos, sendo similar à paranoia que se instalou nos anos 50 do século passado, quando óvnis e extraterrestres povoavam o imaginário humano e as telas de Hollywood. E dá um exemplo de um dos cenários imaginados por Bostrom: “imagine que os engenheiros humanos programam as máquinas para, e seguindo a regra de Asimov, não magoarem nunca os seus ‘criadores’. Mas vá ainda mais longe e imagine que as máquinas decidem que a melhor forma de obedecerem ao comando ‘não-magoar-os-humanos’ será através de uma prevenção ‘radical’ que passará por acabar com o nascimento de qualquer um deles”.
Apesar de o filósofo sueco não afirmar que isto vai acontecer (fazê-lo seria o mesmo que assumir uma completa insanidade) e de concordar que, graças às tecnologias, somos todos testemunhas de alterações radicais no que respeita à população humana e à prosperidade económica, na sua visão “a existência moderna é uma anomalia, criada em grande parte pela tecnologia, visto que as nossas ferramentas conseguiram esmagar, subitamente, as restrições da natureza”. Ou, como defende também, “estamos no comando agora ou pelo menos parecemos estar”. Por enquanto.
Bostrom, que pertence também ao quadro de fundadores do Future of Life Institute não está, de todo, sozinho, nesta cruzada e, tal como Hawking surpreendeu o mundo ao afirmar que “a IA pode vir a ser o maior erro cometido na nossa História”, os resultados que se seguiram a uma conferência, organizada por Tegmark para discutir as potenciais ameaças da IA, são dignos de reflexão: em pouco tempo, e em conjunto com os 10 milhões de dólares oferecidos por Elon Musk para financiar a pesquisa do FLI, 300 equipas de investigadores enviaram propostas para diminuir os potenciais riscos da inteligência artificial.
Claro que entre a comunidade científica as opiniões são muito divergentes. Por exemplo, Boriz Katz, também ele investigador em IA no MIT, afirma que, ao contrário do que defende Bostrom, “o que estamos a fazer hoje é produzir entidades super-estúpidas que cometem erros”, afirma. “As máquinas são perigosas porque lhes estamos a dar demasiado poder, poder esse que serve para agirem como resposta a inputs sensoriais. Mas o problema é que estas regras não estão a ser convenientemente pensadas, o que resulta em que, por vezes, a máquina aja da forma errada”, acrescenta, assegurando ainda que isto acontece, mas nada tem a ver com a possibilidade de as máquinas nos quererem matar.
Aleluia, diremos nós, respirando de alívio. Mas, se voltarmos às visões da dupla Tegmark e Bostrom, que acreditam piamente que “a inteligência humana ocupa apenas um espaço minúsculo no grande esquema das coisas” e que será a nossa inteligência que nos permitirá “go galactic ou intergalactic”, Bostrom está convencido que será a IA a abrir portas a um conjunto alargado de possibilidades e capacidades e “que permitirá a colonização espacial ilimitada, o upload de mentes humanas nos computadores e também civilizações intergalácticas com mentes de dimensão planetária que viverão ao longo de milhares de milhões de anos”.
E, mais uma vez, este Bostrom é louco? É tão alegadamente louco que sublinha também que “se não excluímos a hipótese de que uma máquina possa criar uma simulação da existência humana, teremos de assumir que é extremamente provável que já estejamos a viver no interior dessa mesma simulação”. Se o filósofo é fã da trilogia Matrix, não sabemos. Mas a verdade é que ele não nega a possibilidade de ele próprio estar já numa máquina com esta natureza.
Quanto a Einstein e depois dos 100 anos que tiveram de passar para que a sua teoria fosse comprovada, foi também visionário quando afirmou que “se está a tornar assustadoramente obvio que a nossa tecnologia tenha ultrapassado a nossa humanidade”. Ao que Minsky provavelmente responderia com uma frase que também o tornou famoso: “nenhum computador foi ainda concebido para ter consciência daquilo que está a fazer; mas, e na maior parte do tempo, o mesmo acontece com os humanos”.
Comentários