"Devemos deixar que as máquinas inundem os nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, incluindo os bem feitos? Devemos desenvolver mentes não-humanas que eventualmente nos podem superar em número, podem ser mais espertas, tornando-nos obsoletos e substituindo-nos? Devemos arriscar perder o controlo da nossa civilização?", questionam os cientistas.
Com as empresas de tecnologia a mover-se cada vez mais rápido no sentido da inteligência artificial, cientistas e entendidos da indústria tecnológica, como Elon Musk e o co-fundador da Apple, Steve Wozniak, pedem uma pausa de pelo menos seis meses para considerar os seus riscos.
A petição publicada no dia 22 de março no site futureoflife.org é uma resposta ao recente lançamento do GPT-4, pela startup OpenAI de São Francisco, uma versão mais avançada do tão conhecido ChatGPT, que desencadeou uma corrida das gigantes de tecnologia, como a Microsoft e a Google, por tecnologia semelhante, adianta a AP.
"Sistemas de inteligência artificial que competem com a inteligência humana podem representar riscos profundos para a sociedade e a humanidade", começa a petição, remetendo para pesquisas sobre esta matéria. "A inteligência artificial avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planeada e gerida com cuidados e recursos proporcionais".
De acordo com o grupo de cientistas e entendidos da tecnologia, "esse nível de planeamento e gestão não está a acontecer". Nos últimos meses tem havido uma "corrida descontrolada" pela inteligência artificial, que pode tornar-se tão poderosa ao ponto de nem os seus criadores a conseguirem "entender, prever ou controlar".
"Sistemas poderosos de inteligência artificial devem ser desenvolvidos apenas quando estivermos confiantes de que os seus efeitos serão positivos e os seus riscos administráveis", concluem.
Tendo em conta os riscos enunciados, o grupo pede que todos os laboratórios de inteligência artificial parem a sua busca por sistemas ainda mais poderosos do que o GPT-4, por pelo menos seis meses. "Essa pausa deve ser pública e verificável e incluir todos os principais atores. Se tal pausa não for rapidamente decretada, os governos devem intervir".
O que fazer durante este tempo? É aconselhado que os especialistas e os laboratórios de inteligência artificial aproveitem para desenvolver e implementar protocolos de segurança. Apelam para um desenvolvimento orientado para sistemas mais seguros, transparentes, precisos e confiáveis.
"Isso não significa uma pausa no desenvolvimento da inteligência artificial em geral, apenas um retrocesso na corrida perigosa" para sistemas cada vez "maiores, imprevisíveis e com capacidades emergentes", acrescentam.
Apelam ainda para autoridades reguladoras capazes de se dedicarem à inteligência artificial, para supervisão e rastreamento desta tecnologia, e para sistemas que ajudem a distinguir o real do artificial. Além disso, consideram importante que exista "responsabilidade por danos causados pela inteligência artificial". E, concluem, também são necessárias instituições "com bons recursos para lidar com as dramáticas perturbações económicas e políticas (especialmente para a democracia) que a inteligência artificial causará".
"Vamos aproveitar um longo verão de inteligência artificial, não correr desesperadamente para o outono", conclui a petição, relembrando que a sociedade já fez pausas noutras tecnologias com efeitos potencialmente catastróficos para a sociedade, e que agora deve fazer o mesmo, aproveitando este tempo para "colher os frutos" e projetar esses sistemas para o "benefício de todos", dando à sociedade uma oportunidade para se adaptar.
*Pesquisa e texto pela jornalista estagiária Raquel Almeida. Edição pela jornalista Ana Maria Pimentel
Comentários