"Neste momento, a situação da IA é aquela de estarmos dentro de um carro que não tem travões nem cinto de segurança, está a ser guiado por uma pessoa que não tem carta de condução e vai por uma rua que não tem sinais de trânsito. Este é o estado da IA neste momento", assinalou, em entrevista à Lusa, a investigadora e docente, que integra o órgão consultivo das Nações Unidas para a IA recentemente criado por indicação do secretário-geral, António Guterres.
Até ao verão do próximo ano, este órgão deverá apresentar uma proposta de figurino de uma agência da ONU para a inteligência artificial, para ser apreciada pelos Estados-membros, mas, antes disso, até dezembro, deverá produzir um relatório com o levantamento de riscos, problemas, benefícios e oportunidades da IA e com recomendações.
Segundo Virginia Dignum, que leciona a disciplina de IA Responsável na Universidade de Umeå, na Suécia, "não há supervisão" do desenvolvimento e das capacidades técnicas dos sistemas de inteligência artificial e "não há suficiente atenção para o facto de que a utilização da IA não está a ser regulada de maneira nenhuma".
"Cada um de nós pode hoje à noite ver num vídeo no YouTube como se faz um sistema de IA e amanhã abrir uma companhia e começar a vender aquilo. Não há controlo nenhum, não há certificação nenhuma", sentenciou, sublinhando que faltam regras que definam os "fins próprios e os fins impróprios" do uso da IA.
A União Europeia (UE) está a fazer o seu caminho e aprovou em julho, no Parlamento Europeu, as primeiras regras para a inteligência artificial, que "visam promover a adoção de uma IA centrada no ser humano e fiável e proteger a saúde, a segurança, os direitos fundamentais e a democracia dos seus efeitos nocivos".
Virginia Dignum considera a legislação da UE "bastante completa". O difícil, agora, será cruzá-la com outras leis em vigor, "um puzzle", disse, "que vai ser extremamente complexo" de completar.
Para a investigadora, as regras para a IA devem ser definidas à escala regional, como a europeia, mas também à escala nacional, de cada país, e à escala setorial, para cada setor de atividade onde é aplicável, como a saúde, a educação ou a energia.
Depois, será preciso "definir alguma coordenação entre essas regras todas a nível internacional", porque "os sistemas que estão a ser desenvolvidos implicam, globalmente, toda a gente", sustentou.
Nesta matéria, uma eventual agência da ONU para a IA pode ter uma palavra a dizer. Poderá, segundo Virginia Dignum, "monitorizar as legislações diferentes", mas também recomendar, supervisionar e coordenar a "distribuição equitativa de recursos".
De acordo com a docente, um dos "grandes erros" que a sociedade comete "é achar que a regulação é contra a inovação".
"Não é", frisou, salientando que a regulação dá a oportunidade de "indicar em que direção é mais útil, mais benéfico, inovar".
Por outro lado, na regulação "é preciso imensa inovação, na definição e implementação de padrões", apontou.
A par da necessária regulação, Virginia Dignum defende a literacia para a inteligência artificial para que as pessoas possam fazer escolhas avisadas.
Medo dos riscos não deve paralisar a inteligência artificial
A docente portuguesa, Virginia Dignum, alertou para o "risco inaceitável" de o medo dos perigos associados à utilização da inteligência artificial (IA) paralisar o desenvolvimento de uma tecnologia que "pode beneficiar todos".
Segundo Virginia Dignum, que leciona a disciplina de IA Responsável na Universidade de Umeå, na Suécia, "deixar de utilizar o sistema" de IA, "que tem benefícios para todos", com "medo dos riscos" é, por si só, "um risco". E é inaceitável, disse, em entrevista à Lusa.
"O medo do risco não pode ser a razão para decidirmos não utilizar um sistema que pode beneficiar todos nós", insistiu.
A investigadora integra o órgão consultivo das Nações Unidas para a IA recentemente criado por indicação do secretário-geral, António Guterres.
Até ao verão do próximo ano, este órgão deverá apresentar uma proposta de figurino de uma agência da ONU para a inteligência artificial, para ser apreciada pelos Estados-membros, mas, antes disso, até dezembro, deverá produzir um relatório com o levantamento de riscos, problemas, benefícios e oportunidades da IA e com recomendações.
Sublinhando que "não há tecnologia sem riscos", Virginia Dignum sustentou que o problema "não são necessariamente os riscos da tecnologia em si”, mas da forma como as pessoas e organizações vão utilizá-la.
"O maior risco da IA é a possibilidade de ser utilizada para fazer mal, por ignorância ou maldade daqueles que a usam", frisou.
Na lista de "riscos inaceitáveis", a investigadora inclui também a desinformação, o armamento automático e a discriminação "estrutural e continuada", por exemplo racial, porque os sistemas de IA não foram suficientemente treinados para reconhecer pessoas negras.
"O problema não é a tecnologia, o 'martelo', é quem usa o 'martelo'", expressou, avisando que a inteligência artificial, quando mal utilizada, nomeadamente por agentes totalitários, é uma ferramenta que contribui para diminuir a democracia.
Apesar dos riscos, Virginia Dignum lembra os benefícios que a IA pode gerar, dando como exemplos o acesso equitativo à educação e saúde em países onde faltam recursos e a capacidade de análise de "quantidades enormes de dados muito diferentes uns dos outros".
"A IA foi uma das possibilidades que tivemos para desenvolver milhões de hipóteses de vacinas", destacou, numa referência à capacidade que os sistemas de inteligência artificial tiveram em "acelerar a criação de hipóteses" para vacinas contra a covid-19.
A investigadora realçou, ainda, a possibilidade de a IA "analisar grandes quantidades de informação" que permitem fazer previsões e tomar decisões sobre como "tratar os problemas climáticos".
Inteligência artificial dificilmente agirá contra os humanos
Assinalou ainda que a inteligência artificial (IA), embora se assemelhe à inteligência humana, e até a supere nalgumas tarefas, continua a ser limitada pelas técnicas de computação e dificilmente agirá como e contra os humanos.
"A IA parece-se bastante connosco, tem a capacidade de classificar coisas, identificar, de prever com base em dados do passado", mas "no fim de contas", resume-se a "fórmulas matemáticas que não têm capacidade de desenvolver ambições, intenções ou consciência", disse a docente portuguesa, que leciona IA Responsável na Universidade de Umeå, na Suécia.
"Nós é que temos a capacidade de atribuir consciência e intenções a objetos e sistemas inatos", sublinhou.
Virginia Dignum integra o órgão consultivo das Nações Unidas para a IA recentemente criado por indicação do secretário-geral, António Guterres.
Até ao verão do próximo ano, este órgão deverá apresentar uma proposta de "figurino" de uma agência da ONU para a inteligência artificial, para ser apreciada pelos Estados-membros, mas, antes disso, até dezembro, deverá produzir um relatório com o levantamento de riscos, problemas, benefícios e oportunidades da IA e com recomendações.
Segundo Virginia Dignum, há limites para o que pode ser feito com as técnicas de computação atuais. A consciência é um deles.
"O ChatGPT [programa de IA que permite simular uma conversação na internet com humanos] é capaz de falar e explicar tudo e mais alguma coisa sobre gatos, mas não sabe o que é um gato, nunca sentiu um gato, nunca viu um gato, nunca interagiu com um gato. A única coisa que sabe são textos que foram escritos e imagens que foram feitas sobre gatos", exemplificou.
Virginia Dignum sublinhou que os programas de inteligência artificial continuam a ser isso mesmo, "programas, algoritmos, receitas".
"Receitas complexas, receitas para fazer receitas, programas que produzem programas", descreveu, admitindo que, apesar dessa programação, podem surgir "comportamentos inesperados prejudiciais".
"Mas não quer dizer que o sistema está fora de controlo, podemos pará-lo", acautelou.
Para a investigadora, apesar de a IA superar a capacidade da inteligência humana na resolução de problemas, como o cálculo de uma raiz quadrada, está longe do que os humanos podem fazer.
"A inteligência humana não é só a capacidade de resolver problemas", sentenciou, listando nas "capacidades multivariadas" da inteligência humana "as emoções, a inteligência musical, espacial, social".
"A IA não é inteligente como nós somos inteligentes, não é tão artificial como nós pensamos que é", frisou, acrescentando que a sua autonomia "é mais automatismo".
Por isso, Virginia Dignum considera "completamente implausível" que a IA atue fora de controlo e contra os humanos, os que criaram a tecnologia.
* Entrevista por Elsa Resende, da agência Lusa
Comentários