A utilização massiva da internet é hoje uma realidade na maior parte dos países democráticos e, apesar das limitações, uma realidade igualmente crescente em países autocráticos ou onde existe limitação à liberdade. Estamos a falar dos últimos 30 anos da história da humanidade e, mais intensamente, da última década com a explosão das redes sociais.
É a partir dessa aprendizagem e conquista de novos hábitos recente que somos confrontados com um novo desafio enquanto cidadãos, que é o de decidir sobre como queremos que as nossas sociedades funcionem e quem queremos que nos governe no contexto de uma nova realidade, a da inteligência artificial. Se as redes sociais deram poder - para o melhor e para o pior - às multidões, a inteligência artificial traz outras possibilidades: por um lado, maior escrutínio e transparência, por outro, maior possibilidade de enganar, confundir e controlar.
Foram alguns dos temas abordados na conversa com Miguel Poiares Maduro, professor, reitor da Católica Global School of Law e um analista atento da forma como a política é impactada pela tecnologia. É nessa condição que faz questão de frisar que não é a tecnologia, mas a política que decide o rumo desse imenso espaço público que é a internet.
No próximo ano, 2024, há quatro mil milhões de pessoas que vão votar em várias eleições que terão lugar em países como Estados Unidos, Turquia, Alemanha e Rússia, para citar apenas alguns. Ou seja, meio-planeta vai estar a votar. Como é que vê estas primeiras eleições num contexto em que a inteligência artificial vai poder ser usada de forma mais evidente?
A transformação digital das nossas sociedades já estava a ter um impacto profundo nas democracias, incluindo os processos eleitorais, mas não só nos processos eleitorais. Uma democracia vai para além daquilo que se passa apenas nas ocasiões eleitorais. Mas naturalmente, que à medida que essa transformação digital se vai amplificando e, em alguns pontos, renovando de formas muito significativas, como no impacto que inteligência artificial está a ter, é natural que vá aumentando.
No contexto eleitoral, costumo dizer que a inteligência artificial tanto pode salvar a democracia como matar a democracia.
Como é que a pode salvar?
Pode melhorar muito o funcionamento da democracia, mas também pode trazer riscos enormes para o seu funcionamento.
Dou-lhe um aspeto fundamental para qualquer eleição e não só, também para a nossa participação no espaço público e democrático, que é a forma como nos informamos, por um lado, e como, através dessa informação, formamos as nossas preferências políticas. Cada um de nós toma posição relativamente a um conjunto de temas e define quais são os temas prioritários sobre os quais nos pronunciamos. Tomamos as nossas posições com base na informação que temos sobre o que é verdade e o que é falso relativamente a esses temas, nas opiniões que vimos e ouvimos e na diferente credibilidade que lhes atribuímos.
Ora, todos esses processos são transformados pela inteligência artificial e tanto podem ser transformados para o melhor como para o pior. Até hoje, a transformação digital tem tido um impacto mais negativo do que positivo, mas também pode ter positivo.
Em que medida pode ser positivo, por exemplo?
Pode ter positivo porque nos permite ter acesso a imensa informação que não tínhamos antes. Porque a verificação de factos que um jornalista, por exemplo, vai poder fazer com software, à medida que escreve um artigo e vai usando citações, permite validar se um determinado político está a dizer verdade ou mentira.
Ou seja, pode fazer em tempo quase real artigos sobre aquilo que dizem determinados políticos e, ao mesmo tempo, fazer a verificação dos factos que reportam ao que esses políticos dizem.
Na Rússia, no dia seguinte à invasão da Ucrânia, havia milhares de contas novas no Twitter, cuja única função era fazer retweet dos tweets com a informação oficial do governo russo.
Mas há o outro lado da moeda.
Pode ser negativo e já tem sido, porque a velocidade a que se dissemina a informação nas redes sociais, que estão a substituir o consumo de notícias por via das formas tradicionais do jornalismo, é muito maior. E se se pode disseminar mais rapidamente a verdade, também se pode disseminar mais rapidamente a mentira, sendo que as plataformas digitais favorecem processos de credibilização artificial de mentiras.
Porquê?
Porque a ciência comportamental nos mostra que quanto mais alguma coisa é partilhada por outros e em que outros acreditam, mais tendemos a ter confiança nessa coisa, nesse facto que é alegado. Nas plataformas digitais até podemos de forma artificial amplificar isso, criando contas falsas. Um exemplo é o que aconteceu na Rússia no dia seguinte à invasão da Ucrânia, em que havia milhares de contas novas no Twitter, cuja única função era fazer retweet dos tweets com a informação oficial do governo russo. Para quê? Para lhe dar mais visibilidade, por um lado, e para lhe dar mais credibilidade ao serem partilhados por muita gente. Estavam a dar uma credibilidade artificial à informação falsa, criando aquilo que se chama cascatas informativas.
Um dos desafios principais é como reconstruímos processos editoriais, com base na inteligência artificial e nos algoritmos das plataformas digitais, que estejam imbuídos dos mesmos princípios do jornalismo.
Os algoritmos das plataformas digitais são processos diferentes do jornalismo. O que significa que aquilo que me aparece como prioritário e como mais importante é diferente do que lhe aparece a si.
São escolhas determinadas por um algoritmo que são derivadas de um objetivo de negócio que privilegia o que é que leva as pessoas a estarem mais tempo a ver a plataforma e a sua publicidade. Não são escolhas editoriais determinadas por critérios deontológicos, de pluralismo, de representação das diferentes opiniões. O que estamos a ver são escolhas, não é aleatório, é um processo editorial, mas não é o processo editorial tradicional do jornalismo - e isso é que é o problema, precisamente.
No jornalismo também existem vários processos, incluindo aqueles que são determinados por vender notícias que se sabe que vão ter muito consumo.
Sim, mas com determinados critérios deontológicos, verificação dos factos, pluralidade de direitos de resposta, nem sempre cumpridos, mas isso é um outro problema. E, se calhar, os jornalistas também perderam parte da sua capacidade de ser uma alternativa e têm perdido a relevância face a estes mecanismos editoriais dos algoritmos das plataformas digitais, porque a perda de confiança levou as pessoas a mais facilmente aceitar e a aderir a outros processos de consumir notícias.
Um dos desafios principais é como reconstruímos processos editoriais, com base na inteligência artificial e nos algoritmos das plataformas digitais, que estejam imbuídos dos mesmos princípios do jornalismo. Esse é que é o desafio fundamental, que pode passar por uma proposta que já fiz no passado de as pessoas poderem ter uma escolha quanto aos algoritmos e de esses algoritmos passarem a ser, por exemplo, certificados ou desenhados até por empresas de comunicação social.
Eu poderia decidir que aquilo que vejo no Twitter, prioritariamente, seja escolhidos não com base nas regras do algoritmo que o Twitter tem, mas com base nas regras de um outro algoritmo que é definido, por exemplo, pelo New York Times em conjunto com o Guardian e o Expresso e outros jornais.
Se aceitamos que efetivamente as redes sociais formam opinião e privilegiam determinados factos em detrimento de outros, não deveriam ser tão regulamentadas quanto é o exercício da profissão de jornalista?
Acho que esse passo já foi dado e isso é reconhecido pelos especialistas. Isso é reconhecido incluído por políticos. Tanto por uma notícia falsa, uma ofensa, ou por uma difamação, já é possível qualquer pessoa ir a tribunal com base num artigo de jornal ou como com base numa publicação numa rede social.
Não há um problema de estar ou não sujeito às mesmas regras. O problema não é esse. O problema é que a forma de regulação das plataformas digitais tem de ser diferente daquela que funcionava no espaço tradicional, porque a escala é diferente. Quando temos milhões de tweets a serem partilhados e a terem impactos em múltiplas jurisdições do mundo, não podemos esperar que sejam os tribunais a decidir essas questões, nem sequer seres humanos dentro das plataformas digitais.
O que temos de pensar é como é que nós vamos regular a arquitetura destas plataformas digitais. Como é que podemos dizer que as pessoas não devem ter o direito de participar naquele espaço público? Devem. A questão deve ser de como é que regulamos a arquitetura das plataformas digitais para respeitarem os mesmos princípios constitucionais da liberdade de expressão, do pluralismo, mas também da verdade, que eram os princípios constitucionais que o nosso espaço público não virtual, tradicional, tinha de se conformar. Nem sempre de forma perfeita, muitas vezes de forma imperfeita, mesmo muito imperfeita, mas que pelo menos se regia por esses objetivos. Temos de pensar como é que os respeita, de forma a garantir uma democracia que funcione também nesse contexto, com um espaço público que funcione nesse contexto.
Estas plataformas são, por definição, transnacionais, ou seja, independentemente de estarem numa determinada jurisdição, não atuam apenas num espaço e influenciam pessoas em qualquer parte do mundo. Como se regulam?
Só podem ser reguladas por entidades transnacionais e esse é um dos aspetos em que estou a trabalhar num livro. Dou um seminário em Florença sobre o poder privado transnacional, semelhante ao Estado e há dois exemplos que eu uso, um é o desporto, a FIFA, a UEFA, e outro são as plataformas digitais. São entidades transnacionais privadas que têm um poder de regulação de impor normas de comportamento às pessoas semelhantes a um Estado e não estão sujeitas à regulação de Estados individuais.
Portanto, a única forma de introduzir mecanismos de escrutínio e responsabilização democrática dessas entidades, do meu ponto de vista, é através de organismos supranacionais como a União Europeia, por exemplo.
A União Europeia tem essa capacidade, porque tem esse poder. Basta ver que os únicos dois parlamentos onde o Sr. Zuckerberg aceitou ir falar sobre o Facebook, hoje Meta, a propósito do que se passou nas eleições americanas, foram o congresso norte-americano e o Parlamento Europeu.
Não respondeu, nem aceitou responder mais nenhum, porque a dimensão daqueles mercados faz com que saiba que tem de seguir as regras que determinarem. Se for em Portugal, ele não vem cá.
Certo, mas depois há todo o outro mundo.
Sim, mas temos de fazer sempre um compromisso entre o que é desejável e o que é viável.
Não temos organizações globais, nem temos confiança. Vamos criar uma organização global com a China e com a Rússia para partilhar critérios de regulação do espaço público e da liberdade de expressão? Obviamente que não. Não é viável. Onde é que temos um espaço político em que confiemos com os princípios fundamentais que partilhamos e que tenha alguma capacidade de regulação das plataformas digitais? É a União Europeia.
Um dos riscos é que, na internet, os sistemas tanto podem ser libertadores, como podem ser profundamente obsessivos.
A interferência que houve nas eleições americanas de 2016 mostrou que não há fronteiras e que a tecnologia das grandes tecnológicas pode ser furada por alguém de fora. Como é que se defende a democracia face às possibilidades da tecnologia?
Isso discordo. As fronteiras no digital são muito maiores do que as pessoas julgam. Um dos primeiros grandes livros em matéria de direito do digital é do Lawrence Lessig, que eu admiro muito, e chama-se “Code and Other Laws of Cyberspace”. No início da internet, toda a gente dizia era um espaço de liberdade e democracia, de expansão da democracia, e o Lawrence Lessig chamava a atenção para o facto de que não é necessariamente assim, porque quem controlar o código controla tudo aquilo que passa na internet.
É através do código que eu posso garantir que a palavra democracia não passa aqui, portanto não circula, não chega nem um e-mail. Se chegar à China não consegue aceder ao Google. Se chegar ao motor de busca chinês, que é o único a que pode ter acesso, e colocar lá o nome dos membros do comité central da China, alguns nem aparecem, nenhuma informação e outros aparecem com a informação oficial do Estado e ponto.
Um dos riscos é que, na internet, os sistemas tanto podem ser libertadores, como podem ser profundamente obsessivos, porque podem permitir intrusões na privacidade, controlo social, de uma forma que nunca existiu antes. A questão não é tecnológica, a questão é política.
Mas a questão tecnológica é precisamente por causa dessa capacidade ou possibilidade da tecnologia. No caso do Meta ou do Twitter (agora X), sabemos quem é que são as pessoas que estão por trás, portanto é possível sentarmo-nos à mesa com elas. Noutros sítios não é assim, não sabemos quem são, os hackers russos furaram uma das principais democracias ocidentais.
São casos excecionais. Se uma determinada entidade não aceita a regulação europeia, não pode atuar aqui, portanto, aquele software não entra, não pode funcionar. Os chineses demonstram que se conseguem ser muito eficazes nisso.
Essa forma de pensar o mundo em bolhas não é muito animadora.
Claro, mas o mundo é assim. Não conseguimos mudar o mundo todo. Temos regimes autoritários, regimes democráticos, regimes de que gostamos, regimes de que não gostamos. E temos de conseguir funcionar num contexto desse mundo.
Não vamos conseguir de um dia para o outro fazer todos os regimes serem democráticos e ter um espaço de internet aberto e uma relação de acordo com isso.
Isso significa que temos de ter também, em termos de segurança, mecanismos de proteção de interferência externa nas eleições. Por alguma razão, há estados que já ponderaram o voto eletrónico e não avançaram. A Estónia tem o voto online, mas vários outros ponderaram isso e voltaram atrás. A Holanda fez e voltou atrás. Houve estados americanos que estudaram a questão e voltaram atrás.
Porque acham que ao ser online o risco de intrusão existe e é significativo. Para além de que o voto online implica uma mudança do princípio de confiança nas eleições. As pessoas têm de passar a confiar numa entidade externa, em vez de confiar no que os seus próprios olhos veem.
A internet não é necessariamente um espaço de liberdade.
Portanto, temos de aceitar que o mundo vai ficar em silo e que podemos até ter um espaço seguro na Europa ou nos Estados Unidos, mas que assistimos ao fim da internet enquanto ideia de liberdade.
Não, apenas revela aquilo que quem conhecia bem a internet já sabia, por isso é que falei do livro do Lawrence Lessig: a internet não é necessariamente um espaço de liberdade.
A opção sobre ter um espaço de liberdade no mundo ou não é uma opção política, nunca vai depender da tecnologia, a tecnologia pode permitir aprofundar a liberdade no mundo, mas também pode ser um instrumento de opressão e controle social significativo. Acharmos que a tecnologia em si é que determina mais liberdade ou menos liberdade, mais democracia ou menos democracia, é o principal equívoco destes debates; é uma opção política.
Por isso é que comecei por dizer, a inteligência artificial tanto pode salvar a democracia como pode matar a democracia.
Comentários