Podemos considerar um exemplo extremo para compreender a questão. Suponha-se que é possível determinar o sexo e outras características (inteligência, aparência) de um feto. A tentação que se coloca aos pais é compreensível, mas será que deveriam mudar artificialmente uma vida criada aleatoriamente (enfim, pela mistura de ADNs), de acordo com as suas preferências? Este exemplo não é, aliás, do ramo da ficção científica; estamos cada vez mais próximos dessa possibilidade. Já anteriormente se tinha levantado um dilema semelhante quando se tornou possível criar um feto numa chamada “barriga de aluguer”, ou, ainda mais atrás, quando se desenvolveu a inseminação artificial.
Nestes, como noutros casos, levantaram-se dúvidas quanto às implicações imprevisíveis, mas prováveis, implícitas na alteração do ciclo natural de reprodução dos seres humanos.
Mas, neste momento, as questões que se colocam, sendo de ordem política e não biológica, levantam o mesmo problema: deve-se usar uma tecnologia só porque ela existe, mesmo que represente um perigo para a privacidade a que o ser humano tem direito?
Comecemos pelo reconhecimento facial, ou seja, a identificação de uma pessoa a partir da imagem da sua cara. O programa, quando instalado num telemóvel ou num tablet, identifica o utilizador pela sua fotografia. Sucessor do reconhecimento por impressão digital, o chamado “reconhecimento biométrico” foi lançado no iPhone da Apple em 2017 e adoptado por outros fabricantes.
Uma pessoa deixar-se identificar a si própria num aparelho que lhe pertence parece uma boa ideia, mas tem implicações; o seu rosto, se estiver em apuros, serve também para desbloquear o telemóvel.
A possibilidade desta vigilância estende-se, evidentemente, a câmaras que não pertencem aos fotografados, como as de vigilância de lugares públicos, lojas, e até propriedades particulares.
Quanto às câmaras públicas, não são exclusivas dos países com regimes policiais. Londres, a capital de uma democracia que se orgulha das liberdades individuais, calcula-se que tenha meio milhão de câmaras de CCTV [closed-circuit television; circuito fechado de televisão], das quais mais de 15 mil no metropolitano.
Em Portugal, a questão tem sido debatida pelos protagonistas habituais neste tipo de actividade: a PSP e autoridades municipais, por um lado, e a Comissão Nacional de Proteção de Dados e grupos não-governamentais por outro. Em 2019, foi proposta a instalação de 200 câmaras em Lisboa a serem operadas pela PSP.
Os argumentos a favor são, basicamente, os do controlo da criminalidade, tanto em tempo real como recorrendo aos arquivos para identificar posteriormente os prevaricadores. Esta última actividade permitiu que a polícia inglesa identificasse os culpados dos atentados terroristas que abalaram Londres em 2005.
Em tempo real, quando a central de vigilância da polícia vê um delito a ser cometido, envia agentes ao terreno imediatamente. Para identificação posterior, por enquanto, e ao que se sabe (porque realmente não se sabe), os investigadores comparam fotografias de suspeitos já arquivadas com os vídeos captados em determinados locais no espaço de tempo que antecedeu os crimes. As imagens são comparadas biometricamente.
Claro que nada disto se compara com o uso intensivo da técnica pelas autoridades chinesas, que inclui, declaradamente, o reconhecimento biométrico. Há vantagens evidentes na simplificação da vida dos utentes de transportes públicos, viajantes e consumidores, mas as autoridades chinesas não escondem a “utilidade política” e “social” deste controlo dos cidadãos, que vai ao ponto de lhes atribuir pontos positivos e negativos que depois resultam em certas facilidades ou restrições das suas vidas.
Nos países ocidentais, nenhum Governo se propõe ir tão longe. Contudo, estando instalado o sistema, como garantir que não há abusos?
Nos Estados Unidos, onde muitas polícias já usam câmaras “corporais” nos uniformes, não só para se auto-vigiarem como também para identificarem um suspeito em tempo real, as organizações de direitos civis argumentam, com razão, que se trata de uma infracção da liberdade individual e acentua o preconceito contra os negros.
A polícia de Baltimore usou o reconhecimento facial durante os protestos que se seguiram à morte de Freddie Gray enquanto estava detido, em 2016.
Enquanto, por um lado, o Presidente da Câmara de São Francisco ordenou que as forças policiais usassem estas mini-câmaras, por outro, duas empresas importantes anunciaram recentemente que iam terminar as suas pesquisas da tecnologia. A IBM e a Google declararam publicamente o encerramento dos seus departamentos de investigação na área. A notícia é interessante, primeiro porque era pouco conhecido que os departamentos existiam e, também, porque as preocupações não eram com a privacidade propriamente dita, mas com a pouca precisão do reconhecimento. Outras empresas, como a Amazon (que tem um programa chamado Rekognition) continuam as pesquisas. A Amazon argumenta que o sistema permite às autoridades ajudar a salvar vítimas de tráfico humano e recuperar crianças desaparecidas.
Outra empresa, a Clearview AI, foi severamente criticada quando se descobriu que o seu programa, baseado em mais de três mil milhões de retratos recolhidos nas plataformas sociais, era usado pelos serviços de segurança oficiais e empresas privadas. Seguiram-se incontáveis processos de invasão de privacidade. Em Janeiro deste ano, também o Facebook foi multado em 550 milhões de dólares (mais de 480 milhões de euros) por utilizar ilegalmente o reconhecimento facial.
Shira Ovide, a jornalista especializada em tecnologia no The New York Times, contou que o M.I.T. (Massachussets Institute of Technology) concluiu um estudo que demonstra que o reconhecimento facial sofre de grandes disparidades de eficiência e tem altos índices de erro, especialmente entre pessoas com pele mais clara e mais escura. Ou seja, nos negros há muito mais possibilidade de engano. E, depois,“há um problema chamado de preconceito da automatização. Se a nossa intuição nos diz que a imagem de uma pessoa não se parece exactamente com ela, mas o computador diz que há 99% de possibilidade que seja, é mais provável que acreditemos no computador.”
Não há dúvidas de que a questão do reconhecimento facial está para ficar, nem esperanças de que não seja usado, legalmente ou “por baixo do radar”, tanto por autoridades oficiais como por privados. É uma tecnologia de controlo das pessoas demasiado eficiente (mesmo com as suas deficiências) para que certas “entidades” deixem de a usar. Só a China – que se saiba – assume despudoradamente que a utiliza, mas está-se mesmo a ver que outros países não resistirão à tentação de identificar em tempo real toda a gente – os “maus” e os “bons”, segundo os seus critérios.
Outra tecnologia que está na ordem do dia é a da localização pessoal, as chamadas “tracking apps”. A tecnologia também já existe há algum tempo e também tem vantagens para o utilizador. É usada, por exemplo, pela Uber, para localizar o cliente que pede um serviço. Também é empregue por inúmeros sectores de actividade para localizar a área dos utentes de certos serviços. A app da EMEL é um caso, em Lisboa. Ou a Google, que localiza o computador ou o telemóvel para indicar os estabelecimentos mais próximos. Já se tornou tão comum que a maioria das pessoas nem percebe que, desde que tenha um telemóvel ligado, há muitas entidades que sabem onde elas estão. Das que percebem, muitas não se preocupam com isso; afinal de contas, facilita-lhes a vida.
Passa-se o mesmo com uma outra área, que não vamos desenvolver agora: o “perfil do consumidor” construído por certas empresas, não a partir da localização, mas dos hábitos de consumo e das páginas mais consultadas na Internet. Esta técnica não pratica nenhuma intrusão na privacidade, limita-se a tomar nota das acções não privadas das pessoas. Todos notamos que os anúncios que nos aparecem no Facebook ou no Instagram estão relacionados com compras que fizemos antes, ou com consultas frequentes a certos produtos anunciados. Esta informação pode ser cruzada com outras, incluindo a geolocalização do nosso aparelho, para colocar a publicidade só na área geográfica, ou no nível de rendimento que interessa ao vendedor.
Dentro deste tipo de intrusão, ficamo-nos por uma história bastante representativa, descoberta pelo The New York Times e muito bem resumida na revista Forbes: um pai descobriu que a filha estava grávida pela publicidade que ela recebeu da cadeia de lojas Target. A Target tinha contratado uma empresa que analisava minuciosamente as compras dos clientes, e conseguia saber, como aconteceu neste caso, que uma mulher estava grávida antes de ela o anunciar, mandando-lhe então publicidade do tipo de produtos de que ela iria precisar.
Quando viu que esta agressividade promocional assustava as pessoas, a empresa passou a disfarçar o mail que mandava, incluindo os produtos que sabia que elas precisavam com outros completamente diferentes.
Dentro das formas mais avançadas destes “perfis” está incluída a localização pessoal. Essa é mais difícil de o recipiente perceber, uma vez que nada indica na publicidade que foi apenas dirigida a pessoas como ele. De vez em quando há sobressaltos, como quando veio a público o caso da Target, mas em geral os consumidores desvalorizam a perda de privacidade em troca do conforto.
Todavia, esta convivência “pacífica” com o “tracking” está a passar por uma aflição, por causa da possibilidade de usar o sistema para conter a epidemia da Covid-19. Mais uma vez, estamos perante uma boa ideia - conter um problema sanitário - que levanta sérias questões de privacidade e controlo por organismos que, no final da história, levam ao controlo do Estado sobre os cidadãos, ou pelo menos a conhecê-los mais do que estes gostariam.
Há apps em desenvolvimento – sabe-se que a Apple e o Google estão a trabalhar nisso e há pelo menos 25 projectos um pouco por todo o mundo. Os Governos incentivam a iniciativa, uma vez que se trata de uma maneira bastante prática e barata de fazer o chamado “track and trace” [localização e seguimento, numa tradução livre]: quando uma pessoa descobre que está infectada com a Covid-19, quer saber-se com quem esteve em contacto nos últimos 14 dias, para testar esses contactos. A maioria das pessoas não consegue lembrar-se da totalidade de contactos que fez durante duas semanas, alguns deles fortuitos e sem história, como quem estava numa loja na mesma altura, ou quem fez a mesma viagem de metro.
Estas apps – garantem as empresas e juram os Governos – não permitem transmitir informações pessoais, nem sequer de geolocalização. E os dados não são guardados em nenhuma base centralizada. A ideia é que o próprio telemóvel, quando o utilizador lhe indica que está infectado, procura os telemóveis que estiveram perto dele nessas duas semanas e envia-lhes uma mensagem de aviso.
Ora acontece que o sistema pode ser construído assim, mas nada indica que o seja, e a sua própria natureza levanta dúvidas. Para o telemóvel comunicar o aviso aos outros, tem de passar pela central da operadora. A confiabilidade das operadoras, quanto a questões de privacidade, é matéria de dúvida desde que existem. E podem ser pirateadas por delinquentes, agências governamentais, companhias de seguros e prestadores de serviços de saúde. A lógica é a mesma que levou as comissões de protecção de dados em muitos países a impedir que a ficha médica de um cidadão seja incluída na faixa magnética do seu cartão de identidade. As seguradoras, cuja má-fé sempre foi motivo de queixas, poderiam penalizar um seguro de saúde caso tivessem acesso irrestrito às fichas clínicas. As empresas poderiam recusar candidatos com um passado clínico complicado. E por aí fora.
Em geral, os Governos ocidentais têm namorado esta ideia, cientes das dúvidas que levanta aos cidadãos. Um “problema” que enfrentam é que a adesão é necessariamente voluntária; não se pode fazer download de um programa num telemóvel sem a autorização do dono (legalmente, não tecnicamente). Ora, se uma maioria de cidadãos não aderir, o programa perde a eficiência.
O Governo britânico já testou um sistema na Ilha de Wright e vai lançá-lo nacionalmente em Junho. Os portugueses também desenvolveram uma app. Para a vigilância das pessoas infectadas, o Governo adoptou uma ferramenta a que apenas os profissionais de saúde terão acesso. Terá a sua utilidade, mas não tem a abrangência de um programa para todos, uma vez que só serão detectados os casos confirmados pelas autoridades sanitárias.
As questões de privacidade hão-de atormentar-nos para o resto da vida, e cada vez mais. Só temos duas opções: ou jogar à defesa máxima, desligando o tracking do telemóvel, ou mesmo desligando-o completamente, não responder a inquéritos, não fazer compras através das plataformas sociais, não ter cartões de crédito ou de supermercado, não usar o multibanco (não ter conta bancária é quase impossível...); ou então beneficiar de todas as vantagens da sociedade digitalizada, encolher os ombros e deixar que nos espiolhem o sótão até recônditos que nem sabíamos que existiam.
A escolha é nossa.
Ou será que já não podemos escolher?
Comentários