Todos os seus movimentos (online), antes, durante e depois de ler este artigo, estão provavelmente a ser monitorizados por empresas  maioritariamente Big Tech — como parte rotineira do seu negócio. O que significa isto? Que a cada dia, uma visualização, click ou interação digital é convertida e armazenada em bancos de dados, capazes de traçar um perfil de um indivíduo, que vai desde as preferências comerciais às informações pessoais, como morada e telefone. O segredo deste ofício está na troca: quando os dados pessoais são alvo de transações comerciais, tornam-se o ganha-pão destas organizações.

No campo da economia política, a académica de Harvard Soshana Zuboff utilizou o termo “capitalismo de vigilância” para se referir ao novo sistema económico em que as empresas tecnológicas lucram com os dados pessoais que recolhem, que é como quem diz, os dados que recolhem de cada um de nós. A verdade está à vista — é nada menos do que um incentivo ao lucro, que surgiu quando estas corporações perceberam que, ao comercializar os dados dos consumidores, seria possível atingir e aliciar as pessoas com uma maior precisão, revertendo num maior número de vendas. Em termos práticos: receitas de publicidade e conteúdo e recomendações personalizadas.

O leitor pode estar a perguntar-se: o que é que isto significa para a minha privacidade? Resumidamente, pode significar que valores como a liberdade, a democracia e a privacidade estão a ser postos em causa. Mas deixe-me colocar-lhe outra questão: os dados pessoais têm de ser um modelo de negócio para as empresas tecnológicas? Penso que todos podemos concordar que a resposta é simples, e é não.

Confuso? Eu explico. A sociedade tem de arranjar uma forma segura de manter a privacidade e a custódia dos dados pessoais — algo que vai mais além de não aceitar cookies ou apagar o histórico do computador —, principalmente quando confrontada com o facto de que a internet já não é o mesmo local que era há cinco anos. Hoje em dia temos a Inteligência Artificial (IA) e é impossível voltar atrás.

Mesmo com todas as oportunidades que a IA nos proporciona, traz-nos desafios que precisam de ser contornados. Ainda assim, continuamos a negligenciar a proteção da privacidade, a manutenção do anonimato e a garantia que as interações que temos online são com humanos e não bots ou deepfakes. Esta realidade pode até parecer orwelliana, mas há números que a comprovam — o mais recente relatório da Europol avisa que "especialistas estimam que 90% dos conteúdos online poderão ser gerados sinteticamente até 2026". Trocado por miúdos, dentro de dois anos poderemos ter a internet inundada de conteúdos gerados ou manipulados através de IA.

Voltando a Zuboff, a investigadora pergunta se seremos os donos da informação ou os seus escravos e afirma ainda que "se o futuro digital vai ser a nossa casa, então somos nós que temos de o tornar nela". E é aqui que se encontra a solução — distinguir entre humanos e máquinas no universo da IA. Este passo pede um método de verificação que seja imutável e intrinsecamente humano.

Ao abrigo do RGPD, as pessoas têm uma série de direitos importantes que se aplicam aos seus dados pessoais — a capacidade de os apagar, modificar, solicitar uma cópia, etc. Mas se estes dados forem anonimizados, deixam de ser dados pessoais e o RGPD já não se aplica a eles, uma vez que não podem ser associados a um indivíduo. Há uma questão e um debate recorrentes desde que este enquadramento jurídico entrou em vigor: o que significa os dados serem anónimos? O seu anonimato torna o RGPD obsoleto, ou apenas tem de ser atualizado?

Muitos defensores da privacidade e especialistas em tecnologia têm trabalhado na criação de tecnologias que anonimizam os dados, permitindo simultaneamente que sejam utilizados para fins úteis e ideais para resolver o desafio que vos apresento, como por exemplo o projeto World. Para todos — utilizadores, empresas, reguladores e identidades legais — conseguirmos acompanhar o avanço tecnológico, é necessária uma constante atualização de conhecimentos e de contextos.

Está na altura de a União Europeia reinterpretar — ou reimaginar — os seus regulamentos para fazer face à era da IA. Caso contrário, estaremos todos menos seguros nesta nova fase e, atrevo-me a dizer, ultrapassados por ela.

Chief Policy Officer da Tools For Humanity