Num momento em que a inteligência artificial molda a nossa interação com a informação, decidimos unir forças para explorar, em termos de reflexão, duas perspetivas: a da inovação e da inteligência artificial e a da informação, enquadrando a comunicação como um veículo de mudança social.

Vivemos uma época em que a desinformação se dissemina de forma alarmante, e a nossa compreensão do mundo é mediada por algoritmos que, como diabinhos (ou anjos) que carregamos no nosso ombro, nos sussurram o que queremos ouvir. Desde as redes sociais até aos motores de busca, os algoritmos funcionam como filtros que moldam as notícias e opiniões que recebemos. O impacto desta mediação digital na formação de opiniões é inegável e merece uma reflexão cuidadosa.

Numa era em que estamos imersos em tecnologia, o consumo da informação que nos mantém atualizados sobre o que se passa no mundo, seja do ponto de vista político, económico, científico ou social, transformou-se também ele num processo digital que trouxe inúmeras vantagens, como a escalabilidade e a facilidade de acesso à informação, que todos aprendemos a valorizar e sem as quais, por vezes, já não sabemos viver.

Neste mundo hiper conectado, onde sentimos que temos à disposição toda a informação do mundo no bolso, talvez fosse boa ideia acolher como residente habitual nos nossos cérebros a “dúvida”; essa amiga sincera que nos confronta e nos pergunta: será que é realmente assim? Será que esta informação é verdadeira? Terá sido esta imagem manipulada?

Os mecanismos digitais que nos ajudam a navegar e filtrar o vasto oceano de informação disponível baseiam-se em modelos matemáticos preditivos que remontam aos primórdios da inteligência artificial. Ao longo dos anos, estes modelos evoluíram e tornaram-se mais eficazes na sua função de pesquisa de informação.

Entre os diversos tipos de modelos disponíveis, podemos analisar dois: os modelos de recomendações e os modelos de aprendizagem baseada em reforço. Ambos funcionam com base num sistema de recompensas, visando guiar o algoritmo na produção de resultados mais eficazes e relevantes para o utilizador. Mas afinal, o que é essa "recompensa"?

A recompensa são os cliques, os thumbs up, os likes, a nossa interação, o uso que fazemos do nosso livre-arbítrio, o que escolhemos ver, ler, ouvir e não questionar!

Ao navegar na internet, frequentemente somos guiados por entidades invisíveis, os algoritmos, que personalizam a informação com base nos nossos interesses e comportamentos anteriores.

Quando utilizamos redes sociais, motores de busca ou plataformas de notícias, estes algoritmos selecionam conteúdos que provavelmente nos agradarão ou que se alinharam com as nossas crenças, criando uma espécie de "bolha" de informação. Nesta “bolha”, estamos constantemente expostos a conteúdos semelhantes aos que já consumimos, enquanto opiniões divergentes ou diferentes pontos de vista são limitados ou até eliminados; um fenómeno descrito perspicazmente por Eli Pariser no seu livro "The Filter Bubble".

Atualmente, a desinformação emerge como uma verdadeira pandemia que ameaça a essência do nosso modus vivendi coletivo, que deveria assentar na factualidade informativa e não em supostas “realidades virtuais”.

As notícias falsas, muitas vezes sensacionalistas, proliferam e destroem a confiança nas fontes de informação tradicionais. Diversos estudos, como o Global Risks Report 2024, publicado pelo Fórum Económico Mundial, identificam a desinformação como uma grave ameaça a curto prazo, destacando o risco crescente de propaganda doméstica e censura.

A rápida propagação de conteúdos gerados por IA, como deepfakes, dificulta a nossa capacidade de discernir entre verdade e mentira, o que pode influenciar o comportamento eleitoral e prejudicar o processo democrático.

Porém, e como em tudo na vida, existem sempre dois lados: todos somos parte anjos e parte demónios. Tudo tem um lado positivo e um lado negativo. As mesmas ferramentas que servem para criar modelos preditivos que nos introduzem informações são também armas poderosas na luta contra a desinformação.

Com algoritmos capazes de processar enormes quantidades de informação em frações de segundo, a IA pode identificar padrões de desinformação e sinalizar conteúdos questionáveis antes que se tornem virais. Esta capacidade de proteção oferece uma nova esperança para mitigar os danos causados pela desinformação.

Iniciativas da indústria, como a Coalition for Content Provenance and Authenticity (C2PA), são para abordar as preocupações relativas à desinformação, garantindo a autenticidade e a rastreabilidade do conteúdo digital. A utilização de padrões técnicos para certificar a origem e a proveniência dos conteúdos é um passo importante na mitigação dos riscos.

A educação para a literacia mediática e o pensamento crítico é mais essencial do que nunca. Esforços coletivos, como os promovidos pela AI Governance Alliance e pela Global Coalition for Digital Safety, ambicionam que a IA seja uma ferramenta de verdade e progresso, em vez de manipulação e divisão, promovendo um futuro onde a tecnologia fortaleça a confiança pública e os valores democráticos.

Em suma, enquanto os algoritmos influenciam a formação de opiniões, a inteligência artificial emerge como uma aliada eficaz na luta contra a desinformação. Ao implementarmos melhores práticas de comunicação, adotarmos tecnologia inovadora e fomentarmos a literacia mediática, podemos colaborar para criar um ambiente informativo enriquecedor; um espaço onde as ideias possam ser trocadas livremente e onde a verdade possa prevalecer sobre a desinformação.

O desafio que nos espera não é apenas tecnológico, mas profundamente humano. A forma como interagimos com a informação e como nos educamos para navegar nas complexidades do mundo digital determinará o futuro da nossa democracia e da nossa sociedade. Estamos todos convidados a participar nesta conversa vital, que não é mais do que um convite à ação coletiva por um futuro mais esclarecido. A nossa capacidade de discernir a verdade e a responsabilidade que temos enquanto consumidores de informação serão determinantes para um futuro em que a desinformação não prevaleça sobre a verdade.

Artigo escrito em colaboração com Marco António Silva, National Innovation Officer da Microsoft Portugal