Apresentada como símbolo de progresso e inovação, a inteligência artificial (IA) tem transformado profundamente setores como a medicina, o direito e os transportes. A promessa de eficiência e avanço tecnológico, no entanto, convive com um lado obscuro e inquietante: a instrumentalização dessa tecnologia por grupos extremistas. O que antes dependia da eloquência de seres carismáticos ou de redes clandestinas, hoje é replicado por algoritmos e interfaces automatizadas com uma eficácia alarmante. Surge, assim, uma nova configuração da radicalização - invisível, personalizada, automatizada - e perigosamente eficiente.
Do panfleto ao prompt: a evolução técnica da propaganda extremista
Historicamente, o extremismo violento - de origens jihadistas, supremacistas ou revolucionárias — encontrou na propaganda o seu principal vetor de expansão. Durante décadas, este conteúdo era disseminado em panfletos ou vídeos amadores, circulando por canais marginais, como fóruns da dark web. Com a ascensão das redes sociais, a difusão ganhou alcance e sofisticação. Porém, é com a adoção da IA que o extremismo atinge um novo patamar: o da radicalização algorítmica.
Imagine um jovem desempregado e socialmente isolado, em busca de respostas para o seu sofrimento existencial. No passado, deparar-se-ia com materiais e vídeos rudimentares. Hoje, é acolhido por um chatbot persuasivo, capaz de oferecer respostas empáticas e moldadas às suas angústias. Algo que reconhece padrões linguísticos que indicam vulnerabilidade emocional, adapta o discurso em tempo real e oferece um sentimento de pertença - sem qualquer intervenção humana direta. Tal cenário já não pertence ao reino da distopia; é uma realidade em expansão acelerada.
O laboratório radicalização jihadista na era da IA
Um dos exemplos mais significativos dessa transformação tecnológica encontra-se nas práticas da Província do Estado Islâmico do Khorasan (ISKP), uma fação regional do Daesh. Herdeira da expertise propagandística do grupo-matriz, o ISKP incorporou recursos de inteligência artificial às suas estratégias comunicacionais com surpreendente rapidez. Para este grupo, o poder da radicalização não reside mais na presença física de militantes, mas na capacidade de formar "soldados digitais" - autorradicalizados, ideologicamente convencidos e moldados por telas.
Entre as suas táticas está a utilização de IA para traduzir materiais extremistas em múltiplas línguas, alcançando comunidades islâmicas dispersas entre os vários continentes. Utilizam a IA para produzir vídeos de elevada qualidade, incorporando simbologia cuidadosamente escolhida e narrações geradas automaticamente. Alguns bots replicam vozes de líderes religiosos já falecidos, criando a ilusão de continuidade ideológica. Indo a casos concretos, para o leitor entender melhor, em 2023, membros do ISKP foram treinados formalmente no uso de IA. Em março de 2024, durante os ataques em Moscovo, um seguidor do grupo divulgou vídeos noticiosos criados por IA, reivindicando a autoria do atentado. E estes são apenas dois exemplos daquilo que têm estado a “criar”.
Realidades concretas, impactos diretos
Os efeitos dessa nova forma de radicalização já se fazem sentir de maneira concreta. Em 2023, um adolescente francês de 15 anos foi detido por planear um ataque inspirado no Daesh. Investigações revelaram que o jovem havia sido instruído por um chatbot extremista, que lhe forneceu vídeos, justificativas ideológicas e até orientações práticas para a execução do atentado. Na Alemanha, uma célula jihadista utilizava o Discord para recrutar jovens de origem turca e afegã. Os bots monitorizavam os utilizadores com sinais de vulnerabilidade emocional, iniciando, a partir daí, um processo de doutrinação digital contínua, inteiramente automatizado.
A extrema-direita e a esquerda insurrecional: o mesmo modus-operandi
Apesar da centralidade do jihadismo nas análises de extremismo digital, este não é um fenómeno exclusivo - pelo contrário. Movimentos de extrema-direita também têm explorado intensamente as potencialidades da IA para fins de radicalização.
Plataformas como 4chan e Telegram abrigam bots treinados com material neonazi, memes racistas e teorias conspiratórias. Estes bots alimentam conversas que reforçam discursos de ódio, fornecendo respostas automáticas e convincentes. Grupos como Atomwaffen Division e The Base utilizaram fóruns automatizados para disseminar manuais de guerrilha urbana, listas de alvos e instruções para a fabricação de explosivos - muitos desses conteúdos foram criados ou adaptados com o auxílio de IA para escapar à deteção por mecanismos automáticos de segurança.
Nos Estados Unidos, após os episódios de Charlottesville e do ataque ao Capitólio, identificaram-se contas automatizadas que disseminavam desinformação baseada em teorias como o "Great Replacement" e o "deep state". Alguns desses bots recorriam à técnica do “social mirroring”, adaptando a sua linguagem para criar vínculos afetivos e convencer os alvos de que faziam parte de uma cruzada existencial pela preservação da “civilização ocidental”.
Por outro lado, a extrema-esquerda violenta - sobretudo, movimentos ecoextremistas ou insurrecionistas anarquistas - também passou a utilizar ferramentas de IA para gerar manifestos automáticos, instruções de sabotagem e vídeos manipulados com deepfakes, retratando abusos policiais, com o intuito de instigar revoltas. Plataformas de código aberto, como GPT-J e LLaMA, têm sido exploradas para produzir conteúdo subversivo com aparência de legitimidade histórica.
O algoritmo da misoginia: a radicalização incel
A radicalização da comunidade incel não é nova, mas a introdução da inteligência artificial está a transformá-la numa ameaça mais sofisticada e menos visível. Plataformas como Reddit, Discord e 4chan já eram pontos de encontro para discursos de ódio misógino, mas hoje, a inteligência artificial multiplica e automatiza o conteúdo e, consequentemente, os seus efeitos. Em fóruns - como Incels.is ou subreddits banidos como r/Braincels -, estão a surgir bots treinados com linguagem incel, capazes de produzir novos manifestos, narrativas de vitimização sexual e até respostas personalizadas para reforçar sentimentos de frustração, rejeição e rancor. Ou seja, ajusta-se o discurso ao perfil emocional do utilizador e devolve-lhe uma versão mais extremada da sua própria visão do mundo.
Em 2022, um estudo da George Washington University revelou que contas automatizadas em servidores de Discord ligados a comunidades incel estavam a usar chatbots baseados em GPT-J para gerar mensagens com conselhos violentos, como “punir as mulheres que te ignoraram” ou “fazer justiça à força”. Noutras investigações, detetaram-se que jovens que pesquisavam por termos como "porque nenhuma rapariga gosta de mim" no YouTube eram rapidamente redirecionados - graças aos algoritmos de recomendação - para vídeos com temas de "red pill", “feminismo como ameaça” ou glorificação de autores de ataques incel, como o de Toronto em 2018.
Pior ainda. Há evidências de que algoritmos de IA estão a ser usados para criar deepfakes de mulheres em contextos de humilhação sexual. Isto não é apenas discurso de ódio; é uma fábrica digital de ressentimento armado, com tecnologia que valida a alienação emocional e oferece, em alguns casos, justificações "lógicas" para a violência.
Estamos perante uma nova geração de terroristas domésticos, solitários e convencidos de que estão a cumprir uma missão justa contra um inimigo que, na sua mente, tem rosto feminino.
O (urgente) desafio regulatório
No plano institucional, a resposta tem sido, em grande parte, insuficiente. A União Europeia deu passos relevantes ao aprovar o AI Act, em março de 2024, legislação pioneira na tentativa de regulamentar o uso da IA. O texto classifica os sistemas em categorias de risco e impõe exigências específicas para aplicações sensíveis, como vigilância biométrica e manipulação cognitiva. No entanto, a legislação ainda carece de dispositivos concretos para enfrentar o uso da IA na radicalização extremista.
Enquanto isso, países como os Estados Unidos e a China mantêm regimes de autorregulação, criando uma assimetria normativa que fragiliza os esforços de contenção em escala global. As plataformas digitais permanecem ancoradas na lógica de maximização do engagement, favorecendo conteúdos polarizadores que garantem lucro e visibilidade. Os grupos extremistas, por sua vez, operam com celeridade, aproveitando-se da letargia regulatória e do receio político de se enfrentar acusações de censura.
Combater esse paradigma exige mais que ajustes técnicos: requer uma verdadeira transformação cultural, que começa no poder político e estende-se aos que ainda não podem votar.
O código como novo rosto do fanatismo
A radicalização contemporânea já não depende de “alguém”. Hoje, ela ocorre por meio de linhas de código, interfaces amigáveis e algoritmos adaptativos. A IA, por si só, não representa uma ameaça - mas, quando colocada a serviço do fanatismo, torna-se um multiplicador de caos com alcance global.
Ignorar esse fenómeno é permitir que uma fábrica de propaganda opere ininterruptamente, no subterrâneo da rede, invisível e letal. As democracias enfrentam, assim, um dilema urgente: avançar na regulamentação e controlo com coragem e eficácia, ou continuar a responder tardiamente, enquanto uma nova geração é seduzida por máquinas que oferecem sentido, pertença e redenção... ao serviço do ódio.