Desde janeiro de 2025 que as instituições financeiras têm que estar totalmente preparadas para responder às exigências do ‘Digital Operational Resilience Act’ (DORA), emitido pela União Europeia com vista garantir um elevado nível de resiliência operacional digital, em termos de Tecnologias da Informação e Comunicação (TIC), nomeadamente em gestão de risco TIC, próprio e de terceiros, notificação de incidentes de vária ordem (TIC, operacional e (ciber)segurança), realização de testes de resiliência operacional digital, entre outras.

A ‘Artificial Inteligence’ (AI), em sentido lato, tem sido crescentemente utilizada por estas instituições financeiras. A maioria dos bancos europeus usa a AI na definição de perfis e segmentação de clientes e transações (para fins comerciais), no apoio e interação com o cliente, na prevenção de fraude e branqueamento de capitais, na otimização de processos internos e atribuição de avaliações de crédito (EBA, 2024).

Aparentemente, a AI é uma forte aliada no cumprimento DORA. Será?

Se, por um lado, a AI apresenta indiscutíveis vantagens e oportunidades de automatização e aceleração dos processos mencionados, por outro lado, gera novos desafios, como seja a falta de explicabilidade de modelos, de fiabilidade e transparência, riscos associados a TIC (inclusive nos modelos fornecidos por terceiros), dificuldades no governo de dados, necessidade de capacitar pessoas e acesso a talento qualificado, entre outros temas, como seja o da sustentabilidade, em especial, quanto ao consumo de água e energia associado ao uso dos sistemas de AI (EBA, 2024).

Além disso, infelizmente, não são só as instituições financeiras que têm potenciado as aplicações de AI, os cibercriminosos também.

De notar, que em 2024, o setor financeiro foi terceiro mais visado a nível europeu pelo cibercrime (ENISA; 2024). Registaram-se picos de Denial of Service (DoS) relacionados com acontecimentos geopolíticos, nomeadamente a invasão da Ucrânia pela Rússia. Os cibercriminosos visaram significativamente violações e fugas de dados com recurso a fraudes e ataques à cadeia de abastecimento, além de campanhas de engenharia social (tática prevalecente), para obtenção de ganhos financeiros (ENISA, 2024). Um dos principais objetivos da regulamentação DORA é justamente fortalecer a ciber resiliência das instituições do setor financeiro.

Com base em pesquisa realizada em 2024 a instituições financeiras nos EUA, concluiu-se que a crescente utilização de AI gera também novos riscos. Os principais usos da AI pelos cibercriminosos reportados foram engenharia social (uso de técnicas mais sofisticadas e LLM (Large Language Models) para phishing mais direcionado, comprometimento de e-mail comercial e outras), geração de malware/código (maior facilidade em gerar novos códigos de malware ou adaptar os existentes), descoberta de vulnerabilidades (uso de ferramentas de AI para identificação de vulnerabilidades na rede, nas medidas de segurança das aplicações), desinformação (aumento da eficiência de um ataque com campanhas de desinformação paralelas, com maior sofisticação, rapidez e difusão). Adicionalmente, foi identificado que os sistemas de AI são mais suscetíveis a ameaças de envenenamento de dados (corrupção dos dados de treino ou pesos do modelo para prejudicar o processo de treino ou alterar o resultado desejado de um modelo AI), fuga de dados (obtenção de dados confidenciais através da inversão do modelo e do questionamento sistemático deste durante a fase de inferência), evasão (corrupção do próprio modelo de AI), extração do próprio modelo de AI (roubo do modelo de AI, e construção de modelo alternativo por via de iteração), (Departamento do Tesouro dos EUA, 2024).

Destes, os principais riscos identificados foram envenenamento de dados, ataques adversários e fraude de identidade. O risco de manipulação e envenenamento dos dados de origem, treino e teste, é algo a que os modelos de AI estão cada vez mais sujeitos, de modo que a segurança, integridade e fiabilidade dos dados no ciclo de desenvolvimento de AI é tão importante como a proteção dos dados de produção. Os ataques adversários (que ludibriam e enganam os sistemas de AI, induzindo-os a escolhas incorretas) eficazes têm vindo a aumentar, nas diferentes fases do ciclo de vida dos sistemas de AI, desde conceção, implementação, formação, teste, avaliação e implementação, e sua dependência face aos dados aumenta desafios de segurança e privacidade de dados, próprios, dos seus fornecedores e das suas cadeias de fornecimento de software e dados. Não obstante, os ataques mais eficazes reportados resultam principalmente de engenharia social e falsificação de identidade (Departamento do Tesouro dos EUA, 2024).

A falsificação de identidades e produção de identidades sintéticas, não sendo um fenómeno novo, com recurso à AI, tem aumentado em quantidade e no nível de sofisticação, e são reportadas como as principais preocupações pelas instituições do setor financeiro sobre o uso malicioso da AI. Os cibercriminosos podem imitar voz, vídeo e outros fatores de identidade comportamental que as instituições financeiras utilizam para verificar a identidade de um cliente. Podem inclusive recorrer a identidades sintéticas (que representam pessoas falsas, p.e., criadas através de uma combinação de informações pessoais de várias pessoas reais). Estudos recentes nos EUA reportam que 87% das empresas inquiridas concederam crédito a clientes sintéticos, sendo que 20% estimam perdas por incidente entre 50.000 e 100.000 USD e 23% acima de 100.000 USD. A fraude de identidade sintética aumentou 17% nos dois anos anteriores a outubro de 2023 e 61% das empresas que reportaram casos de identidades sintéticas, ofereciam proactivamente crédito aos autores das fraudes as usavam, o que realça o desafio de discernir as pessoas reais (Wakefield, 2023). Nos EUA, em 2021, 42% dos casos reportados sobre a Lei do Sigilo Bancário, equivalentes a cerca de USD 212 biliões, referiam-se a casos de identidade (FinCEN, 2022).

São a AI e a DORA amigas? Ou inimigas?

Está para se ver. Por mim, gostaria de ter mais dados europeus sobre a matéria.

Será caso para dizer Ai, ai Dora?