A revolução da inteligência artificial tem entregado ganhos de produtividade, promessas ainda mais ambiciosas, mas também envolve um lado de riscos cada vez mais presentes: agentes e ferramentas de IA já são usados em quase a metade dos ataques ou das tentativas de fraudes contra bancos e outras instituições no Brasil.

Cada vez mais, bots, biometrias falsas e mensagens com malwares são usados para tentar “hackear” sistemas e enganar usuários.

Novos dados da Polícia Federal divulgados na quinta-feira (29) revelaram que, em 2025, 42,5% das fraudes financeiras no Brasil já contaram com ferramentas de IA. O uso de vídeos e áudios falsos gerados por IA, conhecidos como “deepfakes“, cresceu 830% entre 2024 e 2025, colocando o país na liderança desse tipo de crime na América Latina. E as cifras já alcançam o patamar de bilhões.

Em menos de um ano, entre julho de 2025 e abril deste ano, apenas os golpes contra bancos e provedores de infraestrutura para o sistema financeiro já alcançaram mais de R$ 1,8 bilhão.

No ano passado como um todo, os ataques cibernéticos provocaram perdas de R$ 126 bilhões, quando consideradas todas as companhias vítimas de crimes digitais, segundo dados da Fortinet FortiGuard Labs.

Outro levantamento, da empresa de cibersegurança BioCatch, calcula que as fraudes bancárias cresceram 220% no primeiro semestre de 2025 em comparação com o semestre anterior; e que o setor financeiro concentra 54,3% das tentativas de golpes bloqueadas, com bancos e emissores de cartão na linha de frente.

Só os golpes envolvendo Pix somaram cerca de 28 milhões de casos em 2025 e R$ 2,7 bilhões em prejuízos acumulados em dois anos.

Golpes produzidos em massa

O tipo de golpe contra pessoas físicas também mudou de patamar. A Polícia Federal relata que deepfakes de voz e vídeo entraram de vez no arsenal das quadrilhas.

Criminosos capturam a voz de familiares em redes sociais, treinam um modelo de IA e ligam para a vítima pedindo uma transferência urgente via Pix, com roteiro de acidente, sequestro relâmpago ou ameaça policial.

O mais preocupante é que o uso da IA permite que os roteiros sejam milimetricamente calculados para acionar o lado emocional antes que qualquer desconfiança apareça.

Outras formas de tentar enganar investidores e clientes bancários são os vídeos falsos com figuras públicas, influenciadores ou supostos especialistas em finanças. As gravações geradas por IA são usadas para impulsionar investimentos fraudulentos, plataformas de apostas ou esquemas de “ganhos rápidos”.

As estruturas também ficaram mais profissionais.

Entre os golpes mais citados hoje estão a “conta segura” e a “falsa central”. No primeiro caso, alguém se passa por autoridade policial, muitas vezes com voz manipulada por IA, e convence o correntista de que há uma quadrilha dentro da própria agência em que ele mantém relacionamento; a solução seria transferir tudo para uma suposta conta protegida, que está sob controle dos fraudadores.

No golpe da “falsa central”, o criminoso assume o papel de atendente do banco, por telefone ou aplicativo de mensagem, e usa IA para simular sotaque, entonação e postura de suporte oficial do banco. A partir daí, o caminho é pedir instalação de aplicativos de acesso remoto, coleta de senhas e autorizações de transações, quase sempre envolvendo Pix.

Dados se tornam ferramentas

A engenharia social por trás desses golpes se tornou algo bem mais sofisticado com a chegada dos grandes modelos de linguagem (LLMs). Em vez de mensagens mal escritas, com erros de ortografia e gírias suspeitas, o que chega ao cliente são textos praticamente perfeitos, com vocabulário bem encaixado e argumentos persuasivos adaptados ao perfil da vítima.

Esses modelos ajudam na produção em massa de e-mails, SMS, páginas falsas e até scripts de atendimento por voz. Some a isso a capacidade da IA de cruzar dados públicos – gênero, faixa etária, hábitos de consumo – e é possível entender por que empresas de segurança já identificam mais de 300 tipos de golpes diferentes circulando no mercado, muitos com recortes específicos para cada grupo de vítima.

Outro capítulo importante é o uso de IA na criação de identidades sintéticas.

Softwares avançados geram documentos falsos – de carteiras de motorista a comprovantes de residência – e permitem abrir contas laranja e tomar empréstimos em nome de terceiros com um nível de realismo que escapa a verificações tradicionais.

Ao combinar isso com malware bancário e campanhas de phishing dirigidas, quadrilhas conseguem não só acessar contas existentes mas também construir do zero estruturas de lavagem de dinheiro, muitas vezes espalhadas por múltiplas instituições financeiras.

Bancos usam IAs para combater fraudes digitais

Diante dessa escalada, reguladores têm apertado o passo no Brasil. Em dezembro de 2025, o Banco Central publicou as resoluções CMN 5.274 e BCB 538, que colocam a Inteligência de Ameaças Cibernéticas no centro das obrigações das instituições financeiras.

Desde 1º de março de 2026, bancos, fintechs, cooperativas e demais instituições autorizadas passaram a ser obrigados a estruturar formalmente essa inteligência, reforçar a governança de segurança digital e aprimorar a gestão de riscos em sistemas de pagamento como o Pix.

As normas exigem, entre outros pontos, o monitoramento contínuo da Dark Web e de fóruns clandestinos e grupos privados, a detecção ativa de vazamentos de dados e de planejamentos de ataques, além da produção de relatórios anuais ao BC com evidências documentais de que cada alerta foi avaliado, priorizado e tratado – nada de apenas listar incidentes sem mostrar o que foi feito com essa informação.

Grandes instituições brasileiras vêm investindo pesado em IA para reforçar seus próprios escudos.

Segundo dados da Febraban, os bancos destinam hoje cerca de 10% de todo o orçamento de TI a ferramentas de segurança cibernética, em um pacote que inclui algoritmos sofisticados de detecção de fraude, biometria comportamental e análise preditiva de risco em tempo real.

O Itaú, por exemplo, reportou uma redução de quase 50% em todas as tentativas de fraude contra o banco após incorporar modelos de IA mais avançados em seus sistemas, um efeito que, na prática, desestimula os próprios golpistas ao perceberem a dificuldade de “furar” as camadas de checagem.

Essas soluções vão muito além de reconhecer um rosto na câmera. A biometria comportamental, usada por várias instituições, monitora detalhes como o jeito de segurar o celular, a inclinação do aparelho, os locais que o cliente costuma frequentar e até o padrão de toques na tela, para montar uma espécie de “assinatura digital” única de cada usuário.

Quando uma transação destoa desse conjunto de sinais, os sistemas levantam a bandeira amarela e podem interromper a operação, pedir uma confirmação adicional ou emitir alertas ao cliente – tudo isso, em tese, sem travar a jornada de quem está agindo de boa-fé.

Instituições globais revelam temores

As preocupações não se restringem ao Brasil.

O aumento do poder de processamento dos grandes modelos de IA têm preocupado autoridades nos EUA, como o secretário do Tesouro americano, Scott Bessent, e o presidente do Federal Reserve (Fed, o banco central dos Estados Unidos), Jerome Powell.

Ambos se reuniram com as instituições financeiras no fim de abril para discutir medidas de prevenção a ataques movidos pela IA, depois do lançamento de um novo modelo de IA pela Anthropic.

“O que vimos no último mês foi uma mudança significativa no poder de um grande modelo de linguagem, mas vamos ver isso também em outras empresas de IA”, disse Bessent em entrevista a FoxNews neste domingo (3) .

Na lista de tentativas de crimes e fraudes contra instituições financeiras há uma combinação de malware, ataques a certificados digitais, invasões a ambientes fiscais e financeiros e fraudes altamente personalizadas, muitas delas turbinadas por IA generativa e agentes autônomos.