Fraudes digitais devem disparar com uso de IA, alerta estudo
Por Redação
17/03/2026 às 08:05:20 | | views 50
Projeções indicam avanço de até 550% em ataques sofisticados, com deepfakes mais acessíveis e difíceis de detectar
O avanço acelerado da Inteligência Artificial deve impulsionar uma nova onda de fraudes digitais em 2026, com crescimento que pode chegar a 550% nos casos mais sofisticados. A estimativa foi apresentada pela Unico durante o SXSW 2026, realizado nos Estados Unidos.
Mesmo em um cenário mais conservador, a expectativa é de alta de 150% nas ocorrências. O aumento projetado ocorre sobre uma base já elevada: em 2025, as tentativas de fraude digital cresceram mais de 1.000% em relação ao ano anterior, afetando principalmente setores como serviços financeiros, comércio eletrônico e plataformas de apostas.
Especialistas apontam que a popularização de ferramentas baseadas em IA tem reduzido drasticamente o custo e a complexidade desses ataques. Recursos capazes de replicar rostos, vozes e padrões de comportamento — conhecidos como deepfake — estão mais acessíveis, permitindo que fraudes antes sofisticadas sejam executadas com baixo investimento e alto grau de precisão.
Durante o evento, Davi Reis, consultor técnico da Unico, afirmou que o cenário exige uma mudança de abordagem por parte das organizações. “A fraude não é mais um risco secundário; trata-se de um desafio central para empresas que operam no ambiente digital. As ferramentas de IA estão tornando os ataques mais rápidos e baratos”, disse.
Segundo ele, a evolução dos deepfakes torna insuficiente a simples análise visual de conteúdos. “À medida que esses materiais se tornam mais realistas, a proteção depende menos da aparência e mais da leitura de contexto e de múltiplos sinais de autenticidade”, afirmou.
Entre as respostas do mercado, ganham espaço tecnologias de verificação de identidade baseadas em biometria e análise comportamental, como os sistemas de “prova de vida” (liveness). Essas soluções combinam dados como características faciais, padrões de uso, informações do dispositivo e até sinais físicos para validar a autenticidade de um usuário em tempo real.
A tendência, segundo especialistas, é que esse tipo de tecnologia se torne cada vez mais comum, especialmente em ambientes regulados, como bancos e grandes plataformas digitais, diante do aumento da sofisticação e da escala das fraudes impulsionadas por IA.
Comentários desta notícia 0
Comentários - ver todos os comentários
Seja o primeiro a comentar!


