Da Redação.
Ferramentas de IA que simulam vozes e vídeos impulsionam golpes mais eficientes e difíceis de rastrear no país. Especialista alerta para a defasagem da legislação brasileira e o risco de impunidade
O avanço da inteligência artificial está redefinindo as fronteiras do crime econômico no Brasil. Ferramentas capazes de simular vozes, criar vídeos falsos (deepfakes) e replicar identidades digitais com um grau assustador de realismo estão sendo usadas para aplicar golpes cada vez mais sofisticados, ampliando o número de vítimas e o impacto financeiro dessas práticas.
A mudança é estrutural: fraudes que antes dependiam de interações limitadas agora são executadas em escala industrial, com personalização que aumenta drasticamente a chance de sucesso e dificulta o rastreamento dos criminosos.
O crime é o mesmo, a arma é outra

Para Caio Ferraris, especialista em Direito Penal Econômico, a tecnologia não cria um novo tipo de crime, mas potencializa os já existentes a um nível sem precedentes. “Um estelionato praticado com auxílio de IA continua sendo estelionato. A IA é um instrumento, sofisticado, mas ainda assim um meio de execução“, explica.
O que muda, segundo ele, é a dinâmica. A escala exponencial e a personalização dos ataques tornam a investigação e a produção de provas muito mais complexas, exigindo que autoridades e operadores do direito se adaptem para lidar com evidências digitais voláteis e com a velocidade em que os crimes se consumam.
Legislação defasada e o risco da impunidade
Enquanto a tecnologia avança, o arcabouço jurídico brasileiro não acompanha. O Projeto de Lei 2338/2023, que busca regular o uso da IA no Brasil, ainda tramita no Congresso, deixando um vácuo que favorece os criminosos.
“Na prática, os operadores do direito precisam fazer uma interpretação analógica, o que gera insegurança jurídica, dificulta a persecução penal e abre espaço para impunidade“, aponta Ferraris. Ele destaca que a Europa, com a aprovação do AI Act, já deu um passo concreto, e que o Brasil precisa avançar com urgência na mesma direção, definindo responsabilidades civis e penais pelo uso fraudulento de sistemas de IA.
Uma corrida armamentista digital
O impacto não se limita às vítimas individuais. O sistema financeiro opera sob risco ampliado. Embora grandes bancos invistam pesadamente em sistemas antifraude, o especialista alerta para uma “corrida armamentista” em que o crime, muitas vezes, leva vantagem por ser mais ágil que a regulação.
A vulnerabilidade, segundo Ferraris, não está apenas nas grandes instituições, mas em toda a cadeia. “Fintechs menores, escritórios de advocacia e contabilidade que intermediam operações são alvos. O risco real hoje não é só o ataque direto ao sistema, mas o ataque às pessoas e empresas que operam dentro dele, usando IA para enganar humanos antes que qualquer sistema automatizado entre em cena“, conclui.

