Da Redação.

Ferramentas de IA que simulam vozes e vídeos impulsionam golpes mais eficientes e difíceis de rastrear no país. Especialista alerta para a defasagem da legislação brasileira e o risco de impunidade

O avanço da inteligência artificial está redefinindo as fronteiras do crime econômico no Brasil. Ferramentas capazes de simular vozes, criar vídeos falsos (deepfakes) e replicar identidades digitais com um grau assustador de realismo estão sendo usadas para aplicar golpes cada vez mais sofisticados, ampliando o número de vítimas e o impacto financeiro dessas práticas.

A mudança é estrutural: fraudes que antes dependiam de interações limitadas agora são executadas em escala industrial, com personalização que aumenta drasticamente a chance de sucesso e dificulta o rastreamento dos criminosos.

O crime é o mesmo, a arma é outra

Caio Ferrari (foto: divulgação)

Para Caio Ferraris, especialista em Direito Penal Econômico, a tecnologia não cria um novo tipo de crime, mas potencializa os já existentes a um nível sem precedentes. “Um estelionato praticado com auxílio de IA continua sendo estelionato. A IA é um instrumento, sofisticado, mas ainda assim um meio de execução“, explica.

O que muda, segundo ele, é a dinâmica. A escala exponencial e a personalização dos ataques tornam a investigação e a produção de provas muito mais complexas, exigindo que autoridades e operadores do direito se adaptem para lidar com evidências digitais voláteis e com a velocidade em que os crimes se consumam.

Legislação defasada e o risco da impunidade

Enquanto a tecnologia avança, o arcabouço jurídico brasileiro não acompanha. O Projeto de Lei 2338/2023, que busca regular o uso da IA no Brasil, ainda tramita no Congresso, deixando um vácuo que favorece os criminosos.

Na prática, os operadores do direito precisam fazer uma interpretação analógica, o que gera insegurança jurídica, dificulta a persecução penal e abre espaço para impunidade“, aponta Ferraris. Ele destaca que a Europa, com a aprovação do AI Act, já deu um passo concreto, e que o Brasil precisa avançar com urgência na mesma direção, definindo responsabilidades civis e penais pelo uso fraudulento de sistemas de IA.

Uma corrida armamentista digital

O impacto não se limita às vítimas individuais. O sistema financeiro opera sob risco ampliado. Embora grandes bancos invistam pesadamente em sistemas antifraude, o especialista alerta para uma “corrida armamentista” em que o crime, muitas vezes, leva vantagem por ser mais ágil que a regulação.

A vulnerabilidade, segundo Ferraris, não está apenas nas grandes instituições, mas em toda a cadeia. “Fintechs menores, escritórios de advocacia e contabilidade que intermediam operações são alvos. O risco real hoje não é só o ataque direto ao sistema, mas o ataque às pessoas e empresas que operam dentro dele, usando IA para enganar humanos antes que qualquer sistema automatizado entre em cena“, conclui.

Compartilhar:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *