Um conjunto crescente de investigações aponta que criminosos estão utilizando ferramentas de inteligência artificial, como deepfakes e modelos generativos, para ampliar fraudes digitais em escala. No Brasil, por exemplo, foi descoberto um esquema que usou vídeos falsos da supermodelo Gisele Bündchen em anúncios no Instagram para aplicar golpes que somaram mais de R$ 20 milhões.
Segundo relatório da Europol, a IA permite que redes criminosas realizem ataques automatizados, clonar vozes, gerar vídeos de pessoas reais e enganar tanto indivíduos quanto empresas, elevando os níveis de sofisticação e escala das operações ilícitas. No caso brasileiro, as fraudes envolveram uso de anúncios falsos, pagamento de taxas para supostos prêmios que nunca eram entregues, e contas de vítimas comprometidas em menor valor individual para evitar alertas, estratégia conhecida como “munição estatística”.
LEIA TAMBÉM: Adriane Galisteu lança série documental com sua versão sobre Ayrton Senna na HBO Max
O avanço de IA generativa mudou a dinâmica das fraudes: tarefas que antes exigiam grande mão-de-obra agora podem ser realizadas com rapidez e automação, o que eleva a urgência por respostas tecnológicas e regulatórias. Apesar dos esforços, apenas uma pequena fração dos valores envolvidos é recuperada ou bloqueada a tempo.
Para empresas e usuários finais, a recomendação é aumentar o grau de verificação de fontes, desconfiar de ofertas suspeitas, utilizar autenticação em dois fatores e fazer uso de softwares que detectem deepfakes ou manipulação de mídias. O cenário exige fortalecimento da cooperação entre autoridades, setor privado e tecnologia para mitigar os riscos emergentes.









