Golpes com voz clonada e vídeos falsos crescem com uso de inteligência artificial

Criminosos estão usando inteligência artificial para aplicar golpes com vozes clonadas e vídeos falsos, aumentando os riscos de fraudes por telefone e internet

Com o avanço acelerado da tecnologia, a inteligência artificial (IA) tem promovido inovações em diversas áreas, como saúde, educação e comunicação. Contudo, essa mesma tecnologia também tem sido explorada de maneira indevida por criminosos, resultando em golpes mais complexos e difíceis de identificar.

A combinação entre ferramentas de IA generativa e práticas tradicionais de engenharia social tem ampliado o número e a sofisticação das fraudes, principalmente em meios digitais e por telefone.

Uma das práticas que mais se expandiu nos últimos meses é a clonagem de voz. A partir de poucos segundos de áudio, muitas vezes obtidos por meio de redes sociais ou aplicativos de mensagens, é possível recriar digitalmente a voz de uma pessoa com alto grau de fidelidade.

Essa tecnologia tem sido usada para simular ligações telefônicas com pedidos urgentes de ajuda, frequentemente em nome de filhos ou parentes próximos, o que aumenta a vulnerabilidade emocional da vítima e favorece a ação dos golpistas.

Outro recurso tecnológico em ascensão é o deepfake, técnica que utiliza IA para criar vídeos manipulados, nos quais rostos e expressões são alterados com aparência realista. Em casos registrados fora do Brasil, como em países asiáticos, criminosos utilizaram deepfakes para se passar por colegas de trabalho em videochamadas, conseguindo realizar transferências financeiras significativas.

No Brasil, embora ainda pouco frequentes, já há relatos de tentativas semelhantes, principalmente em fraudes corporativas e golpes de investimento.

Apesar da sofisticação das tecnologias, os golpes por telefone continuam sendo os mais comuns. A facilidade de contato e o impacto emocional provocado por uma ligação inesperada tornam essa estratégia especialmente eficaz.

LER >>>  O que é navegação VPN e como ela pode proteger sua privacidade online

Combinando esse meio com IA, os golpistas criam situações de urgência e induzem a vítima a fornecer dados sensíveis, como senhas, códigos de verificação e informações bancárias.

Para evitar esse tipo de fraude, algumas medidas de prevenção são recomendadas:

  • Desconfie de ligações com pedidos urgentes, mesmo que a voz pareça familiar. O ideal é encerrar a ligação e retornar o contato utilizando um número conhecido e confiável.
  • Nunca forneça dados pessoais, bancários ou códigos de autenticação por telefone.
  • Ative a verificação em duas etapas em serviços digitais, redes sociais e contas bancárias.
  • Reduza a exposição da própria voz em conteúdos públicos na internet e ajuste as configurações de privacidade de suas redes.
  • Oriente familiares, especialmente os mais idosos, sobre esse tipo de golpe, já que costumam ser alvos recorrentes.

Se a pessoa for vítima de uma dessas fraudes, é importante agir com rapidez:

  • Entre em contato imediato com a instituição bancária e solicite o bloqueio de contas e cartões.
  • Registre um boletim de ocorrência, que pode ser feito em uma delegacia presencial ou por meio da Delegacia Virtual do estado.
  • Avise amigos e familiares para evitar que outras pessoas também sejam afetadas.
  • Caso necessário, procure orientação jurídica e apoio psicológico.
Criminosos estão usando inteligência artificial para aplicar golpes com vozes clonadas e vídeos falsos, aumentando os riscos de fraudes por telefone e internet

Leia também: