Golpe da voz clonada: esquema usa IA para roubar áudio e se passar por você
Uma mulher foi alvo de um golpe no qual criminosos roubaram sua foto do WhatsApp e se passavam por ela, inclusive com o envio de áudios fraudulentos pelo aplicativo, pedindo dinheiro para amigos e familiares. Como isso é possível?
O que aconteceu
Ligações mudas, antes usadas para checar se um número estava ativo, agora entram no radar de especialistas como porta de entrada para golpes. A tática se apoia em serviços de deepfake que escutam e copiam a voz de quem atende, segundo comunicado da Polícia Civil de São Paulo, publicado no ano passado.
A captura pode ser rápida e não exige longas conversas para funcionar. Com apenas alguns segundos de gravação de áudio, é possível gerar uma cópia convincente da voz de uma pessoa utilizá-la em golpes de engenharia social.
Com a voz clonada, criminosos ligam para outras pessoas e tentam enganar a rede de contatos da vítima. A abordagem costuma mirar amigos e familiares, com pedidos de transferências bancárias ou dinheiro, como se a solicitação fosse do dono da voz. Muitas vezes o contato de amigos e familiares é obtido pelas redes sociais, e detalhes, como número e parentesco, são acessados por meio de painéis de dados, sistemas ilegais com informações detalhadas vazadas.
Especialistas dizem que a popularização da IA tornou esse tipo de fraude mais acessível fora do ambiente de cibercrime especializado. Hiago Kin Levi, presidente do Instituto Brasileiro de Resposta a Incidentes Cibernéticos, afirma que criminosos com menos conhecimento técnico já conseguem simular vozes.
Como se proteger de golpe de clonagem de voz
Silenciar chamadas de números desconhecidos reduz a chance de cair em ligações usadas para capturar sua voz. A orientação é configurar o celular para receber apenas ligações de contatos conhecidos, recurso disponível em Android e iPhone.
Se você atender e a ligação estiver muda, não diga “alô” nem “sim” e espere o outro lado falar. A Polícia Civil de São Paulo orienta aguardar em silêncio e não passar nenhuma informação sensível em chamadas suspeitas.
Mesmo quando alguém fala do outro lado, vale manter cautela e desconfiar de pedidos urgentes de dinheiro. Hiago Kin Levi diz que as IAs estão mais evoluídas e podem usar uma voz humanizada – em alguns casos, até dizer o primeiro nome da pessoa.
Bloquear e denunciar números que fazem ligações mudas ajuda a interromper a tentativa de golpe. A Polícia Civil também recomenda avisar amigos e familiares sobre esse tipo de fraude e registrar boletim de ocorrência se houver crime envolvendo deepfake.
Evitar expor áudios e vídeos publicamente diminui o material disponível para treinar clonagem de voz. “É importante ter cuidado com o que compartilha publicamente, inclusive áudios e vídeos em redes sociais, pois podem ser usados para treinar modelos de clonagem de voz”, afirmou Anderson Leite.
Uol



Publicar comentário