Quinta, 09 de Outubro de 2025 13:25
75 9 9702 9169
Brasil Golpes com IA

Alerta: sua voz pode estar sendo usada por bandidos para aplicar golpe

Especialista discorda sobre clonagem rápida, mas alerta que IA pode facilitar crime.

09/10/2025 07h19
Por: Karoliny Dias Fonte: A Tarde
População e autoridades ficam em alerta diante de novo golpe com clonagem de voz por IA - Foto: Reprodução Freepik
População e autoridades ficam em alerta diante de novo golpe com clonagem de voz por IA - Foto: Reprodução Freepik

Uma nova modalidade de golpe envolvendo suposta clonagem de voz por inteligência artificial tem assustado a população e mobilizado as autoridades de segurança pública brasileiras. Segundo informações preliminares, criminosos estariam captando trechos da fala das vítimas durante ligações telefônicas e usando ferramentas de IA para simular suas vozes em fraudes contra familiares e amigos.

Os golpes, que já estariam ocorrendo em São Paulo e no Rio de Janeiro, aparentemente são simples. No estado paulista, segundo informações da Polícia Civil, os criminosos usam chamadas 'mudas' - em que o telefone toca, mas ninguém fala - para gravar alguns segundos da voz da vítima no momento em que ela atende. As investigações indicam que poucas palavras são suficientes para simular a fala.

Nos dois casos, com a obtenção do material/voz, eles estariam utilizando ferramentas de inteligência artificial para montar áudios falsos que imitam com alta fidelidade a pessoa gravada para aplicar outros golpes.

Golpes em Salvador

Em Salvador, na Delegacia de Repressão a Crimes Cibernéticos (DRCC), até o momento, não há registros formais desse tipo de golpe envolvendo clonagem de voz com uso de inteligência artificial. A informação foi confirmada pelo delegado Bruno Oliveira, titular da unidade policial.

“Aqui na minha unidade não houve, ainda, registro nesse sentido”, afirmou Oliveira, ao revelar ter feito registrado de um caso de deepfake de imagem - tipo de fraude com uso de imagem de vítimas.

Diante da disseminação do crime em outras cidades do país, o delegado afirma que permanece em estado de alerta e destaca a importância da prevenção como principal forma de proteção. Ele aproveitou a oportunidade para repassar orientações à população, com medidas práticas que podem ajudar a evitar ser vítima desse tipo de golpe.

Cuidados para evitar cair nesses golpes

  • Desconfie de urgência excessiva: golpistas sempre apelam para medo e pressa. Se alguém ligar pedindo dinheiro “imediato”, respire fundo e confirme a identidade antes de agir.
  • Valide a identidade da pessoa: Crie palavras-código em família (ex.: uma senha ou pergunta combinada); Confirme com outra forma de contato (ligue de volta no número oficial ou mande mensagem em outro canal).
  • Evite expor sua voz em chamadas de números desconhecidos: não exponha sua voz em ligações de números desconhecidos, pois o criminoso pode utilizar mecanismos para captar e clonar sua voz.
  • Não exponha áudios desnecessários em público: Evite deixar mensagens de voz abertas em redes sociais ou aplicativos que qualquer pessoa possa baixar.
  • Proteja suas informações pessoais; Quanto menos dados sobre você e sua família circularem na internet, mais difícil fica personalizar o golpe.
  • Oriente familiares e idosos: São os mais visados. Explique o risco e combine procedimentos de checagem.
  • Bloqueie e denuncie: Caso receba uma ligação suspeita, não forneça dados, desligue e registre ocorrência policial.

Especialistas divergem sobre clonagem rápida

Enquanto alguns especialistas em cibersegurança afirmam que bastam poucos segundos de gravação para gerar uma imitação convincente da voz, outros pedem cautela.

É o caso de Luis Gaban, especialista em tecnologia. Ele foi categórico ao afirmar que ainda não é possível clonar vozes com qualidade apenas com um 'alô' gravado durante uma ligação.

"Sobre essas informações que estão circulando a respeito de gravação de voz apenas com a pessoa dizendo alô, alô, tem alguém aí? Alô?, nos dias atuais, eu vejo que é impossível qualquer inteligência artificial conseguir fazer isso. Não consegue. Agora, existem algumas inteligências artificiais que podem sim e fazem isso muito bem de copiar a voz de uma pessoa", explicou Gaban.

No entanto, ele segue dizendo que é necessário um volume muito maior de gravações com diferentes entonações, sotaques e situações para que a IA consiga simular a voz humana com naturalidade.

"Então, não é assim um simples alô, oi, que vai no telefone, conseguir fazer essa gravação. Isso aí não. Mas, com a quantidade, às vezes, ao depender do sotaque da pessoa, a forma como a pessoa fala, você pode demorar, sei lá, duas horas, três horas de gravações, de diversos tipos de gravações, a pessoa cantando, a pessoa falando, a pessoa discursando, a pessoa lendo um texto, ou seja, você pegar todas as formas da pessoa verbalizar as palavras, soltar as palavras. E a com esse aprendizado que a IA vai conseguir construir ali a sua voz de forma artificial", acrescentou.

Questionado se, diante da repercussão do caso, a população pode ficar tranquila, Gaban afirmou: "por enquanto, eu digo que sim. Foi o que eu disse ao meu pai. Fique tranquilo! Por enquanto, fique tranquilo".

Mas, mesmo assim, ele reconhece que o avanço das ferramentas de inteligência artificial pode tornar esse tipo de golpe mais acessível no futuro.

"Agora, daqui pra frente, eu não sei quanto tempo, porque tudo está acontecendo de forma exponencial e muito rápido, com a velocidade que vai será possível criar uma IA que consiga copiar a voz com uma celeridade muito maior e com a quantidade de voz utilizada muito pouca de 10 segundos, 20 segundos. Mas, que vai ser necessário muito mais do que duas ou três palavras, com certeza isso sim", finalizou o especialista.

Nenhum comentário
500 caracteres restantes.
Comentar
Mostrar mais comentários
* O conteúdo de cada comentário é de responsabilidade de quem realizá-lo. Nos reservamos ao direito de reprovar ou eliminar comentários em desacordo com o propósito do site ou que contenham palavras ofensivas.