Um novo tipo de golpe vem sendo aplicado nos Estados Unidos e no Canadá e em breve certamente chegará ao Brasil.
Vivaldo José Breternitz (*)
Softwares de inteligência artificial podem fazer com que áudios gerados por bandidos soem como se fossem de uma outra pessoa – a partir daí, o golpe segue o esquema habitual: parentes e amigos recebem pedidos de dinheiro, sob a alegação que a pessoa teve problemas como acidentes, doenças ou outros similares.
Para chegar à voz da pessoa, é necessária uma pequena amostra de sua voz, normalmente proveniente de áudios disponibilizados na internet, como um vídeo postado no TikTok, por exemplo.
Isso já podia ser feito anteriormente, mas era necessário que estivessem disponíveis muitas horas de áudio para se obter uma boa falsificação – de cerca de um ano para cá, surgiram novas ferramentas de inteligência artificial que conseguem gerar as falsificações recorrendo a pequenos trechos de áudio –áudios de cerca de 30 segundos normalmente são suficientes para a prática do crime.
Empresas como a ElevenLabs, uma startup fundada em 2022, disponibilizam na internet softwares capazes de produzir essas falsificações. Esses softwares muitas vezes são gratuitos, mas, no caso da ElevenLabs, podem custara até US$ 330 ao mês, dependendo das funcionalidades e da quantidade de áudios que será gerada.
Comentando o assunto, o professor Hany Farid, da Univesidade da Califórnia – Berkley, disse: “é algo aterrorizante – é uma tempestade perfeita sendo gerada, com todos os ingredientes necessários à criação do caos”.
Os cuidados a serem tomados são os de praxe: ao receber um chamado desse tipo, devemos tentar contatar a pessoa que aparentemente está nos ligando por outros canais, fazer perguntas que só ela poderia responder etc., pois depois de enviado o dinheiro pedido, é praticamente impossível recuperá-lo.
(*) Doutor em Ciências pela Universidade de São Paulo, é professor, consultor e diretor do Fórum Brasileiro de Internet das Coisas.