146 views 5 mins

Quando as deepfakes se tornam armas

em Destaques
sexta-feira, 30 de julho de 2021

Mauro Vicente (*)

Os seres humanos são fortemente influenciados por sua percepção visual. Rapidamente reconhecemos o que vemos com os nossos próprios olhos, como sendo algo verdadeiro. Mas o que acontece quando não podemos mais confiar nos nossos sentidos? Nos últimos anos, o número das chamadas deepfakes tem aumentado consideravelmente, assim como a sua qualidade.

. O que são deepfakes? – O que começou como um software de edição de fotos simples e inocente cresceu e se tornou uma indústria, que busca distorcer o ecossistema de informações de vídeos digitais. A partir do uso de programas profissionais para edição de imagem, som e vídeo, bem como o uso de ferramentas compatíveis com Inteligência Artificial (IA), grandes avanços estão ocorrendo no desenvolvimento de gravações de áudios, imagens e vídeos falsificados (deepfakes) nos últimos anos.

O especialista em análise de imagens digitais, o Professor Hany Farid, da UC Berkeley, distingue as deepfakes em quatro tipos gerais:

• A pornografia não intencional é o exemplo mais comum. O rosto de qualquer mulher ou homem é inserido em um vídeo pornô e distribuído na internet.

• As campanhas de desinformação têm como objetivo divulgar informações falsas e enganar deliberadamente o público. Freqüentemente, abordam temas polêmicos com o objetivo de alimentar as discussões que estão surgindo.

• A falsificação de evidências legais tem o objetivo de documentar eventos, como má conduta policial, que nunca realmente ocorreram.

• A fraude clássica usando novas mídias também pode ter consequências criminais ou de segurança. Um exemplo disso é uma deepfake de áudio de 2019, solicitando uma transferência para uma empresa de energia do Reino Unido. O áudio personificava o CEO da empresa.

  • Mas como você pode reconhecer essas falsificações? Uma possibilidade é analisar as peculiaridades e expressões faciais com muito cuidado e identificar as peculiaridades de cada pessoa. Farid chama isso de “biometria suave”, porque não é uma ciência exata, como o DNA ou as impressões digitais, que podem identificar alguém com muita segurança.

A previsibilidade aumenta com as celebridades frequentemente filmadas, para as quais há uma grande quantidade de material de vídeo e que pode ser usada para comparar com “ticks” visuais. Por exemplo, se você tentar dizer as palavras “mãe”, “irmão” e “pais” sem fechar a boca, descobrirá rapidamente que só os ventríloquos conseguem. Quando Alec Baldwin faz suas imitações do Trump, ele não entende essas peculiaridades faciais, sugerindo uma farsa.

  • As plataformas de mídia social devem ser proativas – Temos alguns desafios. Primeiro, a tecnologia está evoluindo rapidamente e ficando melhor na criação de deepfakes atraentes. A velocidade de transmissão nas redes sociais também está aumentando. O que costumava levar dias ou semanas, hoje é realizado em horas ou até minutos. O público está polarizado agora. Isso significa que as pessoas estão dispostas a acreditar no pior daqueles que discordam ou que não gostam particularmente delas.

Há também um aumento no que o professor Farid chama de “dividendo mentiroso”, o que quer dizer que a mera afirmação de que algo é falso, geralmente é suficiente para neutralizá-lo mesmo que não seja verdadeiro. Pessoas que já foram criticadas por uma certa conduta imprópria podem, cada vez mais, alegar que os arquivos incriminatórios são falsificados. Como resultado, a credibilidade das instâncias autênticas também é questionada.

Não há solução fácil para acabar com o apocalipse da desinformação. Em vez disso, as plataformas sociais precisam assumir a responsabilidade e colocar uma marcação melhor com foco mais forte na regulação do alcance e na apresentação de pontos de vista alternativos, ao invés de simplesmente remover um conteúdo ofensivo ou falso.

(*) – Executivo com um histórico sustentado por posições de liderança em organizações de vendas, é Gerente Regional de Vendas para Latam da Avast Business.