De maneira bastante simplificada podemos definir deepfake como uma técnica de desinformação que usa inteligência artificial para criar vídeos falsos, que mostram fatos que não aconteceram.
Vivaldo José Breternitz (*)
A rede de TV britânica Channel 4 analisou cinco dos sites de deepfakes mais visitados e encontrou neles mais de 4 mil vídeos falsos de pessoas famosas, dentre elas atrizes, cantoras e jornalistas cujos rostos foram sobrepostos a material pornográfico usando inteligência artificial.
A pesquisa descobriu que esses cinco sites receberam 100 milhões de visualizações em três meses, inclusive de vídeos de uma apresentadora do próprio Channel 4, Cathy Newman.
E a criação desses vídeos segue aumentando: em 2016 apenas um vídeo de pornografia deepfake foi encontrado on line; nos três primeiros trimestres de 2023, foram carregados quase 145 mil novos vídeos desse tipo nos 40 sites mais conhecidos do ramo – mais do que em todos os anos anteriores somados.
Embora não se trate de deepfake, já é relativamente frequente, entre pessoas comuns, a prática de “pornografia de vingança”, ou “revenge porn”, a divulgação não consentida de fotos ou vídeos de natureza sexual, feita por parceiros com os quais as vítimas tenham rompido.
Como sempre acontece quando surgem novos tipos de crime envolvendo celebridades, eles logo começam a ser praticados contra pessoas comuns, não devendo nos surpreender se ataques usando deepfake atingirem pessoas de nossas relações ou nossos familiares, com o objetivo de simplesmente atacar a honra dessas pessoas ou as extorquir.
Os governos, empresas e a sociedade como um todo devem combater seriamente esse tipo de crime, pelo impacto que o mesmo traz às suas vítimas e famílias, lembrando que o uso de deepfake pode ir além da pornografia e envolver campanhas políticas, atividades empresariais e outras.
(*) Doutor em Ciências pela Universidade de São Paulo, é professor da FATEC SP, consultor e diretor do Fórum Brasileiro de Internet das Coisas – [email protected].