388 views 3 mins

Perigo à vista: aplicativos de nudificação estão cada vez mais comuns

em Tecnologia
segunda-feira, 02 de junho de 2025

Relatório da Universidade Stanford alerta para o despreparo de escolas e autoridades diante do crescente uso de inteligência artificial generativa por alunos para criar imagens de colegas com conteúdo sexual.

Vivaldo José Breternitz (*)

Os dados do relatório, que é baseado em entrevistas com ONGs, plataformas digitais, autoridades, vítimas e educadores, mostram que esse tipo de conteúdo, mesmo criado sem consentimento, tem sido visto como normal em plataformas online e comunidades específicas.

Segundo o relatório, há uma percepção entre os jovens de que esse tipo de prática é legítimo ou até legal, reforçada pela facilidade de acesso a aplicativos que “nudificam” fotos — muitos deles disponíveis nas lojas da Apple e Google, com publicidade explícita em redes como TikTok e Instagram.

Um especialista ouvido para a elaboração do relatório, disse que há centenas desses apps, muitos sem qualquer barreira para impedir o uso para fins abusivos, e que estudantes compartilham dicas sobre como utilizá-los.

Casos citados no relatório mostram o impacto devastador nas vítimas, especialmente crianças e adolescentes. Uma aluna relatou que inicialmente achou que tudo era um boato, até descobrir que as imagens falsas realmente circulavam. A mãe de uma adolescente descreveu o choque ao ver a imagem: “Pensei que seria algo como Photoshop, mas era real.” Outra vítima comentou: “Ele pegou minha foto e a transformou em algo horrível. Você se sente sem controle.”

Muitas vítimas enfrentam dificuldades para continuar frequentando a escola; pais temem que essas imagens possam continuar circulando na internet e prejudicar o futuro acadêmico e profissional de suas filhas.

O relatório aponta a falta de preparo das escolas, mostrando que 62% dos professores dizem não ter recebido orientações para lidar com imagens íntimas criadas com IA. Apenas 44% receberam algum treinamento sobre “deepfakes” em geral. Praticamente nenhuma escola tem estratégias para lidar com casos de imagens íntimas — reais ou geradas por inteligência artificial — circulando entre alunos.

Entre as recomendações para enfrentamento do problema, estão o apoio psicológico às vítimas, comunicação transparente com a comunidade, punição aos responsáveis e uso de canais anônimos para denúncias.

O relatório de Stanford foi elaborado com dados coletados nos Estados Unidos, mas aqui no Brasil a situação deve ser muito semelhante, inclusive já tendo a imprensa relatado casos desse tipo.

(*) Doutor em Ciências pela Universidade de São Paulo, é professor e consultor – [email protected].