Segurança Deepfakes sexuais em escolas: 16 vítimas no Brasil e mais de 600 pelo mundo Há 7 horas
No Brasil, Safer Net confirma casos confirmados em 10 estados.
Aplicativos que transformam fotos comuns em nudes falsos estão sendo usados por adolescentes para abusar sexualmente de colegas de escola em ao menos 28 países.
Desde 2023, mais de 600 alunos foram vítimas do crime em cerca de 90 instituições, segundo levantamento inédito das publicações WIRED e Indicator.
Uma foto baixada do Instagram ou do Snapchat é processada por um aplicativo de nudificação e a montagem explícita, com o rosto da vítima, circula em grupos de Whats App ou Telegram da escola.
Deepfakes sexuais são imagens ou vídeos de nudez criados com IA generativa sem o consentimento das pessoas retratadas.
A tecnologia pode gerar conteúdo inteiramente sintético ou manipular fotos reais para produzir montagens hiper-realistas com alteração de rostos e corpos.
A disseminação desse abuso em escolas está diretamente ligada à proliferação de aplicativos conhecidos como "nudify" ou "undress".
Dezenas de apps, bots e sites permitem criar imagens sexualizadas de terceiros com poucos cliques, sem nenhum conhecimento técnico.
Em quase todos os casos mapeados, os responsáveis pela criação das imagens eram meninos adolescentes.
Uma pesquisa da Unicef estima que 1, 2 milhão de crianças tiveram deepfakes sexuais criados sobre elas apenas no ano passado.
Na Espanha, uma em cada cinco crianças disse a pesquisadores do Save the Children que nudes falsos foram criados com sua imagem.