Apps de IA que criam nudes falsos viram ferramenta de abuso em escolas pelo mundo

Aplicativos que usam inteligência artificial para gerar nudes falsos a partir de fotos comuns estão sendo usados por adolescentes para praticar abuso sexual contra colegas em diversos países. Um levantamento das publicações WIRED e Indicator aponta que, desde 2023, mais de 600 estudantes foram vítimas em cerca de 90 instituições espalhadas por pelo menos 28 países.

Como o golpe acontece

O padrão é simples e rápido. Uma imagem retirada de redes sociais como Instagram ou Snapchat é inserida em aplicativos de “nudificação”. Em poucos minutos, o conteúdo manipulado — com nudez falsa e rosto real da vítima — é compartilhado em grupos escolares no WhatsApp ou Telegram.

Tecnologia facilitou o abuso

Esse tipo de conteúdo é conhecido como deepfake sexual: imagens ou vídeos gerados por IA sem consentimento. Antes mais complexa, essa prática se tornou acessível com a popularização de apps que automatizam o processo em poucos cliques.

Na maioria dos casos analisados, os responsáveis eram meninos adolescentes. Dados da UNICEF indicam que cerca de 1,2 milhão de crianças foram vítimas desse tipo de conteúdo apenas no último ano. Já a Save the Children aponta que, na Espanha, uma em cada cinco crianças relatou ter sido alvo de nudes falsos.

As motivações variam entre curiosidade, vingança e até desafios entre colegas.

Impacto psicológico nas vítimas

Os relatos mostram efeitos profundos. Muitas vítimas passam a ter medo constante da exposição, evitam a escola e enfrentam ansiedade e isolamento.

Especialistas alertam que a forma como adultos — pais, escolas e autoridades — reagem é decisiva para a recuperação das vítimas e para encorajar denúncias.

Resposta ainda inconsistente

A reação de escolas e autoridades varia bastante. Em alguns casos, houve demora na tomada de medidas. Em outros, estudantes foram responsabilizados judicialmente.

Algumas instituições começaram a adotar medidas preventivas, como evitar publicar fotos de alunos. Em paralelo, países discutem leis para restringir ou banir aplicativos desse tipo e obrigar plataformas a remover conteúdo íntimo não consensual rapidamente.

Situação no Brasil

O problema também já foi registrado no país. A SaferNet Brasil identificou casos em pelo menos 10 estados, com dezenas de vítimas e agressores — todos menores de idade.

Os episódios seguem um padrão semelhante: uso de fotos reais retiradas de redes sociais, criação de imagens falsas com IA e rápida disseminação em grupos escolares. Em alguns casos, o conteúdo chegou a ser comercializado dentro das próprias escolas.

Apesar dos registros, ainda não há um monitoramento nacional estruturado, o que dificulta medir a real dimensão do problema.

Um desafio crescente

O avanço dessas ferramentas mostra como a combinação de IA acessível e redes sociais pode amplificar formas de violência digital. O tema já mobiliza organizações, governos e especialistas, que buscam formas de conter o uso abusivo da tecnologia e proteger crianças e adolescentes.