Em 2022, escolas do mundo inteiro foram pegas de surpresa com a súbita popularidade de chatbots alimentados por inteligência artificial (IA), como o ChatGPT, da empresa OpenAI. Se em um primeiro momento as maiores preocupações dos educadores giravam em torno de possíveis colas e plágios feitos pelos alunos, agora um fenômeno ainda mais alarmante — e que já foi visto no Brasil — tem abalado comunidades escolares nos Estados Unidos: a geração de nudes falsos por IA.
Meninos em vários estados americanos tem usado aplicativos de IA amplamente disponíveis para criar nudes de suas colegas de classe a partir de fotos reais das jovens. Em alguns casos, eles compartilharam as imagens falsificadas no refeitório da escola, no ônibus escolar ou em grupos de conversas em plataformas como Snapchat e Instagram.
Tais imagens digitalmente alteradas — conhecidas como "deepfakes" ou "deepnudes" — podem ter consequências devastadoras. Especialistas em exploração sexual infantil dizem que o uso de imagens geradas por IA não consensuais para assediar, humilhar e intimidar meninas pode ter grandes impactos na saúde mental, reputações e segurança física, além de representar riscos para suas perspectivas de faculdade e carreira no futuro. No mês passado, o FBI alertou que é ilegal distribuir material de abuso sexual infantil gerado por computador, incluindo imagens geradas por IA de menores identificáveis envolvidas em conduta sexualmente explícita.
No entanto, o uso de aplicativos de IA por estudantes é tão novo que alguns distritos dos Estados Unidos parecem menos preparados para lidar com isso do que outros — o que torna o ambiente ainda mais inseguro para as alunas.
— Esse fenômeno surgiu muito repentinamente e pode estar pegando muitos distritos escolares despreparados e inseguros sobre o que fazer — disse Riana Pfefferkorn, pesquisadora do Observatório de Internet da Universidade Stanford, que escreve sobre questões legais relacionadas a imagens de abuso sexual infantil geradas por computador.
Em Westfield, no estado de Nova Jersey, algumas meninas do 10º ano na Westfield High School — incluindo Francesca, a filha de 14 anos de Dorota Mani — alertaram a diretoria da escola, em outubro, que os meninos de sua classe haviam usado software de inteligência artificial para fabricar imagens sexualmente explícitas delas e estavam circulando as fotos falsificadas.
Cinco meses depois, os Manis e outras famílias afirmam que o distrito fez pouco para abordar publicamente as imagens adulteradas ou atualizar as políticas escolares para dificultar o uso exploratório de IA.
— Parece que a administração da Westfield High School e o distrito estão participando de uma aula magistral de fazer com que esse incidente desapareça no ar — disse Mani, fundadora de uma creche local, aos membros do conselho escolar durante a reunião.
Em um comunicado, o distrito escolar disse que abriu uma "investigação imediata" ao tomar conhecimento do incidente, notificou imediatamente e consultou a polícia, e forneceu aconselhamento em grupo para a classe do segundo ano.
"Todos os distritos escolares estão lidando com os desafios e impactos da inteligência artificial e de outras tecnologias disponíveis para os alunos a qualquer momento e em qualquer lugar”, disse Raymond González, superintendente das escolas públicas de Westfield, no comunicado.
Em Beverly Hills, as escolas adotaram uma posição pública mais rígida.
Quando a direção soube, em fevereiro, que meninos do oitavo ano da Beverly Vista Middle School haviam criado imagens explícitas de suas colegas de 12 e 13 anos, rapidamente enviaram um e-mail com o assunto: "Uso Horroroso da Inteligência Artificial" para todos os pais, funcionários e alunos do ensino médio e fundamental da região. A mensagem instava os membros da comunidade a compartilharem informações com a escola para ajudar a garantir que o uso "perturbador e inapropriado" de IA pelos alunos "pare imediatamente".
Também alertou que o distrito estava preparado para instituir punições severas. "Qualquer aluno encontrado criando, disseminando ou possuindo imagens geradas por IA dessa natureza enfrentará ações disciplinares", incluindo uma recomendação de expulsão, disse a mensagem.
O superintendente Bregy disse que as escolas e os legisladores precisavam agir rapidamente porque o abuso de IA estava fazendo os alunos se sentirem inseguros nas escolas.
— Você ouve muito sobre segurança física nas escolas — disse ele. — Mas o que você não está ouvindo é sobre essa invasão à segurança pessoal e emocional dos alunos.
Mín. 20° Máx. 39°