Meninos em diversos estados americanos têm se aproveitado de aplicativos de IA disponíveis para criar imagens não consensuais de suas colegas de classe a partir de fotos reais das jovens. Essas imagens, conhecidas como “deepfakes” ou “deepnudes”, são compartilhadas em ambientes escolares e em redes sociais online, causando danos psicológicos, de reputação e de segurança física para as meninas envolvidas.
A exploração sexual infantil é um problema grave e as autoridades estão atentas para coibir o compartilhamento de material de abuso sexual gerado por computador. No entanto, a novidade do uso de IA por estudantes deixou muitos distritos escolares nos EUA despreparados para lidar com essas situações, tornando o ambiente escolar ainda mais inseguro para as alunas.
Alguns casos emblemáticos ilustram a falta de preparo das escolas para lidar com esse novo tipo de bullying. Em Westfield, no estado de Nova Jersey, meninas alertaram a direção da escola sobre a criação e compartilhamento de deepfakes de suas imagens, porém o distrito pouco fez para abordar publicamente o problema ou atualizar suas políticas para evitar casos futuros.
Já na Beverly Vista Middle School, em Beverly Hills, Califórnia, a direção tomou medidas firmes ao descobrir a criação de imagens explícitas por IA pelos alunos, resultando na expulsão de cinco estudantes. O superintendente do distrito enfatizou a importância de agir rapidamente para garantir a segurança emocional dos alunos diante do abuso de IA nas escolas.
É urgente que as escolas, juntamente com legisladores e autoridades, estabeleçam políticas claras e punições rigorosas para coibir o uso inadequado de IA por estudantes. A segurança e o bem-estar dos alunos devem ser prioridades, com medidas eficazes para combater o uso abusivo de tecnologias, como no caso dos deepfakes nas escolas americanas.