
A disseminação de imagens sexualizadas de crianças geradas ou manipuladas por inteligência artificial (IA) está se consolidando como uma das ameaças mais graves do ambiente digital. Um novo alerta do UNICEF indica que a velocidade desse tipo de abuso supera, hoje, a capacidade de resposta das legislações e dos sistemas de proteção em diversos países.
Dados levantados pelo fundo das Nações Unidas para a infância, em parceria com a Interpol e a rede global ECPAT, mostram que pelo menos 1,2 milhão de crianças e adolescentes relataram, apenas no último ano, que suas imagens foram usadas para a criação de deepfakes com conteúdo sexual.
O estudo analisou a situação em 11 países e revela um cenário alarmante: em algumas regiões, o problema atinge o equivalente a uma em cada 25 crianças, número que, na prática, representa ao menos um aluno por sala de aula.
Os deepfakes são imagens, vídeos ou áudios criados ou alterados com o uso de IA para parecerem reais. No caso das crianças, a tecnologia tem sido usada, sobretudo, para produzir material sexualizado falso, muitas vezes por meio de ferramentas conhecidas como “nudificação”. Esses sistemas utilizam algoritmos para remover ou modificar roupas em fotografias comuns, gerando imagens artificiais de nudez ou conotação sexual sem qualquer consentimento.
Leia também: Dassault Systèmes avança em estratégia de IA generativa para agilizar trabalho de engenheiros
Dano imediato e direto
Segundo o UNICEF, quando a imagem de uma criança real é utilizada, o dano é direto e imediato. Mesmo nos casos em que o conteúdo é totalmente sintético, sem uma vítima identificável, o impacto permanece grave. A normalização desse tipo de material contribui para alimentar a exploração sexual infantil, amplia a demanda por conteúdos abusivos e cria obstáculos adicionais para autoridades e investigadores, que passam a lidar com volumes maiores de material ilícito e com maior dificuldade de rastreamento.
O avanço rápido dessas práticas ocorre em um contexto de expansão acelerada das ferramentas de IA generativa, muitas delas integradas a plataformas digitais e redes sociais. Essa combinação facilita a criação e a disseminação de imagens manipuladas em larga escala, tornando o controle e a remoção reativa insuficientes para conter o problema.
A preocupação não se limita a especialistas ou autoridades. Crianças e adolescentes demonstram elevada consciência dos riscos associados ao uso indevido da IA. Em alguns dos países analisados, até dois terços dos jovens entrevistados afirmaram temer que a tecnologia seja usada para criar imagens ou vídeos sexuais falsos envolvendo suas identidades.
Para o UNICEF, a resposta atual ainda é desigual. Embora algumas empresas de tecnologia estejam adotando abordagens de “segurança desde a concepção”, com salvaguardas para evitar o uso abusivo de seus modelos, grande parte das soluções disponíveis no mercado carece de mecanismos eficazes de prevenção. O risco se intensifica quando essas ferramentas são incorporadas diretamente a plataformas de grande alcance, onde o conteúdo pode se espalhar rapidamente.
Diante desse cenário, a organização defende ações imediatas e coordenadas. Entre as principais recomendações estão a ampliação das definições legais de material de abuso sexual infantil para incluir conteúdos gerados por IA, a criminalização de sua produção, posse e distribuição, e o fortalecimento das obrigações das empresas digitais para impedir a circulação desse tipo de material, não apenas removê-lo após a denúncia.
O UNICEF também destaca a necessidade de investimentos em tecnologias de detecção, políticas públicas de prevenção e campanhas de conscientização. Em dezembro, a entidade publicou a versão 3.0 de suas diretrizes sobre inteligência artificial e direitos da criança, com orientações para governos, desenvolvedores e plataformas digitais.
Para a agência da ONU, o recado é claro: o impacto dos deepfakes sexualizados é concreto, atual e profundamente danoso. A proteção das crianças no ambiente digital exige que legislação, tecnologia e responsabilidade corporativa avancem no mesmo ritmo da inovação.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!