A revolução na Inteligência Artificial (IA) veio com consequências. Já é possível falsificar vozes e imagens, e até criar uma namorada artificial. Infelizmente, dá para ir além: recentemente, a popularização das deepfakes tem provocado um aumento dos conteúdos realistas que mostram exploração sexual, pedofilia e pornografia infantil, o que pode prejudicar investigações reais, atrapalhar os esforços em achar as vítimas e punir criminosos.

IA e pedofilia

Investigações prejudicadas

Segundo Rebecca Portnoff, diretora de ciência de dados do Thorn, um grupo sem fins lucrativos de segurança infantil, a identificação de uma vítima já é difícil. O realismo das imagens torna ainda mais complicado para as autoridades identificarem crianças em perigo.

O volume de imagens, além de sobrecarregar os profissionais, dá mais uma tarefa para os envolvidos na investigação: gastar tempo diferenciando quais conteúdos são reais e quais foram gerados artificialmente.

Tudo isso, além do desafio real em identificar a criança e encontrá-la, bem como o criminoso.

Ilustração de tecnologia de reconhecimento facial em cima de rosto de mulher
Além de ter que lidar com o volume de imagens, polícia terá de aprender a diferenciar fotos reais e falsas, o que dificulta ainda mais a investigação (Imagem: Adobe Stock)

Leis

Muitas vezes, as imagens criam crianças que não existem. Mas, claro, o conteúdo ainda é ilegal. Apesar de haver debates divergentes no que diz respeitos às imagens artificiais não retratarem casos reais, uma lei federal dos EUA, aprovada em 2023, proíbe que qualquer imagem gerada por computador mostre uma criança envolvida em conduta sexualmente explícita, seja ela real ou não.

Ferramentas de IA que geram imagens

Nesse aspecto, IA ainda esbarra em questões legais (Foto: Reprodução)

Casos reais

O Centro Nacional para Crianças Desaparecidas e Exploradas, uma organização sem fins lucrativos que administra um banco de dados que as empresas usam para sinalizar e bloquear material sexual infantil, recebeu mais de 32 milhões de denúncias de conteúdos de exploração sexual e pornografia infantil no ano passado.

Além disso, este mês, o FBI emitiu um alerta que mostra que os conteúdos de crianças alterados para “imagens com temas sexuais que parecem reais” aumentou.

Com informações de Washington Post

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!