Para minimizar a dor dessas vítimas e pegar criminosos no flagra, um sistema "caçador de pornografia infantil" que analisa foto por foto na internet ficou mais esperto: além de imagens estáticas, vai vasculhar vídeos em busca de conteúdo ilegal, mesmo que esteja escondido em inocentes filmes de super-heróis.
Segundo a Microsoft, a cada 60 segundos, 500 fotos de crianças abusadas sexualmente são compartilhadas online. Desde 2009, dar conta da análise dessas imagens era um desafio para um robô treinado para isso pela empresa.
Porém, outra complicação surgiu no meio do caminho. Explodiu a quantidade de vídeos suspeitos de conter pornografia infantil. Só as denúncias desse tipo de conteúdo feitas ao Centro Nacional para Crianças Exploradas ou Desaparecidas dos Estados Unidos cresceram onze vezes, para 3,5 milhões em 2017.
"Todas as vezes que a foto é repostada, a criança é violentada novamente", diz Shilpa Bratt, diretora de operações da Unidade de Cibercrime da Microsoft (DCU), que criou a ferramenta.
A nova ameaça trouxe também um desafio: Como fazer a mesma coisa com vídeos, que são formados por milhões de imagens? O jeito foi ensinar um truque ao "caçador de pornô infantil".
Essa nova habilidade tem potencial de ampliar ainda mais o combate a vídeos com pornografia infantil, já que a tecnologia criada há quase dez anos é usada para fotos por quase 200 empresas, entre elas Microsoft, Google, Twitter e Facebook, além de outros provedores de internet. A ferramenta também conta com a ajuda de organizações não governamentais. "Competição não interessa quando se trata de uma tecnologia dessas", diz Bratt.
Como age o caçador de pornografia infantil?
O que o "caçador de pornô infantil" faz é, em vez de reparar nos elementos gráficos da foto, buscar outra coisa: o "DNA" da imagem. O sistema divide a imagem em diversos quadradinhos e classifica cada um deles conforme o grau de sombra. A partir daí, atribui um código único baseado nessas características.
Ele confere cada imagem que está para ser publicada ou mantida online. Na Microsoft, por exemplo, isso ocorre com os documentos estocados no serviço de armazenamento em nuvem One Drive. Ele também funciona no Azure, a plataforma de processamento em nuvem que é responsável por rodar certos recursos de inteligência artificial da empresa. Uma vez identificada uma dessas fotos, o conteúdo é deletado e o caso é repassado para a polícia.
"Nós não queremos esse conteúdo ilegal compartilhado nos nossos serviços e produtos. Colocamos o PhotoDNA em tantas mãos quanto possível para acabar com a revitimização", diz Courtney Gregoire, conselheira assistente da DCU.
Antes que você se pergunte, o sistema não é capaz de fazer o reconhecimento facial da vítima e a Microsoft avisa em seus termos de serviço que pode fazer o PhotoDNA espiar as fotos de seus usuários.
Cena do Crime
Como o sistema só age como caçador, mas não identifica o que é pornografia infantil ou não, ele necessita que digam a ele o que deve ser caçado. Ou seja, ele até coleta o tal DNA da imagem, mas não sabe se está lidando com a cena de um crime.
Para chegar a essa resposta, ele compara o código das imagens suspeitas com as amostras de "DNA" das fotos mantidas em bancos de dados de Autoridades policiais e ONGs, que estão repletos de imagens que foram denunciadas por apresentarem conteúdo de nudez infantil imprópria ou apreendidas em ações contra criminosos.
Dentre as quase duas centenas de organizações que adotaram o PhotoDNA, uma delas, a britânica Fundação para Vigilância da Internet (IWF, na sigla em inglês), resolveu dar um passo adiante e trabalhar com a Microsoft para fazer o "caçador" averiguar vídeos também. Resultado: o que um humano leva horas, avançando para pular cenas irrelevantes, o caçador resolve em minutos. No entanto, isso exigiu adotar uma estratégia.
Na verdade, o sistema não assiste a todo vídeo. Ele seleciona alguns frames, extrai o "DNA" deles e os compara com com aquelas presentes nos bancos de dados. Como o caçador verifica o vídeo quadro a quadro, não adianta tentar incluir as imagens de pornografia no meio de filmes aparentemente inocentes para tentar camuflar a distribuição de conteúdo ilegal.
"Isso fez uma baita diferença. Podemos identificar e atacar abuso sexual online para ajudar as vítimas bem mais rapidamente", disse Fred Langford, da IWF. Usado até então apenas pela IWF, o recurso foi liberado gratuitamente a empresas interessadas na quarta-feira (12).
Diminuindo trauma
As empresas que usam o recurso podem ainda reportar às autoridades caso algum de seus usuários estiver compartilhando pornografia infantil. Nos EUA, provedores de internet e de serviços de email são obrigados por lei a fazer isso. No Brasil, não há legislação que traga essa obrigação.
A Força-Tarefa para Crimes na Internet contra Crianças do estado norte-americano de Washington estima que 90% das denúncias recebidas surgem depois da ação do PhotoDNA.
Cecelia Gregson, procuradora que lidera essa divisão, diz que o trabalho do "caçador de pornografia infantil" não é fuçar "quais são os padrões de compra de alguém ou as fotos de família guardadas na nuvem". "Nós estamos procurando arquivos que mostrem abuso sexual de crianças."
Um estudo do Centro Canadense de Proteção à Criança ouviu vítimas que sobreviveram a abusos sexuais. Essas pessoas disseram que a disseminação de fotos e vídeos mostrando os crimes cometidos contra elas amplia a sensação de vergonha, humilhação e impotência.
"O abuso acaba e, em algum momento, o medo que a gente sente também vai embora. O medo desse material [ressurgir] nunca", diz um dos entrevistados.
Gregson acha que o "caçador de pornografia infantil" pode aplacar essa insegurança. "A tecnologia pode também nos ajudar a identificar abusadores de crianças que coletam imagens e podem causar trauma psicológico, emocional e mental adicional às suas vítimas."
Fonte: UOL