A Internet Watch Foundation afirma ter encontrado milhares de novas imagens de abuso sexual infantil criadas por sistemas de inteligência artificial. Os “piores pesadelos” estão a tornar-se realidade, à medida que os predadores são capazes de gerar conteúdos com vítimas reais. A organização de proteção infantil alerta também para o risco de a tecnologia começar a “sobrecarregar” a internet.

A inteligência artificial está sendo usada para alterar e reproduzir imagens de vítimas reais que sofreram violações. A tecnologia está também retirando a roupa de crianças que aparecem em fotos comuns para contextualizá-las em cenários de abuso.

A Internet Watch Foundation (IWF) diz já ter identificado e removido quase três mil imagens de abuso sexual infantil geradas por IA só no Reino Unido. Em junho, pela primeira vez, confirmou ter descoberto sete URL contendo imagens de abuso sexual infantil geradas por IA na web aberta.

“Os nossos piores pesadelos estão tornando-se realidade”, afirma Susie Hargreaves, executiva-chefe da IWF, citada na edição online do jornal britânico The Guardian.

“O assustador é estarmos vendo criminosos treinando deliberadamente a sua IA em imagens de vítimas reais”. Ou seja, “as crianças que foram violadas no passado estão agora sendo incorporadas em novos cenários porque alguém quer ver isto”, alerta Susie.

Num relatório públicado esta quarta-feira (25), a IWF mostra os resultados da investigação a 11.108 imagens de IA partilhadas num fórum de abuso infantil na dark web. Destas, a organização reporta 2.978 imagens de abuso geradas através de inteligência artificial. Neste universo, “2.562 eram tão realistas que a lei britânica as trata da mesma forma como se fossem imagens reais de abuso”.

Metade dessas imagens representava crianças com idades entre os seis e os dez anos. O relatório registra ainda “143 imagens que retratavam crianças de três a seis anos, enquanto duas imagens retratavam bebés (menores de dois anos)”.

Mais de 560 imagens foram classificadas como Categoria A – o tipo de imagem mais grave – incluindo violação, tortura sexual e brutalidade.

Imagens convincentes

A uma semana da Cimeira Internacional sobre Segurança da IA, que decorrerá na cidade britânica de Londres, em Bletchley Park, a organização de proteção infantil quer colocar este tema no “topo da agenda” do encontro. Susie Hargreaves avisa: “Se não controlarmos esta ameaça, este material irá sobrecarregar a Internet”.

O relatório do IWF também alerta para o crescente comércio de imagens de abuso sexual geradas por IA e confirma que as meninas são as mais visadas, aparecendo em 99 por cento.

À medida que a tecnologia IA se desenvolve, os registros de imagem tornam-se mais convincentes, dificultando a distinção pelos analistas. A IWF adverte que a capacidade tecnológica irá representar “mais obstáculos” para os especialistas e a polícia, argumentando que os sistemas de IA conseguem “despir” crianças, ou seja, apagar as roupas com que estariam nas fotos compartilhadas na internet por motivos genuínos.

“No início deste ano, alertamos que as imagens da IA ​​poderiam em breve tornar-se indistinguíveis das imagens reais de crianças vítimas de abuso sexual e que poderíamos começar a ver estas imagens proliferarem em números muito maiores. Já passamos desse ponto”, alerta Susie Hargreaves.

De qualquer forma, com recurso ou não a IA, ao longo de 2022, a equipe de analistas da IWF “avaliou 375.230 denúncias” de suspeitas de abuso sexual infantil online. Destas, “255.588 foram confirmadas como contendo imagens de abuso sexual infantil. Cada caso pode incluir uma ou centenas de imagens e vídeos”, alega a organização.

Ian Critchley, chefe do Conselho Nacional de Chefes de Polícia para a Proteção da Criança, deixa claro que estes conteúdos produzem um efeito de banalização da violação.

“É claro que esta questão não é só mais uma ameaça emergente – ela está aqui e normaliza a violação e o abuso de crianças reais”, avisa.

Porém, Critchley acredita na possibilidade de usar o feitiço contra o feiticeiro: “A IA tem muitos atributos positivos e estamos desenvolvendo oportunidades para virar esta tecnologia contra aqueles que abusariam dela para atacar crianças”.

A colaboração internacional será “vital à medida que os abusos da IA ​​no “mundo real” aumentam”, acautela a IWF.

“Esta não é uma situação hipotética. Estamos vendo tudo acontecer agora. Estamos vendo os números aumentarem e vimos a sofisticação e o realismo dessas imagens atingirem novos níveis”, ressalta Hargreaves.

A IWF, é a organização do Reino Unido responsável pela detecção e remoção de imagens de abuso sexual infantil da Internet, com sede em Cambridge.

 

Fonte: Carla Quirino - RTP

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *