ROTANEWS176 E POR BBC NEWS 03/07/2023 06h06 Por Angus Crawford e Tony Smith
Nova tecnologia está ‘inundando’ a internet com imagens sintéticas de abuso infantil. Perante a lei, no Reino Unido, essas imagens são ilegais.
Reprodução/Foto-RN176 Ilustração de mão em teclado com silhueta de criança ao fundo Foto: BBC News Brasil
Pedófilos estão usando a tecnologia de inteligência artificial (IA) para criar e vender material de abuso sexual infantil realista, revela investigação da BBC.
Alguns deles têm acesso a essas imagens pagando por assinaturas de contas em sites de compartilhamento de conteúdo convencional, como o Patreon.
O Patreon diz que tem uma política de “tolerância zero” com relação a esse tipo de imagens em seu site.
O Conselho Nacional de Chefes de Polícia do Reino Unido (NPCC, na sigla em inglês) afirmou que é “ultrajante” que algumas plataformas estejam obtendo “grandes lucros” sem assumir “responsabilidade moral” por seu conteúdo.
A GCHQ — agência de inteligência, segurança e cibernética do governo britânico — respondeu à reportagem, dizendo: “Os criminosos praticantes de abuso sexual infantil adotam todas as tecnologias e alguns acreditam que o futuro do material de abuso sexual infantil está no conteúdo gerado por IA”.
Os criadores das imagens de abuso estão usando um software de IA chamado Stable Diffusion, que gera imagens para uso em arte ou design gráfico.
A IA permite que os computadores executem tarefas que normalmente requerem inteligência humana.
O software Stable Diffusion permite que os usuários descrevam em palavras as imagens que desejam — e o programa então cria a imagem.
Mas a BBC descobriu que o programa está sendo usado para criar imagens realistas de abuso sexual infantil, incluindo estupro de bebês e crianças.
As equipes de combate a abuso infantil online da polícia do Reino Unido dizem que já estão encontrando esse tipo de conteúdo nas suas investigações.
Reprodução/Foto-RN176 A jornalista Octavia Sheepshanks diz que a internet foi inundada de imagens geradas por IA Foto: BBC News Brasil
A pesquisadora e jornalista freelancer Octavia Sheepshanks vem investigando esse problema há vários meses. Ela contatou a BBC por meio da instituição de caridade infantil NSPCC para revelar suas descobertas.
“Desde que as imagens geradas por IA se tornaram possíveis, a internet foi inundada com imagens. Não são apenas meninas muito jovens. Eles [pedófilos] estão falando sobre crianças pequenas”, diz ela.
Perante as leis britânicas, uma “pseudoimagem” gerada por computador que retrate abuso sexual infantil é tratada da mesma forma que uma imagem real. É ilegal possuir, publicar ou transferir esse tipo de conteúdo no Reino Unido.
O líder do NPCC para proteção infantil, Ian Critchley, diz que é errado argumentar que, porque nenhuma criança real foi retratada em tais imagens “sintéticas”, ninguém foi prejudicado por isso.
Ele alerta que um pedófilo pode “se mover, ao longo da escala de delito, do pensamento, para imagens sintéticas e então para o abuso real de uma criança”.
Segundo a investigação da BBC, as imagens de abuso estão sendo compartilhadas por meio de um processo em três etapas:
- Os pedófilos criam imagens usando software de IA;
- Promovem imagens em plataformas como o site japonês de compartilhamento de fotos Pixiv;
- Essas contas têm links para direcionar os clientes para imagens mais explícitas, que as pessoas podem pagar para visualizar em contas em sites como o Patreon.
Alguns dos criadores de imagens estão postando em uma popular plataforma de mídia social japonesa chamada Pixiv, que é usada principalmente por artistas que compartilham mangás e animes.
Mas como o site está hospedado no Japão, onde o compartilhamento de desenhos infantis sexualizados não é ilegal, os criadores utilizam a plataforma para divulgar seus trabalhos em grupos e por meio de hashtags — que indexam os assuntos por meio de palavras-chave.
Um porta-voz da Pixiv diz que a empresa está dando prioridade a essa questão. Ele afirmou em maio que a Pixiv proibiu todas as representações fotorrealistas de conteúdo sexual envolvendo menores.
A empresa diz que fortaleceu seus sistemas de monitoramento e está alocando recursos substanciais para neutralizar os problemas relacionados aos desenvolvimentos da IA.
Sheepshanks disse à BBC que sua pesquisa sugere que os usuários parecem estar fazendo imagens de abuso infantil em escala industrial.
“O volume é enorme. As pessoas [os criadores] dizem ‘nós temos como meta fazer pelo menos mil imagens por mês'”, diz ela.
Comentários de usuários em imagens individuais no Pixiv deixam claro que eles têm interesse sexual em crianças, com alguns usuários até se oferecendo para fornecer imagens e vídeos de abuso que não foram gerados por IA.
Sheepshanks tem monitorado alguns dos grupos na plataforma.
“Dentro desses grupos, com 100 membros, as pessoas compartilham coisas como: ‘Veja, aqui tem um link com coisas reais'”, diz ela.
Diferentes níveis de preços
Muitas das contas no Pixiv incluem links em suas biografias direcionando as pessoas para o que chamam de “conteúdo sem censura” no site de compartilhamento de conteúdo Patreon, com sede nos Estados Unidos.
O Patreon está avaliado em aproximadamente US$ 4 bilhões (R$ 19 bilhões) e afirma ter mais de 250 mil criadores — a maioria deles, contas legítimas pertencentes a celebridades, jornalistas e escritores conhecidos.
Os fãs podem apoiar os criadores fazendo assinaturas mensais para acessar blogs, podcasts, vídeos e imagens — pagando valores a partir de US$ 3,85 (cerca de R$ 18) por mês.
Mas nossa investigação encontrou contas do Patreon que vendem imagens obscenas fotorrealistas de crianças geradas por IA, com diferentes níveis de preços, dependendo do tipo de material solicitado.
Um usuário escreveu em sua conta: “Eu treino minhas garotas no meu PC”, acrescentando que elas mostram “submissão”. Por US$ 8,30 (cerca de R$ 30) por mês, outro usuário ofereceu “arte exclusiva sem censura”.
A BBC enviou ao Patreon um exemplo, que a plataforma confirmou ser “semirrealista e violar nossas políticas”. A plataforma disse que a conta foi removida imediatamente.
O Patreon disse ter uma política de “tolerância zero”, insistindo: “Os criadores não podem financiar conteúdo dedicado a temas sexuais envolvendo menores”.
A empresa disse que o aumento de conteúdo nocivo gerado por IA na internet é “real e angustiante”, acrescentando que “identificou e removeu quantidades crescentes” desse tipo de material.
“Já banimos material sintético de exploração infantil gerado por IA”, afirmou a plataforma, acrescentando contar com equipes dedicadas, tecnologia e parcerias para “manter a juventude segura”.
Reprodução/Foto-RN176 Ian Critchley, do NPCC, está preocupado que a enxurrada de IA realista ou imagens ‘sintéticas’ possa retardar a identificação de vítimas reais de abuso Foto: BBC News Brasil
O gerador de imagens AI Stable Diffusion foi criado como uma colaboração global entre acadêmicos e várias empresas, lideradas pela empresa britânica Stability AI.
Várias versões foram lançadas, com restrições no código que controlam o tipo de conteúdo que pode ser feito.
Mas, no ano passado, uma versão anterior de “código aberto” foi lançada ao público, permitindo aos usuários remover quaisquer filtros e usar o software para produzir qualquer imagem — incluindo as ilegais.
A Stability AI disse à BBC que “proíbe qualquer uso indevido para fins ilegais ou imorais em nossas plataformas, e nossas políticas são claras de que isso inclui material de abuso sexual infantil”.
“Apoiamos fortemente os esforços de aplicação da lei contra aqueles que fazem uso indevido de nossos produtos para fins ilegais ou nefastos”, diz a Stability AI.
À medida que a inteligência artificial continua se desenvolvendo rapidamente, questões são levantadas sobre os riscos futuros que ela pode representar para a privacidade das pessoas, seus direitos humanos ou sua segurança.
Jo [nome completo omitido por motivos de segurança], líder da missão contra o abuso sexual infantil do GCHQ, disse à BBC: “O GCHQ apóia a aplicação da lei para se manter à frente de ameaças emergentes, como conteúdo gerado por IA, e garantir que não haja espaço seguro para infratores”.
Ian Critchley, do NPCC, diz que está preocupado que a enxurrada de IA realista ou imagens “sintéticas” possa retardar o processo de identificação de vítimas reais de abuso.
Ele explica: “Isso cria uma demanda adicional, em termos de policiamento, para identificar onde uma criança real, onde quer que esteja no mundo, está sendo abusada em vez de uma criança artificial ou sintética”.
Critchley diz acreditar que este é um momento crucial para a sociedade definir o futuro da internet.
BBC News Brasil – Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização escrita da BBC News Brasil.