A Meta não está a conseguir impedir que vastas redes de pessoas utilizem as suas plataformas para promover conteúdos pedopornográficos, segundo um novo relatório que cita numerosos exemplos perturbadores de exploração infantil descobertos no Facebook e no Instagram.
O relatório publicado no The Wall Street Journal, que surge numa altura em que a Meta enfrenta uma pressão renovada sobre a forma como lida com a segurança das crianças, suscitou uma nova investigação por parte dos reguladores da União Europeia.
No relatório, o The Wall Street Journal detalhou os testes que realizou com o Centro Canadiano de Proteção de Crianças, e mostrou como as recomendações da Meta podem sugerir grupos do Facebook, hashtags do Instagram e outras contas que são utilizadas para promover e partilhar material de exploração infantil.
De acordo com os testes, a Meta foi lenta a responder a denúncias sobre esses conteúdos e os seus próprios algoritmos facilitaram muitas vezes a ligação das pessoas a conteúdos abusivos e a outras pessoas interessadas nos mesmos.
Por exemplo, o Centro Canadiano de Proteção de Crianças disse ao jornal que uma “rede de contas do Instagram com cerca de 10 milhões de seguidores cada continuou a transmitir em direto vídeos de abuso sexual de crianças meses depois de terem sido denunciados à empresa”.
Noutro exemplo perturbador, a Meta recusou-se inicialmente a tomar medidas em relação a uma denúncia de um utilizador sobre um grupo público do Facebook chamado “Incesto”. O grupo acabou por ser retirado do ar, juntamente com outras comunidades semelhantes.
Meta tenta defender-se
Numa longa atualização no seu site, a Meta afirmou que “os predadores são criminosos determinados que testam as defesas de aplicações, sites e plataformas” e que tinha melhorado muitos dos seus sistemas internos para restringir “adultos potencialmente suspeitos”.
Além disso, a empresa disse que tinha “expandido a lista existente de termos, frases e emojis relacionados com a segurança infantil para os nossos sistemas encontrarem” e tinha empregue a aprendizagem automática para descobrir novos termos de pesquisa que poderiam ser potencialmente explorados por predadores de crianças.
A empresa afirmou que está a utilizar tecnologia para identificar “adultos potencialmente suspeitos”, a fim de evitar que se liguem uns aos outros, incluindo nos grupos do Facebook, e que vejam os conteúdos uns dos outros nas recomendações. A Meta também disse ao The Wall Street Journal que “começou a desativar contas individuais que apresentam uma pontuação acima de um determinado limiar de comportamento suspeito”.
A rede social está a enfrentar uma crescente reação negativa à forma como lida com a segurança das crianças. O Wall Street Journal também informou recentemente que as recomendações dos Reels do Instagram estão a servir conteúdos destinados a pessoas que “podem ter um interesse suspeito em crianças”.
Dezenas de estados processaram recentemente a Meta por alegadamente prejudicar a saúde mental dos seus utilizadores mais jovens e por não manter as crianças com menos de 13 anos fora das suas aplicações. Mark Zuckerberg irá, sem dúvida, enfrentar perguntas intensas sobre estas alegações no próximo mês, quando comparecer numa audiência da Comissão Judiciária do Senado sobre segurança infantil online. Os seus homólogos do TikTok, Snap, X e Discord também deverão testemunhar.
Leia também…