Pplware

Facebook remove perto de 9 milhões de imagens de crianças nuas em 3 meses

Não temos dúvidas que o Facebook tem muitos aspetos positivos, mas tem-se pautado por vários escândalos ligados à manipulação da sociedade, spam, atrocidades no campo da privacidade, crimes de difamação, notícias falsas e conteúdos de cariz sexual.

Numa tentativa de controlo de um descontrolo anunciado, o Facebook fez saber nesta quarta-feira que os moderadores da empresa, durante o último trimestre, removeram 8,7 milhões de imagens de crianças nuas.


A ferramenta de inteligência artificial que a empresa lançou no ano passado consegue identificar imagens que contêm nudez, com maior incidência em nudez infantil. Este tipo de automatismo tem permitido uma maior imposição da proibição do Facebook em fotos que mostram menores num contexto sexual.

A responsável global de segurança do Facebook, Antigone Davis, disse à Reuters que a “máquina ajuda-nos a priorizar” e “filtra de maneira mais eficiente” o conteúdo problemático para a equipa de moderadores da empresa. Esta tecnologia está igualmente a ser usada no Instagram.

Depois de ter sido pressionado por reguladores e legisladores, o Facebook prometeu acelerar a remoção de material extremista e ilícito. Programas de “machine learning” filtram os milhões de conteúdos que os utilizadores publicam por dia.

Os automatismos não são perfeitos e as agências de notícias e anunciantes estão entre as entidades que mais se queixaram de erros cometidos por este sistema automático. Alguns conteúdos são removidos devido a um “excesso de zelo”. Há conteúdos que são removidos e não são de todo problemáticos.

Sobre estas queixas, Davis referiu que os sistemas de segurança infantil cometem erros, sim, mas que os utilizadores visados por esses erros podem recorrer.

Preferimos errar do lado da cautela com as crianças.

Referiu a responsável do Facebook.

As regras do Facebook, durante anos, proibiram até mesmo fotos de família com as crianças ligeiramente despidas, mesmo que estivessem carregadas com “boas intenções”. Tudo porque havia uma preocupação que essas fotos fossem usadas com abusos de terceiros.

Antes do novo software, o Facebook confiava nos utilizadores ou nos seus próprios filtros de nudez para adultos, que poderiam detetar imagens de crianças. Contudo, a empresa teve de implementar um sistema dedicado só para bloquear pornografia infantil e que denunciava o conteúdo às autoridades.

 

Números anuais devem ser gigatescos

O Facebook não divulgou anteriormente qualquer dado sobre remoções de nudez infantil, embora alguns tenham sido incluídos entre os 21 milhões de publicações e comentários removidos no primeiro trimestre por atividade sexual e nudez de adultos.

A gigante das redes sociais disse que o novo programa aprendeu com a sua coleção de fotos de adultos nus e de crianças despidas e isso levou a que fossem removidas mais publicações com este sistema.

 

E os conteúdos pornográficos que são trocados nas aplicações de mensagens?

Embora o Facebook tenha já uma política delineada e uma ferramenta que parece estar a dar provas, a rede social tem ainda um ponto cego crucial, que são as aplicações de mensagens encriptadas e sites secretos na “dark web”, nos quais se origina grande parte da nova pornografia infantil.

A criptografia de mensagens no WhatsApp, por exemplo, impede que o sistema automático consiga analisar o interior da mensagem criptografada. Mas as instituições de apoio a estas vítimas da exploração sexual nas redes sociais esperam que estas empresas de tecnologia tenham ainda mais criatividade para conter a pornografia mesmo dentro de sistemas que utilizam criptografia.

Exit mobile version