Pandemia prejudicou moderação do conteúdo do Facebook
Não é segredo que o Facebook tem tentado atuar face a vários problemas sociais. Sendo esta uma das plataformas com mais utilizadores, é natural que existam conflitos de ideias e até que circule conteúdo menos apropriado. Nesse sentido, tem apostado em medidas que previnam e esbatam esta última tendência.
Apesar de este ser um trabalho contínuo, o Facebook reconheceu que a sua capacidade de moderar os conteúdos mais problemáticos foi afetada pela pandemia.
Menos supervisão no conteúdo que circulou no Facebook
Sendo o Facebook uma plataforma acessível e heterogénea, acabam por surgir, e consequentemente circular, conteúdos inapropriados. Assim sendo, cabe à própria plataforma controlar essa atividade e tratar de eliminar o que vá contra a sua política.
Para estabelecer esse controlo e essa moderação, o Facebook conta com um sistema de Inteligência Artificial e com funcionários humanos. Contudo, com a pandemia, a plataforma foi forçada a trabalhar com menos funcionários e, de abril a junho, contou com menos moderadores.
Assim sendo, na última versão do seu Community Standards Enforcement Report, o Facebook admitiu não ter tido capacidade humana de agir sobre o conteúdo que circulou.
Conteúdo esse que envolvia suicídio, automutilação e exploração infantil. Aliás, a plataforma admitiu também não ter sido capaz de medir a prevalência de conteúdos visualmente violentos e de nudez e atividade sexual adulta.
Com menos analistas de conteúdo, tomamos medidas sobre menos conteúdos, quer no Facebook, quer no Instagram… Apesar destas reduções, priorizamos e agimos sobre os conteúdos mais nocivos…
Esclareceu o Facebook.
Pessoas humanas continuam a ser essenciais
De acordo com a empresa, a sua tecnologia, para a moderação e revisão de conteúdos, está a melhorar. Contudo, existem áreas que terão de continuar a depender de pessoas. Isto, porque, além do trabalho específico que desempenham, ainda treinam a tecnologia da empresa.
Ainda que tenha estado menos ativo no controlo da informação e do conteúdo das suas plataformas, o Facebook revelou que, entre abril e junho, removeu cerca de 7 milhões de peças de desinformação, do Facebook e do Instagram, acerca da COVID-19. Ademais, rotulou cerca de 98 milhões de publicações, associadas à infeção, como falsas ou incorretas. Isto, porque alguns conteúdos (des)informavam sobre medidas preventivas ou curas milagrosas, que os especialistas consideraram perigosas.
Apesar das limitações provocadas pela pandemia, a empresa admite também que o seu sistema de AI permitiu melhorar o controlo de outro tipo de conteúdo, como discurso de ódio, terrorismo, perseguição e assédio.
Agora, a empresa garante que muitos dos seus trabalhadores estão de regresso ao trabalhão, através de casa, e um pequeno número já regressou aos escritórios.
Este artigo tem mais de um ano
É por estas e por outras que agora são a rede social de pessoas de 3ª idade.
1 gajo já nem pode mandar uma piada que é logo censurado pelo sistema.
+1