Pplware

Pandemia prejudicou moderação do conteúdo do Facebook

Não é segredo que o Facebook tem tentado atuar face a vários problemas sociais. Sendo esta uma das plataformas com mais utilizadores, é natural que existam conflitos de ideias e até que circule conteúdo menos apropriado. Nesse sentido, tem apostado em medidas que previnam e esbatam esta última tendência.

Apesar de este ser um trabalho contínuo, o Facebook reconheceu que a sua capacidade de moderar os conteúdos mais problemáticos foi afetada pela pandemia.


Menos supervisão no conteúdo que circulou no Facebook

Sendo o Facebook uma plataforma acessível e heterogénea, acabam por surgir, e consequentemente circular, conteúdos inapropriados. Assim sendo, cabe à própria plataforma controlar essa atividade e tratar de eliminar o que vá contra a sua política.

Para estabelecer esse controlo e essa moderação, o Facebook conta com um sistema de Inteligência Artificial e com funcionários humanos. Contudo, com a pandemia, a plataforma foi forçada a trabalhar com menos funcionários e, de abril a junho, contou com menos moderadores.

Assim sendo, na última versão do seu Community Standards Enforcement Report, o Facebook admitiu não ter tido capacidade humana de agir sobre o conteúdo que circulou.

Conteúdo esse que envolvia suicídio, automutilação e exploração infantil. Aliás, a plataforma admitiu também não ter sido capaz de medir a prevalência de conteúdos visualmente violentos e de nudez e atividade sexual adulta.

Com menos analistas de conteúdo, tomamos medidas sobre menos conteúdos, quer no Facebook, quer no Instagram… Apesar destas reduções, priorizamos e agimos sobre os conteúdos mais nocivos…

Esclareceu o Facebook.

Pessoas humanas continuam a ser essenciais

De acordo com a empresa, a sua tecnologia, para a moderação e revisão de conteúdos, está a melhorar. Contudo, existem áreas que terão de continuar a depender de pessoas. Isto, porque, além do trabalho específico que desempenham, ainda treinam a tecnologia da empresa.

Ainda que tenha estado menos ativo no controlo da informação e do conteúdo das suas plataformas, o Facebook revelou que, entre abril e junho, removeu cerca de 7 milhões de peças de desinformação, do Facebook e do Instagram, acerca da COVID-19. Ademais, rotulou cerca de 98 milhões de publicações, associadas à infeção, como falsas ou incorretas. Isto, porque alguns conteúdos (des)informavam sobre medidas preventivas ou curas milagrosas, que os especialistas consideraram perigosas.

Apesar das limitações provocadas pela pandemia, a empresa admite também que o seu sistema de AI permitiu melhorar o controlo de outro tipo de conteúdo, como discurso de ódio, terrorismo, perseguição e assédio.

Agora, a empresa garante que muitos dos seus trabalhadores estão de regresso ao trabalhão, através de casa, e um pequeno número já regressou aos escritórios.

Exit mobile version