Pplware

Trabalho de moderar publicações do Facebook obriga a assistir às maiores crueldades

Começamos por referir que a leitura é perturbadora, as pessoas mais sensíveis não devem ler este artigo. O relato parte de um ex-funcionário da Meta que tinha o trabalho de ver os vídeos publicados no Facebook para moderar se podiam ou não ser publicados da rede. As mortes, os crimes que viu, tiraram-lhe a humanidade, tornaram-no doente fruto do que foi obrigado a assistir.


Facebook: Moderadores assistem a imagens de mortes do mais cruel que há na humanidade

Não é um trabalho de sonho, seguramente que, pelo relato, é um pesadelo para a vida toda. Nos bastidores do Facebook, milhares de moderadores protegem os utilizadores de conteúdos gráficos, filtrando as mensagens que violam as suas regras. A BBC falou com um moderador baseado no Quénia, que está a intentar uma ação judicial contra a empresa-mãe Meta.

No seu primeiro dia de trabalho a filtrar mensagens, o sul-africano Trevin Brownie, de vinte e poucos anos, viu um homem suicidar-se.

O problema não era [tirar a própria vida]. O problema era o miúdo de três anos que estava no vídeo com este homem. O menino estava a brincar no chão com os brinquedos, sem perceber o que estava a acontecer.

Foram precisos dois ou três minutos para que a criança se apercebesse de que algo estava errado e chamasse pelo pai. Começou então a chorar. Por fim, um adulto entrou na sala e a gravação foi interrompida.

Somos obrigados a ver pornografia infantil, zoofilia, necrofilia, violência contra pessoas, violência contra animais, violações. Como utilizador, a pessoa não vê coisas destas no Facebook. É meu trabalho, como moderador, garantir que a pessoa não veja coisas como estas.

A pessoa chega a um ponto, depois de ter visto 100 decapitações, em que começa a torcer para que a próxima seja mais horrível. É um tipo de vício.

Relatou Trevin Brownie, ex-funcionário do Facebook

Senti-me mal. Vomitava porque não percebia porque é que as pessoas faziam coisas daquelas.

Referiu ainda o jovem moderador.

Se imaginarmos o que por vezes ainda se pode ver, antes da remoção (que não é nada de especial em comparação com o pior que deve lá ser colocado) percebemos que o ser humano é capaz de tudo.

Trevin Brownie | BBC

Há coisas que se veem nas redes sociais que nunca mais se esquecem

O sul-africano relata que no decurso seu trabalho viu o pior da humanidade – desde o abuso de crianças à tortura e aos ataques bombistas suicidas.

A sua experiência, acredita ele, amorteceu os seus sentimentos. O tremor na sua voz e a sua simpatia sugerem que ainda se preocupa profundamente com os outros, mas Brownie acredita que parte da sua humanidade desapareceu.

Porque estou basicamente muito habituado à morte e a ver a morte. Tornou-se uma normalidade para mim.

Conta o ex-funcionário do Facebook salientando que as mortes já não o afetam como ele acha que deviam.

Para este trabalhador, o seu trabalho de moderação é como se fosse uma defesa ao utilizador, uma espécie de proteção ao ser humano e à sua sanidade mental. A sociedade de hoje vive e consome conteúdos online e são moldados por esses conteúdos. Durante a pandemia esses conteúdos moldaram o ser humano, muitos foram tolhidos pelas falsas notícias e morreram.

Em janeiro, o principal centro de moderação do Facebook na África Oriental, operado por uma empresa chamada Sama, anunciou que deixaria de fornecer serviços de revisão de conteúdos a empresas de redes sociais. Nos meses seguintes a empresa despediu 260 moderadores, incluindo Brownie, concentrando-se no trabalho de descrição de vídeos para ajudar a treinar sistemas de visão computacional de inteligência artificial.

 

Ação judicial contra a Meta

Trevin Brownie faz parte de um grupo de 184 moderadores, apoiados pelo grupo de campanha Foxglove, que estão a intentar uma ação judicial contra a Meta, a empresa-mãe do Facebook, a Sama, e o novo contratante da Meta, a empresa luxemburguesa Majorel.

A Meta tem procurado livrar-se da ação, mas uma decisão de abril passado dá conta que pode ser processada por rescisão injusta. Uma decisão provisória contra a Meta e a Sama já significa que os contratos dos moderadores não podem ser rescindidos e que devem continuar a ser pagos até que o caso seja decidido.

Os moderadores afirmam que foram despedidos em retaliação por terem apresentado queixas sobre as condições de trabalho e por terem tentado formar um sindicato. Alegam ainda que foram injustamente discriminados e que lhes foi recusado trabalho na Majorel “com base no facto de terem trabalhado anteriormente nas instalações [da Sama]”, lê-se na petição apresentada ao tribunal.

Mensagens de texto partilhadas com a equipa jurídica dos moderadores, e vistas pela BBC, mostram que os moderadores interessados em candidatar-se a um emprego na Majorel foram informados por um recrutador externo de que: “A empresa não aceita candidatos da Sama. É um não absoluto”.

A Meta recusou-se a comentar, invocando a continuação da ação judicial. Mas a empresa exige que os seus contratantes forneçam apoio permanente no local, com profissionais formados, e acesso a cuidados de saúde privados desde o primeiro dia de trabalho.

Exit mobile version