Pplware

Facebook verifica aumento no conteúdo violento e assédio após mudanças nas políticas

A Meta divulgou recentemente o seu relatório trimestral sobre a integridade da plataforma, o primeiro desde que Mark Zuckerberg reviu as políticas de discurso de ódio e alterou a abordagem à moderação de conteúdo no início deste ano. Segundo os dados, o Facebook registou um aumento no conteúdo violento, bem como nos casos de bullying e assédio.


Aumento de conteúdo problemático no Facebook

Os relatórios são a primeira vez que a Meta partilha dados sobre como a decisão de Zuckerberg de reformular as políticas da empresa se repercutiu na plataforma utilizada por milhares de milhões de pessoas.

Curiosamente, a empresa apresenta estas mudanças como uma vitória, afirmando que reduziu os seus erros para metade, enquanto a prevalência geral de conteúdo que infringe as suas regras “permaneceu largamente inalterada para a maioria das áreas problemáticas”.

Contudo, existem duas exceções notórias:

Apesar de parecerem percentagens relativamente reduzidas, mesmo pequenos aumentos podem ser percetíveis numa plataforma como o Facebook, que regista milhares de milhões de publicações diariamente.

A estratégia da Meta: menos intervenção

O relatório também sublinha a significativa redução na quantidade de conteúdo que a Meta está a remover globalmente, desde que se afastou da aplicação proativa de todas as políticas, exceto as mais graves, como exploração infantil e conteúdo terrorista.

O relatório da Meta mostra uma diminuição considerável no número de publicações do Facebook removidas por conteúdo de ódio, por exemplo, com apenas 3,4 milhões de conteúdos a serem “alvo de ação” ao abrigo desta política, o valor mais baixo da empresa desde 2018.

As remoções de spam também caíram abruptamente de 730 milhões no final de 2024 para apenas 366 milhões no início de 2025. O número de contas falsas removidas também diminuiu notavelmente no Facebook, de 1,4 mil milhões para 1 mil milhão (a Meta não fornece estatísticas sobre remoções de contas falsas no Instagram).

Paralelamente, a Meta alega estar a cometer muito menos erros na moderação de conteúdo, o que foi uma das principais justificações de Zuckerberg para a sua decisão de terminar com a moderação proativa.

Observámos uma redução de aproximadamente 50% nos erros de aplicação das políticas nas nossas plataformas nos Estados Unidos, do quarto trimestre de 2024 para o primeiro trimestre de 2025.

Escreveu a empresa numa atualização à sua publicação de janeiro que anunciava as alterações às políticas. A Meta não explicou como calculou este valor, mas afirmou que relatórios futuros “incluirão métricas sobre os nossos erros para que as pessoas possam acompanhar o nosso progresso.”

Proteção dos adolescentes continua a ser prioridade

A Meta reconhece, no entanto, que existe pelo menos um grupo onde alguma moderação proativa continua a ser necessária: os adolescentes.

Ao mesmo tempo, continuamos empenhados em garantir que os adolescentes nas nossas plataformas têm a experiência mais segura possível.

É por isso que, para os adolescentes, também continuaremos a ocultar proativamente outros tipos de conteúdo prejudicial, como o bullying.

Escreveu a empresa. A Meta tem vindo a implementar “contas para adolescentes” nos últimos meses, o que deverá facilitar a filtragem de conteúdo especificamente para utilizadores mais jovens.

 

Leia também:

Exit mobile version