O melhor do YouTube? Inegavelmente é a possibilidade de qualquer pessoa poder partilhar um vídeo com todo o mundo. O pior do YouTube? Acaba por ser, ao mesmo tempo, a possibilidade de qualquer pessoa poder partilhar um vídeo com todo o mundo. Há sérios problemas estruturais na plataforma de vídeos da Google.
O YouTube é um antro de conteúdo dúbio ou promotor de teses falsas como a Terra Plana, por exemplo. E parece que nada é feito para moderar estes maus vídeos.
O mesmo podia ser dito das campanhas de antivacinação, bem como das mais exóticas teorias da conspiração. No entanto, a plataforma de vídeos diz já estar ciente desta infeliz ocorrência, afirmando estar já a procurar soluções para o problema. Infelizmente, nesse meio tempo, estes conteúdos continuam a grassar.
O YouTube é a plataforma de vídeos da Google
Até aqui tudo bem. Sendo o YouTube uma plataforma aberta, é normal que sejam submetidos conteúdos de cariz reprovável. Isto por muito eficazes que sejam os filtros já implementados. Aliás, não é isso que está aqui em questão, mas sim a atitude da empresa da Google face a esta sintomática. Ou melhor, a falta de ação.
Neste momento, a população já se apercebeu que o YouTube não é uma fonte fidedigna de informação. Não o podemos considerar, infelizmente, uma enciclopédia lúdica, pois, não merece essa credibilidade. O pior de tudo? A culpa não é (só) dos criadores de conteúdo, mas sim e acima de tudo, da gestão desta empresa.
Antes que o leitor se possa sentir ofendido por semelhantes afirmações, evocamos o recente relatório da agência Bloomberg. A peça é extensa, mas resume-se a dois pontos e a uma motivação – o lucro.
Se dá clicks e promove o engagement, porquê restringir o vídeo?
Em primeiro lugar, o YouTube sabia, já há vários anos, que a plataforma de vídeos estava a ser explorada para espalhar conteúdo tóxico ou reprovável. Porém, fingiu desconhecer este facto até que não o pode continuar a negar ou a fazer de conta que nada aconteceu. A “gota de água” foram as campanhas antivacinação.
O segundo ponto sendo também a sua motivação, os cliques, o lucro, a interação ou engagemente – a trave mestra de qualquer rede social. Em síntese, desde que a comunidade continuasse a ver os vídeos, a deixar o seu like, comentar, interagir e partilhar, porque não esperar mais um bocado antes de agir?
O caso fica ainda pior, com a recente proliferação de vídeos a “explicar” que os tiroteios em massa ou massacres mais não são do que engodos. Mentiras perpetradas por atores, ou que as vacinas causam autismo, sem esquecer a, ainda proeminente, teoria da terra plana. Porém, não tardou até Susan Wojcicki fosse chamada a intervir em público e a prestar declarações à comunidade.
A chefia do YouTube terá ignorado este flagelo
Perfeitamente ciente do uso da plataforma para espalhar conteúdo moralmente reprovável, a chefia da plataforma de vídeos da Google terá fechado os olhos a tudo isto. Aliás, ao manter os vídeos nas recomendações do YouTube, a plataforma assegurou-se de que estes continuavam a gerar engagement.
A equipa liderada por Susan Wojcicki desvalorizou a situação sempre que possível. Ao mesmo tempo, certo é que dentro da empresa existem várias iniciativas para combater esta situação, porém, estão longe de ser uma prioridade. O YouTube chama-se “Project Bean” ou “Boil the Ocean” numa referência à dimensão da tarefa.
Ainda de acordo com a fonte, desde 2017 que projetos desse género têm sido apresentados. Contudo, a prioridade era manter os criadores de conteúdos satisfeitos, sobretudo numa fase em que estes expressaram o descontentamento perante a redução acentuada na remuneração e ameaçavam mudar de plataforma.
Conteúdos moralmente reprováveis, promovidos pelo algoritmo do YouTube
O caso agravou-se após 2017. Ano em que o YouTube perdeu grandes parceiros e investidores. Perante isto, a plataforma de vídeos da Google teve que criar novas formas de compensação aos seus criadores. Assim, passou a pagar, não só pelas visualizações, mas principalmente pela interação de um vídeo ou engagement.
Quanto mais interação tinha um vídeo, mais tração ganhava dentro da plataforma – sistema atualmente em vigor – ao ser promovido pelo algoritmo do YouTube e por poderosos motores de inteligência artificial. Ora, isto veio criar uma nova forma de lucrar com a plataforma – tornar-se popular, de qualquer maneira.
A forma mais fácil (e eficaz)? Apelar ao sensacionalismo, descartando qualquer entrave moral e não tardou até termos os primeiros casos de “má viralidade”. Entretanto, a mesma fórmula, continua a ser utilizada por canais dedicados às teorias da conspiração do mais variado género e temática. Ao mesmo tempo, o YouTube sabia disto, mas preferiu não agir, preocupado com as possíveis complicações ao sistema de remuneração.
Só em 2017 é que a plataforma de vídeos começou a agir
Sobretudo perante canais que publicavam conteúdo altamente reprovável, não os removendo completamente, mas cortando as suas fontes de sustento. Isto é, ao impedir que os vídeos gerassem proveitos para os responsáveis pelo canal em questão e ao descartar tais canais do seu algoritmo.
Contudo, por essa altura alguns desses canais já tinham crescido demasiado e, com vários milhões de subscritores, continuam até hoje a divulgar os seus conteúdos na plataforma. Ainda que as bases de remuneração tenham sido cortadas, os responsáveis escudam-se no princípio da liberdade de expressão.
A seu favor, a plataforma de vídeos da Google destinou vários milhões de dólares ao combate deste flagelo. Em boa verdade, nos últimos anos o YouTube contratou centenas de colaboradores, só para este propósito. Para ver, rever e atender às denúncias e tentar aplacar o impacto de canais promotores de “mau conteúdo”.
A curadoria humana, a solução?
Já de acordo com um antigo moderador de conteúdo, em 2017 a plataforma não tinha qualquer protocolo de gestão deste tipo de conteúdos. Por outras palavras, a empresa não sabia o que fazer perante canais e vídeos que divulgavam todo o tipo de impropérios. Aqui sobretudo em idiomas que não o inglês.
Atualmente a plataforma de vídeos da Google está mais agressiva na moderação de conteúdos. Aliás, por vezes acaba até por sinalizar erradamente um vídeo inócuo. Os seus algoritmos, sensíveis a vários sinais de alerta, estão a aterrorizar alguns criadores de conteúdo e a plataforma sabe disso. A solução passa por pedir uma revisão humana – apelar a um moderador de conteúdo.
Ao mesmo tempo, implementa também mecanismos de verificação da informação. Sem esquecer os questionários aleatórios com vista a apurar a satisfação dos utilizadores. Medidas que tardam em surtir o efeito pretendido, mas que são um ponto de partida.