Pplware

Falha de segurança no YouTube! Perfis com imagens pornográficas sem censura

O YouTube tem um problema grave com a moderação de fotografias de perfil. E claro que as redes de bots estão a explorar esta falha. Não se trata de uma falha no algoritmo de pesquisa, mas sim de uma lacuna na supervisão das imagens que se escolhem para identificar os canais. Esta falha permite que imagens pornográficas sem censura apareçam diretamente nos resultados de qualquer pesquisa.


A informação surgiu agora e explica que a simples pesquisa de termos específicos (XXXX, XXXX,XX,XXX,X,XXXXX,XXXXXX,XXXXXXXX,XXXXXXXXXX) na lista de canais faz com que apareçam miniaturas com conteúdo explícito. O problema mais grave é que estas fotografias de perfil são visíveis para utilizadores sem conta , anulando efetivamente qualquer medida de proteção infantil. A Google continua a falhar em corrigir um elemento tão básico como o avatar do criador.

O método que estas contas utilizam para sobreviver ao fecho passa por não alojar pornografia diretamente nos seus vídeos principais, mas sim em fotos de perfil e listas de reprodução externas. Estes canais, que por vezes têm mais de 200.000 subscritores, estão interligados para enganar o sistema. Como resultado, os utilizadores acedem a conteúdos impróprios para menores através de perfis que parecem inofensivos para os filtros automatizados.

Esta vulnerabilidade ridiculariza a funcionalidade de desfoque de miniaturas que o YouTube começou a testar em 2015. Ocultar um frame do vídeo é inútil se a imagem do canal for pornográfica e aparecer com destaque nos resultados de pesquisa. A plataforma já sofreu este ano com a inserção de anúncios explícitos em vídeos infantis , demonstrando que até o conteúdo mais vigilante tem os seus limites.

O problema agrava-se porque o spam gerado pela IA sobrecarrega os filtros da empresa, permitindo que estas redes passem despercebidas. Embora a Google se vanglorie de remover milhões de vídeos nos seus relatórios de transparência, a realidade técnica é que os seus sistemas de deteção ignoram os metadados visuais das contas e as listas de reprodução selecionadas.

Analisando o funcionamento interno, a verificação da idade por IA só é eficaz para utilizadores registados, deixando uma enorme brecha para o tráfego anónimo. O foco da Google na automação total permite que a pornografia seja utilizada como isco visual nos resultados de pesquisa. Em última análise, a segurança do utilizador depende de o atacante não conseguir contornar o algoritmo.

A inação do YouTube em relação a estas fotografias de perfil demonstra falhas técnicas inaceitáveis ​​nos seus protocolos de segurança. Enquanto a empresa não implementar uma verificação preventiva dos avatares antes da sua publicação, qualquer pesquisa com termos de risco continuará a ser uma porta aberta para o conteúdo explícito. A realidade é que, atualmente, o controlo de acessos na plataforma é só uma sugestão.

Exit mobile version