Quantcast
PplWare Mobile

Tags: CSAM

Apple cancela o plano de verificação de conteúdo de pornografia infantil

Como referido anteriormente, a Apple já estava a trabalhar no objetivo de acabar com todo o material relacionado com o abuso sexual infantil presente nas contas ICloud. Contudo, foram várias as pessoas que não concordaram com o sistema de deteção CSAM criado pela empresa.

Depois de tanto feedback negativo, a Apple decidiu cancelar estes planos, para já.

Apple atrasou o plano de procura de abuso de crianças


Apple já está a verificar os e-mails à procura de material de abuso de crianças

A Apple quer mesmo remover do seu ecossistema qualquer material que seja relacionado com abuso de crianças. Esta ação levou já à deteção e acusação de um utilizador que tinha mais de 2 mil imagens e vídeos na sua conta iCloud.

Apesar de só agora se estar a abordar mais o tema, porque é um sistema que será incluído no iOS 15 e iPadOS 15, a Apple já o utilizava no iCloud Mail.

Imagem iCloud Mail


Médico acusado de ter milhares de imagens de pornografia infantil no iCloud

A Apple revelou recentemente que vai implementar alguns mecanismos nos seus sistemas operativos para combater a propagação da pornografia infantil. Contudo, o anúncio gerou alguma polémica, apesar da Apple já ter o sistema implementado no iCloud. Ora foi exatamente neste serviço que foram detetadas mais de 2 mil imagens e vídeos de exploração sexual de crianças.

O Departamento de Justiça dos EUA acusou um médico de São Francisco da posse deste material ilícito.

Imagem ilustração sistema da Apple de combate à pornografia infantil no iCloud