A Apple quer mesmo remover do seu ecossistema qualquer material que seja relacionado com abuso de crianças. Esta ação levou já à deteção e acusação de um utilizador que tinha mais de 2 mil imagens e vídeos na sua conta iCloud.
Apesar de só agora se estar a abordar mais o tema, porque é um sistema que será incluído no iOS 15 e iPadOS 15, a Apple já o utilizava no iCloud Mail.
Muitos fãs Apple ficaram aborrecidos com o plano da empresa de começar a monitorizar os uploads de fotografias para o iPhone e iPad, no iOS 15, de material relacionado com abusos de crianças (CSAM). Contudo, a Apple já o fazia no iCloud, mais concretamente no serviço de email.
A empresa já tinha o sistema ativo para detetar pornografia infantil no correio eletrónico do iCloud, apesar de não o fazer no iCloud Fotografias ou no iCloud Drive.
Aliás, foi justamente com o serviço ativo que a empresa detetou que um médico guardava mais de 2 mil imagens e vídeos na sua conta iCloud.
Quando começou a Apple a usar o sistema de deteção CSAM?
Muito embora só agora a empresa tenha anunciado com mais detalhe a utilização do sistema que irá monitorizar os uploads de imagens para os iPhone e iPad, a Apple já o usava há algum tempo.
Segundo o que foi revelado na CES em janeiro de 2020, o sistema de deteção Child Sexual Abuse Material ou CSAM, começou a ser usado no iCloud Mail em 2019. Diz a gigante de Cupertino que as contas que tenham conteúdo CSAM violam os seus termos e condições, e serão desativadas.
Depois do anúncio recente, houve um coro de vozes de discordância do novo sistema. No entanto, é de total interesse dos responsáveis que avance o rastreio.
O sistema preserva a privacidade dos utilizadores?
A Apple assegura que todos os utilizadores terão total privacidade e segurança. O novo sistema de deteção de material de abuso sexual infantil (CSAM) utiliza a aprendizagem automática para analisar anexos de imagem e determinar se uma foto é sexualmente explícita.
A funcionalidade é concebida de modo a que a Apple não tenha acesso às imagens.
Apesar da explicação da Apple, os defensores da privacidade não gostam deste sistema. Alguns dos próprios funcionários da Apple manifestaram as suas preocupações a este respeito.
As organizações de direitos têm exortado Tim Cook a matá-lo antes mesmo de começar a chegar aos iPhones e iPads nos Estados Unidos. Contudo, a monitorização CSAM não é novidade na Apple.
Tal como os filtros de spam no correio eletrónico, o nosso sistema utiliza assinaturas eletrónicas para encontrar suspeitas de exploração infantil. Validamos cada correspondência com análise individual.
Contas com conteúdo de exploração infantil violam os nossos termos e condições de serviço, e quaisquer contas que encontrarmos com este material serão desativadas.
Referiu a empresa de Cupertino.
A Apple aumenta a monitorização de material CSAM
As razões por detrás da decisão da Apple de expandir a digitalização CSAM ainda não são completamente claras. Mas de acordo com uma conversa entre funcionários da Apple em 2020, descoberta como parte das alegações na batalha legal em curso entre a Apple e a Epic Games, o responsável anti-fraude Eric Friedman descreveu a Apple como “a maior plataforma para a distribuição de pornografia infantil”.
Apesar desta afirmação, acredita-se que o número total de casos CSAM descobertos pela Apple no iCloud Mail em cada ano é “medido às centenas”. Isso não parece tão significativo – embora apenas um seja totalmente inaceitável – considerando que milhares de milhões de dispositivos Apple são utilizados a nível mundial.
A expansão poderá sim ter algo a ver com o facto de alguns dos rivais da Apple, incluindo a Microsoft, estarem também a procurar conteúdo CSAM. A Apple pode ter sentido que não fica bem “na fotografia” se não avançar como outras plataformas estão a fazer.