WhatsApp acusa Apple de criar sistema de vigilância ao verificar pornografia infantil
As recentes medidas apresentadas pela Apple, em especial focadas na verificação de conteúdo de pornografia infantil pretendiam ser eficientes. A gigante de Cupertino quer proteger os utilizadores menores e detetar situações de abuso.
Também se sabia que este sistema iria causar alguns problemas e trazer algumas questões sensíveis em várias áreas. O WhatsApp parece ter sido um dos primeiros a apontar o dedo e acusa a Apple de criar sistema de vigilância ao verificar pornografia infantil.
Focada em proteger os utilizadores mais novos e outras crianças, a Apple vai trazer para os seus sistemas algumas medidas de segurança adicionais. Estas vão olhar para as imagens presentes no iCloud e detetar imagens de pornografia infantil.
Se este é um sistema focado no segurança e que procura garantir a privacidade, há quem o considere que, na verdade, é abusivo e viola algumas regras básicas. Quem primeiro procurou apontar falhas foi o responsável máximo do WhatsApp, que no Twitter revelou as suas opiniões.
This is an Apple built and operated surveillance system that could very easily be used to scan private content for anything they or a government decides it wants to control. Countries where iPhones are sold will have different definitions on what is acceptable.
— Will Cathcart (@wcathcart) August 6, 2021
Will Cathcart revelou que acredita que a Apple terá criado um sistema de vigilância que está a espiar os utilizadores do iCloud. Este poderá ser usado para pesquisar imagens de outros conteúdos que a Apple ou outro governo decida. Falou também na possibilidade de ser explorado na China e outros países, bem como para empresas de spyware.
A Apple terá respondido ao homem forte do WhatsApp, com mais dados deste sistema. A aprendizagem para avaliação é feita com imagens fornecidas e controladas por entidades fiáveis, não podendo por isso ser usado para identificar outros conteúdos.
Can this scanning software running on your phone be error proof? Researchers have not been allowed to find out. Why not? How will we know how often mistakes are violating people’s privacy?
— Will Cathcart (@wcathcart) August 6, 2021
Mas Will Cathcart não foi o único a manifestar-se contra o novo programa da Apple. Também a EFF mostrou-se apreensiva pelo que designou como um sistema de backdoor oficial e visível para todos. Outro caso foi o do conhecido Edward Snowden, que falou num sistema de vigilância global.
É normal a posição de Will Cathcart e do WhatsApp. Tanto a Facebook como o próprio WhatsApp têm tido problemas com as novas regras de privacidade da Apple, não perdendo agora a oportunidade de apontar o dedo no que muitos julgam ser uma situação similar.
Este artigo tem mais de um ano
O WhatsApp está preocupado com a privacidade das pessoas??? A sério?
Ainda faltam uns meses para o 1º de Abril…
Apesar da ironia as preocupações que eles levantaram são válidas…
As pessoas que viram as suas fotos roubadas do iCloud riram-se…
Perfeitamente de acordo… Afinal quem é a Apple para determinar o que é ou não pornografia infantil? É até que ponto isto é sequer legal?
Não estou a dizer que a ideia é má, mas acho que ultrapassa e muito aquilo que são os parâmetros normais de uma mera empresa tecnológica.
A base de dados usada para comparar as hashes é oficial, não é da Apple.
Abc
Em algum lugar a captação dessas hash’s também se tornaram ilegais para se poder fazer uma comparação. No entanto um ficheiro cifrado trás uma hash diferente da original sem poder dar a capacidade de comparar com seja o que for.
Não. São imagens capturadas por agências policiais.
Abc
Esperemos contudo que somente as hash dessas “supostas” agencias sejam partilhadas sem mais nada atrelado.
Não sei qual é o grau de compliance com as normas de segurança que o negócio da cloud da Apple é obrigada a seguir, mas penso que a existir, facilmente a utilização correcta do sistema de vigilância anti pedofilia será auditada regularmente. De resto é uma excelente medida pois as imagens colocadas na cloud são comparadas contra uma base de dados oficial de crianças desaparecidas ou exploradas sexualmente de forma automatizada e só passam para um nível de analise superior caso exista correspondência. Não sei como se pode colocar a privacidade dos utilizadores acima de um interesse tão nobre como o da protecção de menores.
Porque a ideia original até pode ser nobre mas cria uma caixa de Pandora, quem é que decide o que deve ou não ser auditado? Começas com a proteção de menores, até aí tudo bem todos estamos de acordo, depois governos podem exigir que outro tipo de fotos possam ser auditadas, procura de criminosos em que alguns estados são apenas opositores do regime, minorias, pessoas homossexuais em que alguns países é considerado crime, etc, etc…
No ocidente a Apple ainda pode tentar combater abusos de governos em tribunal, mas em países como a Rússia ou a China não têm outra hipótese…
O maior problema é que o sistema está a ser testado no icloud mas, para ficar baseado em cada telemóvel. Aquando de ser instalado, a Apple receberá TODAS as fotos que o sistema encontre no telemóvel, para serem analisadas. A ferramenta já apareceu nas betas do IOS14.8, que cria um zip com thumbnails criados dentro de várias directorias ligadas ás câmaras e que é enviado para os servidores da Apple. O que vai criar um big brother que tiras uma foto, um thumbnail é guardado e ao ligares à net é enviado para a Apple analisar se a foto é legal ou não.
Começa com pornografia, segue para a pirataria e acaba em registo de todas as informações existentes nas imagens… desde a identificação das pessoas ao local.
Bolas , devias escrever um thriller , porque nada disso acontece.
“ Aquando de ser instalado, a Apple receberá TODAS as fotos que o sistema encontre no telemóvel, para serem analisadas”
Esta invenção é espetacular.
Abc
És muito ingénuo, tudo isso já acontece, eles apenas querem tornar o processo aceite pelas pessoas, utilizando as criancinhas como a Porta de entrada, para tornar a coisa legal.
Tem toda a razão Paulo Martins. O grande problema são os abusos, mas quanto a esses já existiam sem o tratamento automatizado de grandes volumes de informação, por parte dos estados autoritários ou ditatoriais. Neste caso, o mecanismo está a ser implementado numa país de fortes tradições democráticas, com separação de poderes e tribunais que garantem (ou devem garantir) o cumprimento das leis constitucionais. Sem conhecer os detalhes, tenho a certeza de que a Apple terá um enquadramento legal que lhe permita actuar desta forma, num âmbito mais alargado de perseguição a pedófilos e abusadores aprovado pelas autoridades competentes. Também não conseguiria compreender se o fizesse por sua livre e espontânea vontade sem apoio do próprio Estado.
A questão é que a Apple tem que obedecer às regras dos países onde está presente, nos EUA e na Europa há vários mecanismos que em teoria deverão impedir abusos, mas a Apple na China tem que obedecer às regras do CCP e igualmente em outros países, para além disso e eu não sou nada de teorias de conspiração mas os movimentos nos extremos do espectro político têm ganho força nas democracias ocidentais por isso os valores que neste momento damos como garantidos podem mudar de um momento para o outro.
O problema é que Apple está a colocar a verificação DENTRO do IOS. TUDO o que faças com o telemóvel, enviará thumbnails para a Apple analisar se é perigoso ou permitido… por exemplo, tiras uma foto com um cd, a Apple recebe a foto e avança com um processo contra ti por estares a violar os direitos de autor, ao usares uma foto que tem copyright. E terás de pagar uma multa, porque aceitaste que a Apple te defenda de tudo… e defenda os direitos de tudo.
Manuel da Costa, não me parece que a verificação dos ficheiros seja feita dentro do IOS mas sim no iCloud, pois foi o que depreendi ao ler a notícia e por outro lado parece ser muito mais viável. Não acredito que nenhuma entidade pudesse arrombar as portas de uma casa para ver se lá existem fotos de pedofilia, a menos que existam fortes suspeitas e a autorização de um tribunal, para usar um exemplo grosseiro… Tratando-se de armazenamento na cloud, aí a legislação de base que enquadra a actuação da Apple será talvez diferente. Estou em crer que a Apple não daria tal passo sem um enquadramento legal que possibilitasse essa actuação ou punha-se a jeito para falir com uma valente “class-action lawsuit” que perderia, pelo menos nos EUA. Portanto, sem saber mais, penso que existe um forte enquadramento legal que possibilite à Apple implementar o tal mecanismo. Também me parece que o objectivo da verificação de imagens não tem a ver com a violação dos direitos de autor, mas apenas com a questão da exploração sexual de menores, que é realmente de extrema importância.
Não inventes. Não é nada disso.
Abc
Então o Facebook não se virou contra a Apple? Vai sofrer as consequências. A seguir o Google faz o mesmo. No WhatsApp é só porno natural que estejam preocupados.
Caros, a Apple so esta a arranjar justificacao legal para visualizar fotos. Ja o podem fazer ou ja o faziam antes, seja apple ou whatsapp ou twitter ou facebook ou etc.
É no minimo intrigante o argumento usado para isso.
Discordo completamente desta pratica porque nao esta provado a sua utilidade assim como as proximas vezes serao notificadas as autoridades assim que te virem agarrado a outra pessoa seja no bom sentido ou no mau sentido.
Todos tem um sentido de voyeirismo que é alarmante.
Evitem é estes servicos que de bom nao tem nada assim como os dados biometricos que ja devem estar todos nos servidores da apple.
Ainda bem que não uso nada da Apple, os pseudo defensores da privacidade
NSA agradece. Snowden avisou, e teve de fugir. O regime mais criminoso do mundo (EUA) agora quer vigiar toda a gente. Tiras uma foto de un Israelita a assassinar uma criança, e vais para a lista negra do “terrorismo”. Fotografas um polícia a assassinar um cidadão, e vais preso. O que difere esta “boa intenção” da Apple da mais recente lei de Orbán também para “proteger as crianças”? A diferença é que a lei homofóbica de Orbán é contra uma minoria e tem destaque, já esta da NSApple é contra todos nós e por isso quase ninguém a noticiará! E ainda há por aqui iludidos que pensam que estão protegidos no Ocidente, que a ” democracia liberal” e o “Estado de Direito” os salvará dos abusos. Meus caros, a única diferença entre a “democracia” e a ditadura é a propaganda. Os presos políticos catalães e o jornalista Assange que o digam! Há até iludidos que acham que se estão a informar com “notícias” ao verem telejornais nos média mainstream. Vocês, distraídos do ocidente, já ficaram sem democracia nem liberdade, e nem deram por isso. Alguns até foram na cantiga do “não tenho nada a esconder” e abdicaram disso volutariamente só para se poderem distrair numa “rede social” qualquer. Querem democracia? Precisam de liberdade. Querem liberdade? Precisam de privacidade. Tudo o resto é propaganda e desonestidade intelectual de quem vos quer filmar e gravar dentro do vosso próprio quarto e casa de banho (ou até já o fazia, tal como Snowden denunciou). E onde é que este herói corajoso teve de se refugiar? Na “ditadura” da Rússia. Pois…
Portanto, façam como Zuckerberg (que percebe alguma coisa do próprio ofício…) e evitem ser vigoados. Fita cola preta nas cãmaras e isoladora nos microfones. E cloud nem pensar. Rede social só com anonimato e sem info pessoal. Email só em servidor fora dos EUA, tipo Suíça. Paguem se for preciso, caso cobtrário, se for “gratuito” é porque estão a pagar com o corpo!
Eu tinha email na Lavabit, tal como Snowden. Como recusou este tipo de violação da privacidade, o FBI obrigou-os a encerrar negócio. Já o GMail fucionou sempre…
Por falar nisso, duvido que seja publicado aqui, num site alinhado com o regime, ao usar email da lavabit. A minha opinião não interessa, sei demais, incomodo quem não quer ser incomodado. Ao pé disto, a censura da PIDE parecia uma brincadeira de criança…
Custa-me imenso a compreender omo e que alguem pode utilizar proditus apple depois disto,…
estamos a falar da mesma apple e passo a citar:
“This is the same Apple that would not crack a phone belonging to a terrorist because of his “rights”.
Uma família inteira em uma praia nudista ou em casa desnudos. O programa iria identificar as fotos como pornografia infantil?
Será que eles têm provas e motivos para tomar essa atitude?
Será que eles detectaram de forma anonima essas imagens?
Porra ninguém se deu ao trabalho de perceber como funciona.
Não há verificação de fotos. Fazem verificação de hashes contra um base de dados oficial.
Abc
Ó especialista, nos que nao percebemos o que sao hashes, explica me, como é que uma hash é identificadora das pessoas, porque eu nao percebo nasa disto. Ate gostava que explicasses para o grupo como funciona, mas passo a passo. Nos trabalhamos na area da imagem e nao percebo esta questao das hashes que parece facil.
Isso é fácil:
https://pplware.sapo.pt/apple/como-funciona-o-novo-sistema-da-apple-para-verificacao-de-conteudo-de-pornografia-infantil/
Abc
Tu nao percebes nada de imagens e hashes e etc, e ja agora de software de tratamento de imagens? Talvez seja melhor nao comentares o que nao sabes!
Mas se souberes mesmo explica me la o que é uma hash para comecar. Mas coisa simples para quem nao entende.
Foi o mais básico que encontrei :
Image hashing is the process of using an algorithm to assign a unique hash value to an image. Duplicate copies of the image all have the exact same hash value. For this reason, it is sometimes referred to as a ‘digital fingerprint’.
Abc
Sim as hashes sao usadas para as imagens duplicadas mas nao para variacoes de imagens com a mesma pessoa.
Alguém pode me ajudar por favor? O WhatsApp tá totalmente bugado no meu celular, ontem dois amigos meus me ligaram em Grupo, porém eu rejeitei, ignorei, e aquilo continua aparecendo, já reiniciei meu celular e não deu em nada, continua lá aparecendo, tentem ver se o WhatsApp tá com problemas de chamadas em grupo por favor!
Cada vez que temos mais segurança, na mesma proporção que a obtemos , perdemos a nossa liberdade.
Um dia acordaremos encostados a uma parede onde respirar é quase impossível.