Apple já está a verificar os e-mails à procura de material de abuso de crianças
A Apple quer mesmo remover do seu ecossistema qualquer material que seja relacionado com abuso de crianças. Esta ação levou já à deteção e acusação de um utilizador que tinha mais de 2 mil imagens e vídeos na sua conta iCloud.
Apesar de só agora se estar a abordar mais o tema, porque é um sistema que será incluído no iOS 15 e iPadOS 15, a Apple já o utilizava no iCloud Mail.
Muitos fãs Apple ficaram aborrecidos com o plano da empresa de começar a monitorizar os uploads de fotografias para o iPhone e iPad, no iOS 15, de material relacionado com abusos de crianças (CSAM). Contudo, a Apple já o fazia no iCloud, mais concretamente no serviço de email.
A empresa já tinha o sistema ativo para detetar pornografia infantil no correio eletrónico do iCloud, apesar de não o fazer no iCloud Fotografias ou no iCloud Drive.
Aliás, foi justamente com o serviço ativo que a empresa detetou que um médico guardava mais de 2 mil imagens e vídeos na sua conta iCloud.
Quando começou a Apple a usar o sistema de deteção CSAM?
Muito embora só agora a empresa tenha anunciado com mais detalhe a utilização do sistema que irá monitorizar os uploads de imagens para os iPhone e iPad, a Apple já o usava há algum tempo.
Segundo o que foi revelado na CES em janeiro de 2020, o sistema de deteção Child Sexual Abuse Material ou CSAM, começou a ser usado no iCloud Mail em 2019. Diz a gigante de Cupertino que as contas que tenham conteúdo CSAM violam os seus termos e condições, e serão desativadas.
Depois do anúncio recente, houve um coro de vozes de discordância do novo sistema. No entanto, é de total interesse dos responsáveis que avance o rastreio.
O sistema preserva a privacidade dos utilizadores?
A Apple assegura que todos os utilizadores terão total privacidade e segurança. O novo sistema de deteção de material de abuso sexual infantil (CSAM) utiliza a aprendizagem automática para analisar anexos de imagem e determinar se uma foto é sexualmente explícita.
A funcionalidade é concebida de modo a que a Apple não tenha acesso às imagens.
Apesar da explicação da Apple, os defensores da privacidade não gostam deste sistema. Alguns dos próprios funcionários da Apple manifestaram as suas preocupações a este respeito.
As organizações de direitos têm exortado Tim Cook a matá-lo antes mesmo de começar a chegar aos iPhones e iPads nos Estados Unidos. Contudo, a monitorização CSAM não é novidade na Apple.
Tal como os filtros de spam no correio eletrónico, o nosso sistema utiliza assinaturas eletrónicas para encontrar suspeitas de exploração infantil. Validamos cada correspondência com análise individual.
Contas com conteúdo de exploração infantil violam os nossos termos e condições de serviço, e quaisquer contas que encontrarmos com este material serão desativadas.
Referiu a empresa de Cupertino.
A Apple aumenta a monitorização de material CSAM
As razões por detrás da decisão da Apple de expandir a digitalização CSAM ainda não são completamente claras. Mas de acordo com uma conversa entre funcionários da Apple em 2020, descoberta como parte das alegações na batalha legal em curso entre a Apple e a Epic Games, o responsável anti-fraude Eric Friedman descreveu a Apple como "a maior plataforma para a distribuição de pornografia infantil".
Apesar desta afirmação, acredita-se que o número total de casos CSAM descobertos pela Apple no iCloud Mail em cada ano é "medido às centenas". Isso não parece tão significativo - embora apenas um seja totalmente inaceitável - considerando que milhares de milhões de dispositivos Apple são utilizados a nível mundial.
A expansão poderá sim ter algo a ver com o facto de alguns dos rivais da Apple, incluindo a Microsoft, estarem também a procurar conteúdo CSAM. A Apple pode ter sentido que não fica bem "na fotografia" se não avançar como outras plataformas estão a fazer.
Este artigo tem mais de um ano
Pois… Privacidade, mas analisam o conteúdo..e pelo que diz o artigo, desde há 2 anos. Estava nos termos descrito que o faziam? Ou era como ouvirem clips de áudio da Siri?
Sim, todas o fazem mas a Apple é que tende a nao ser muito de revelar o que relamente faz para defender a bandeira da privacidade. Falem na automação, vao dizer que o sistema sabe distinguir a foto que um pai tira a um bebe na praia nu, de uma foto no mesmo contexto mas de uma pessoal mal intencionada a forografar crianças? Clado que nao, carece sempre de analise manual e humana e depois lá está.. humanos a ver fotos que podem ser normais, dos filhos de alguém em que nenhum cliente Apple autorizou terceiros a ver, e provacelmente nao vem isso detalhado nos termos e condicoes do serviço.
Sao todas iguais. Todas falam de privacidade e controlo mas tudo o que vai para os servidores deles, eles sao donos e nao o cliente.
E ainda diz no artigo que apple esta a expandir isto para copiar a concorrência… Pois e pensava se que so a concorrencia copiava a apple nestas questões de privacidade
Sabes que a Google, Amazon e Microsoft são das maiores empresas no mundo no que toca aos serviços de armazenamento cloud. Usam sistemas para garantir que o material ilícito, sujeito a intervenção judicial, não para nos seus serviços, a Apple, que por um lado tem os seus sistemas cloud, por outro que é cliente de uma dessas empresas, da Google, tem de estar alinhada no que toca ao não armazenamento deste tipo de conteúdo. E muito bem.
Claro que continua a ter um serviço super seguro e com muita privacidade, desde que o cliente não tenha pornografia infantil. Caso o tenha, o método automático irá detetar, confrontar com bases de dados de organizações de com até aos abusos de crianças e espoletara uma ação de vigilância e, se for o caso, de denúncia as autoridades.
Portanto, só tem de estar preocupado quem é criminado. E esses devem estar no lugar que lhes pertence, o chilindró.
Oh Vitor, isso é tudo muito bonito, mas se conseguem, de forma automática (justificação para poder ver ficheiros privados), ver se tem pornografia infantil também consegue ver se tem segredos empresariais, pessoais, fotos provadas, documentos privados, … por isso dizer que “Claro que continua a ter um serviço super seguro e com muita privacidade”. Com muita privacidade onde?
Se não tiveres pornografia infantil, não tens de te preocupar. Mesmo que alguém tenha, e tenha outros conteúdos, só os que coincidem com as bases de dados das entidades é que são sinalizados. O resto a Apple não os consegue ver, estão criptografados e a hash não corresponde. Nada a temer e nada será visto pela Apple.
O sistema, como a Apple explicou, e como outras empresas, tais como a Microsoft e Google, usa um tecnologia de verificação automática da hash. Portanto, como os ficheiros são cifrados, apenas parte desse ficheiro será comparado. O processo não tem intervenção humana, é tudo automático. Além disso, tem de corresponder pelo menos a 30 exemplos, para evitar falsos positivos.
Se esses 30 exemplos forem detetados, então a Apple, ao abrigo primeiro dos termos de utilização do seu serviço, e depois segundo a lei, analisa já com supervisão humana o conteúdo criminoso encontrado para o entregar à justiça.
A lei assim exige, porque a pornografia infantil é um crime de natureza pública.
Então, estes crimes de natureza pública podem e devem ser denunciados por qualquer pessoa que deles tenha conhecimento, bastando para tal a mera suspeita, não sendo necessário juntar provas. Apenas é necessário transmitir o maior número de informações de que se dispõe sobre a situação (nomes, moradas, locais, escola/turma da vítima, etc.).
Após a comunicação, as autoridades estão obrigadas a iniciar uma investigação para apurar a suspeita relatada, e abre-se então um processo-crime, que decorre independentemente da vontade da vítima.
Portanto, se as pessoas não tiverem pornografia infantil nos seus iPhones e iPads, nem como no iCloud, podem ter a certeza que têm os dados no melhor serviço face à segurança e privacidade. Só está preocupado quem tem o rabo preso.
“Se não tiveres pornografia infantil, não tens de te preocupar”. Só essa frase demonstra toda a sua ingenuidade.
A minha ingenuidade ou a tua falta de conhecimento? Eu diria mais que é a tua falta de conhecimento. Mandar bitaites demonstra falta de informação.
“Aliás, foi justamente com o serviço ativo que a empresa detetou que um médico guardava mais de 2 mil imagens e vídeos na sua conta iCloud.” Pois,foi por causa disto que tudo despoletou.Excelente reação da Apple.Tem que ser assim.Fez muito bem.
Não sei porque se deram ao trabalho de fazer a revolução dos cravos em Portugal… “Tem que ser assim…” Típica reacção de quem está prontinho a viver sob um regime ditatorial.
Estás a confundir liberdade com anarquia. Cuidado, isso é perigoso… para ti, claro.
Ser livre não é poderes violar as leis e as regras. É outra coisa completamente diferente.
Pena é que só agora é que se lembrou, quando a concorrência já o faz há vários anos… Mais uma “inovação”.
Privacidade é a palavra cuja a Apple vende, mas que não tem qualquer significado. Na volta qualquer dia ficamos a saber que afinal andam a vender os dados dos utilizadores a empresas terceiras, ou a governos.
Não sou contra à caça a pedófilos, mas neste caso específico, é vender banha de cobra a cegos…
Bem pelo contrário. A Apple tem nos termos do serviço o que se pode e o que nos se pode fazer. Se não se pode ter material ilegal, a empresa, através de métodos automáticos, sem intervenção humana, certifica-se que o utilizador cumpre. Cumprindo, a segurança e privacidade estão garantidas. Não cumprindo, não deve usar o serviço. É simples.
Não queiramos subverter as regras. 😉 porque estão bem explícitas.
Mas quem é a Apple ou qualquer outra empresa para serem juízes e executores? Qual é a regra que lhes dá esse poder? Essa história do automatismo para controlar já não cola… A NSA também dizia o mesmo, só que não.
É a lei.
Os crimes de natureza pública podem e devem ser denunciados por qualquer pessoa que deles tenha conhecimento, bastando para tal a mera suspeita, não sendo necessário juntar provas. Apenas é necessário transmitir o maior número de informações de que se dispõe sobre a situação (nomes, moradas, locais, escola/turma da vítima, etc.).
Após a comunicação, as autoridades estão obrigadas a iniciar uma investigação para apurar a suspeita relatada, e abre-se então um processo-crime, que decorre independentemente da vontade da vítima.
”Argumentar que você não se importa com o direito à privacidade porque você não tem nada a esconder não é diferente de dizer que você não se importa com a liberdade de expressão porque você não tem nada a dizer.”
Fonte: https://citacoes.in/autores/edward-snowden/?page=2
É uma forma simplista de desviarmos a atenção do assunto. Basicamente existem as regras, desrespeitando-as, incorrendo num crime, haverá direito a ter privacidade (direito a esconder as provas do crime) sendo um criminoso? É que só no crime é que existe o exercício de fiscalização. Portanto, não se aplica essa frase verdadeira, apesar de poética, num crime. Isso é passar um atestado de burrice a quem cumpre a lei.
Polícias e investigações para quê? Dêem mas é logo autorização ás grandes empresas para governar, elas já controlam as comunicações e forçam mentalidades mesmo 🙂
Elas que decidam que morre e quem vive com base na estatística, quem for mais propício a cometer crimes vai logo para a prisão ou então para clássica forca. O Hitler iria adorar ter um sistema desses, em vez de usar a detecção CSAM iria utilizar a sua base de dados JUDEUS
Isto é muito, mas mesmo muito perigoso.
E se de repente não nos damos conta e começam a existir modelos de deteção sobre tendências politicas ou sociais nas contas dos utilizadores?
A segmentação por parte de um poder instituído que venha a querer fazer uma purga poderá usar este tipo de estratégia. Será o mesmo que um “fiscal” vir a nossa casa descobrir o que guardamos nas gavetas de casa ou nos cofres do nosso banco.
A não ser que se crie alguma salvaguarda bem fundamentada, poderemos correr o risco de inocentes serem arrastados para a lama e não será fácil repor qualquer erro.
Tempos difíceis estes que nunca sequer pude imaginar.
A Apple esteve muito mal, é a prova que uma empresa Europeia não pode confiar na cloud da Apple, pois a América é conhecida por violar a privacidade das empresas internacionais para ganhar vantagem em muitos negócios.
É a prova se queremos alguma privacidade na Cloud temos que encriptar com ferramentas de terceiros antes de enviar para qualquer cloud, mesmo quando elas (cloud) afirmam que tem encriptação.
Bem pelo contrário. A Apple, no que toca à segurança e privacidade é a melhor empresa, a com melhor cotação no mercado. Essa é uma das razões para o iCloud ter utilizadores que guardam esse conteúdo ilícito. A Apple quer limpar de vez esses utilizadores, não lhes interessam (como referiu o responsável da empresa pelo sistema anti-fraude, no processo Epic Gam4s vs App,e). Só está preocupado e crítico quem tem algo a temer. Doutro modo não há razões para preocupação, dado que o sistema já funciona há alguns anos e sempre com total sucesso, havendo casos detetados e condenados pela justiça. 😉
Vítor eu não estou a defender os pedófilos, não misture alho com bugalhos.
E a treta “quem não deve não teme” também não é argumento.
Infelizmente a Apple com isto veio comprovar que afinal não é seguro meter dados na cloud deles porque o suposto “encriptado” não existe a empresa e seus funcionários podem aceder ao material!
mas concorda que analisar iCloud é uma coisa, analisar´conteudo do telemovel de um individuo é outra coisa distinta, certo?
Upload de conteúdo.
Acho obviamente que é por um motivo nojento e gravíssimo e não descordo mas… usarem o argumento da privacidade para se diferenciar das outras marcas… Temos de ser coerentes se têm de fazer rastreios, têm de ver os conteúdos, e como não sabem quem são os pedófilos/as vão abrir informação pessoal e empresarial de todos os users Apple é simples privacidade não existe! E se ainda por cima a 2 anos que o fazem sem que os users saibam… mas é bom para a malta que usa o argumento da privacidade para meter a Apple no pedestal abrir os olhos e perceber que a Apple é uma marca como todas as outras com qualidades e defeitos, quer por um motivo ou por outro a privacidade na internet não existe. Nem com Apple como é lógico!
Não entendeste ou estás a tentar enganar os outros (como te enganas a ti). A Apple não vai ver outros conteúdos, deixa de dizer asneiras. Só vai detetar as hashes que coincidirem com as imagens das bases de dados de abusos de crianças fornecidas pelas autoridades e organizamos de combate à pornografia infantil.
O sistema é todo ele automático, e se nenhuma hash for encontrada, nunca a Apple irá olhar para dentro das contas. É o serviço mais seguro que existe. Por isso tem sido um problema com esse tipo de conteúdo, conforme é referido ()e irias ver, se lesses).
Somente se houver conteúdo CSAM é que será validado posteriormente por humanos (e tem de ter mais de 30 “coincidências). Portanto, se ninguém tiver esse conteúdo, ninguém, a não ser o proprietário da conta, terá acesso aos conteúdos. Fica tranquilo, basta não teres este conteúdo ilegal e ninguém irá querer saber o que tens dentro da conta. Acalma-te.
A Apple é a empresa que mais trabalha e desenvolve sistemas no que toca à segurança e privacidade. E o iOS 15, assim como o iPadOS 15 trazem ainda mais segurança na navegação e na utilização dos recursos do Safari (além de outros mecanismos, mostrados nop iOS 13 e iOS 14, como o esconder o endereço eletrónico, IP, etc.)
Sobre os dois anos de utilização. Bem, tu estás mesmo fora da realidade. O serviço da Apple tem essa referência nas regras. Se as aceitas, aceitas tudo. E mais, a Apple forneceu na altura informação sobre o assunto, como foi devidamente referido no artigo e deixado o link para a comunicação. Só que não viste 😉 não quiseste ver.
Tens de ler bem primeiro para não te enganares, mas sobretudo para não tentares enganar terceiros com comentários cheios de argumentos errados.
Oh Vítor… fica com a taça! 😀
Eu sei, os argumentos esfumam-se. Em vez de perderes tempo a organizar ideias disparatas e erradas, ganhavas mais com um pouco mais de tempo a ler o que é dito 😉
Este sistema tem um erro!! Existe ferramentas para mudar a hash de uma imagem!! Portanto muitos vão escapar!!
Omg. Eu sei bem como funciona a verificação de conteúdo. “Validamos cada correspondência com análise individual.” Aqui está a chave. Concerteza que não será só o sistema a fazer a verificação. Deves ser pago a peso de ouro para defender a Apple só pode, pelo que tenho visto ao longo do tempo em certos comentários… Chega a ser triste… Sorry tive mesmo que comentar. Abc
Tu deves é ser pago para dizer asneiras, arre. A Apple explicou que o sistema automático é usado para detetar hashes correspondentes com os exemplos contidos nas bases de dados CSAM. Em vez de perderes tempo a dizer disparates, vai-te informar. O sistema precisa de pelo menos 30 indícios para evitar os falsos positivos, só depois passa para a análise humana, com auxílio das entidades e autoridades dedicadas ao combate da pornografia infantil.
Estás a ser um triste porque não sabes ler. E é fácil perceber que era impossível a Apple ter milhões de utilizadores a fazer upload de imagens e pessoas, humanos, a olhar para conteúdos que possam estar enquadrados com ilícitos em causa. Aliás, bastava usares o cérebro para perceber que isso era impossível.
Obrigado por confirmares. Passa mesmo pela análise humana!!! O anjinho deve pensar que o sistema é infalível e só vai enviar as imagens ilegais. Idiot, omg.
Como acabas o teu comentário, que é sem dúvida a tua assinatura pessoal, diz muito sobre ti. Contudo, não precisas de te envergonhar a esse ponto. Eu explico de novo, e mais d e v a g a r . . .
Portanto, não há intervenção humana nem qualquer análise nos conteúdos legais que são enviados para o iCloud. O que me parece que te confunde essa cabeça distraída é haver um sistema automático que vai verificar conteúdos de pornografia infantil.
Sim existe, esse conteúdo, que também está cifrado, será comparado, via a sua hash (sem a Apple saber o que lá está) com uma base de dados CSAM.
São precisos, diz a Apple, pelo menos 30 ficheiros (parte deles, a tal hash) detetados para evitar falsos positivos. Havendo então este conteúdo detetado (tudo por sistemas automáticos) passa depois para o nível de verificação humana. Passa depois para a esfera das autoridades judiciais e entidades de combate à pornografia infantil.
Esta será uma forma eficaz, já que o sistema CSAM está maduro, pois é usado há vários anos, quer pela Apple, Microsoft, Google, etc…
Existe um relatório muito interessante da Google sobre o seu trabalho nesta área: https://transparencyreport.google.com/child-sexual-abuse-material/reporting
Claro que muitos criminosos estão cada vez mais preocupados, porque o cerco está a fechar-se.
Penso que foi devagar o suficiente para p e r c b e r e s, c e r t o?
Vitor, pode parecer conspiração mas imagina o seguinte cenário num mundo gerido por potencias governadas por ditadores.
Pegam em conteúdos considerados ilícitos a luz das tendências politicas ou sociais e criam um hash com a mesma tecnologia. Injetam algum tipo de sistema nos equipamentos e clouds para detetar padrões da mesma hash.
Perseguem os proprietários ou os incitam sob ameaça a mostrar e a provar que não são contra o sistema porque por alguma razão a tecnologia os mostrou poder terem isso escondido.
Dá para imaginar? Ou estou agora a sonhar com um “Black Mirrow”?
Para que raio iam fazer isso se podem ir por métodos bem mais rápidos? Então não se viu o que foi contratado com o malware pegasus? Foi caro? Pois deve ter sido, mas o preço não é problema. E mais, o sistema só deteta se houver coincidência, 30 pelo menos, com as hashs das bases de dados das organizações. Não há outra forma de contornar o esquema. E isso já é feito atualmente pela Microsoft e Google.
A Apple vai é dar um passo mais além fazendo o rastreio quando as fotos caem no rolo de fotos da app Fotografias, que tem sincronização com o iCloud.
Tal como introduziu em 2019 no iCloud mail, e nunca nada se passou de estranho, bem pelo contrário, levou foi criminosos à justiça, o mesmo será com o método agora a implementar.
Desde 2019 que o fazem sem qualquer notificação. Pesquisem pela notícia da CNET desta semana.
E da mais tecnologia que também referem que o fazem desde 2019!
O maior problema é em sistemas fechados como o da Apple não se saber ao certo como os nossos dados são tratados e os erros que podem acontecer ou a sua instrumentalização. Por mero acaso encontrei a seguinte reportagem que mostra uma terrível caixa de Pandora que a Apple pode estar a abrir ou já abriu ?!
https://www.forbes.com/sites/gordonkelly/2021/08/28/apple-iphone-warning-csam-threat-edward-snowden-upgrade-ios-15-privacy/