Quantcast
PplWare Mobile

Apple já está a verificar os e-mails à procura de material de abuso de crianças

                                    
                                

Autor: Vítor M.


  1. FC says:

    Pois… Privacidade, mas analisam o conteúdo..e pelo que diz o artigo, desde há 2 anos. Estava nos termos descrito que o faziam? Ou era como ouvirem clips de áudio da Siri?
    Sim, todas o fazem mas a Apple é que tende a nao ser muito de revelar o que relamente faz para defender a bandeira da privacidade. Falem na automação, vao dizer que o sistema sabe distinguir a foto que um pai tira a um bebe na praia nu, de uma foto no mesmo contexto mas de uma pessoal mal intencionada a forografar crianças? Clado que nao, carece sempre de analise manual e humana e depois lá está.. humanos a ver fotos que podem ser normais, dos filhos de alguém em que nenhum cliente Apple autorizou terceiros a ver, e provacelmente nao vem isso detalhado nos termos e condicoes do serviço.
    Sao todas iguais. Todas falam de privacidade e controlo mas tudo o que vai para os servidores deles, eles sao donos e nao o cliente.
    E ainda diz no artigo que apple esta a expandir isto para copiar a concorrência… Pois e pensava se que so a concorrencia copiava a apple nestas questões de privacidade

    • Vítor M. says:

      Sabes que a Google, Amazon e Microsoft são das maiores empresas no mundo no que toca aos serviços de armazenamento cloud. Usam sistemas para garantir que o material ilícito, sujeito a intervenção judicial, não para nos seus serviços, a Apple, que por um lado tem os seus sistemas cloud, por outro que é cliente de uma dessas empresas, da Google, tem de estar alinhada no que toca ao não armazenamento deste tipo de conteúdo. E muito bem.

      Claro que continua a ter um serviço super seguro e com muita privacidade, desde que o cliente não tenha pornografia infantil. Caso o tenha, o método automático irá detetar, confrontar com bases de dados de organizações de com até aos abusos de crianças e espoletara uma ação de vigilância e, se for o caso, de denúncia as autoridades.

      Portanto, só tem de estar preocupado quem é criminado. E esses devem estar no lugar que lhes pertence, o chilindró.

      • Artur Peralta says:

        Oh Vitor, isso é tudo muito bonito, mas se conseguem, de forma automática (justificação para poder ver ficheiros privados), ver se tem pornografia infantil também consegue ver se tem segredos empresariais, pessoais, fotos provadas, documentos privados, … por isso dizer que “Claro que continua a ter um serviço super seguro e com muita privacidade”. Com muita privacidade onde?

        • Vítor M. says:

          Se não tiveres pornografia infantil, não tens de te preocupar. Mesmo que alguém tenha, e tenha outros conteúdos, só os que coincidem com as bases de dados das entidades é que são sinalizados. O resto a Apple não os consegue ver, estão criptografados e a hash não corresponde. Nada a temer e nada será visto pela Apple.

          O sistema, como a Apple explicou, e como outras empresas, tais como a Microsoft e Google, usa um tecnologia de verificação automática da hash. Portanto, como os ficheiros são cifrados, apenas parte desse ficheiro será comparado. O processo não tem intervenção humana, é tudo automático. Além disso, tem de corresponder pelo menos a 30 exemplos, para evitar falsos positivos.

          Se esses 30 exemplos forem detetados, então a Apple, ao abrigo primeiro dos termos de utilização do seu serviço, e depois segundo a lei, analisa já com supervisão humana o conteúdo criminoso encontrado para o entregar à justiça.

          A lei assim exige, porque a pornografia infantil é um crime de natureza pública.

          Então, estes crimes de natureza pública podem e devem ser denunciados por qualquer pessoa que deles tenha conhecimento, bastando para tal a mera suspeita, não sendo necessário juntar provas. Apenas é necessário transmitir o maior número de informações de que se dispõe sobre a situação (nomes, moradas, locais, escola/turma da vítima, etc.).

          Após a comunicação, as autoridades estão obrigadas a iniciar uma investigação para apurar a suspeita relatada, e abre-se então um processo-crime, que decorre independentemente da vontade da vítima.

          Portanto, se as pessoas não tiverem pornografia infantil nos seus iPhones e iPads, nem como no iCloud, podem ter a certeza que têm os dados no melhor serviço face à segurança e privacidade. Só está preocupado quem tem o rabo preso.

          • Manuel says:

            “Se não tiveres pornografia infantil, não tens de te preocupar”. Só essa frase demonstra toda a sua ingenuidade.

          • Vítor M. says:

            A minha ingenuidade ou a tua falta de conhecimento? Eu diria mais que é a tua falta de conhecimento. Mandar bitaites demonstra falta de informação.

  2. SANDOKAN 1513 says:

    “Aliás, foi justamente com o serviço ativo que a empresa detetou que um médico guardava mais de 2 mil imagens e vídeos na sua conta iCloud.” Pois,foi por causa disto que tudo despoletou.Excelente reação da Apple.Tem que ser assim.Fez muito bem.

    • Omg not again... says:

      Não sei porque se deram ao trabalho de fazer a revolução dos cravos em Portugal… “Tem que ser assim…” Típica reacção de quem está prontinho a viver sob um regime ditatorial.

    • Secadegas says:

      Pena é que só agora é que se lembrou, quando a concorrência já o faz há vários anos… Mais uma “inovação”.

  3. Secadegas says:

    Privacidade é a palavra cuja a Apple vende, mas que não tem qualquer significado. Na volta qualquer dia ficamos a saber que afinal andam a vender os dados dos utilizadores a empresas terceiras, ou a governos.
    Não sou contra à caça a pedófilos, mas neste caso específico, é vender banha de cobra a cegos…

    • Vítor M. says:

      Bem pelo contrário. A Apple tem nos termos do serviço o que se pode e o que nos se pode fazer. Se não se pode ter material ilegal, a empresa, através de métodos automáticos, sem intervenção humana, certifica-se que o utilizador cumpre. Cumprindo, a segurança e privacidade estão garantidas. Não cumprindo, não deve usar o serviço. É simples.

      Não queiramos subverter as regras. 😉 porque estão bem explícitas.

      • Secadegas says:

        Mas quem é a Apple ou qualquer outra empresa para serem juízes e executores? Qual é a regra que lhes dá esse poder? Essa história do automatismo para controlar já não cola… A NSA também dizia o mesmo, só que não.

        • Vítor M. says:

          É a lei.

          Os crimes de natureza pública podem e devem ser denunciados por qualquer pessoa que deles tenha conhecimento, bastando para tal a mera suspeita, não sendo necessário juntar provas. Apenas é necessário transmitir o maior número de informações de que se dispõe sobre a situação (nomes, moradas, locais, escola/turma da vítima, etc.).

          Após a comunicação, as autoridades estão obrigadas a iniciar uma investigação para apurar a suspeita relatada, e abre-se então um processo-crime, que decorre independentemente da vontade da vítima.

      • Redin says:

        ‎”Argumentar que você não se importa com o direito à privacidade porque você não tem nada a esconder não é diferente de dizer que você não se importa com a liberdade de expressão porque você não tem nada a dizer.”‎

        Fonte: https://citacoes.in/autores/edward-snowden/?page=2

        • Vítor M. says:

          É uma forma simplista de desviarmos a atenção do assunto. Basicamente existem as regras, desrespeitando-as, incorrendo num crime, haverá direito a ter privacidade (direito a esconder as provas do crime) sendo um criminoso? É que só no crime é que existe o exercício de fiscalização. Portanto, não se aplica essa frase verdadeira, apesar de poética, num crime. Isso é passar um atestado de burrice a quem cumpre a lei.

  4. Elektro says:

    Polícias e investigações para quê? Dêem mas é logo autorização ás grandes empresas para governar, elas já controlam as comunicações e forçam mentalidades mesmo 🙂

    • Elektro says:

      Elas que decidam que morre e quem vive com base na estatística, quem for mais propício a cometer crimes vai logo para a prisão ou então para clássica forca. O Hitler iria adorar ter um sistema desses, em vez de usar a detecção CSAM iria utilizar a sua base de dados JUDEUS

  5. Redin says:

    Isto é muito, mas mesmo muito perigoso.
    E se de repente não nos damos conta e começam a existir modelos de deteção sobre tendências politicas ou sociais nas contas dos utilizadores?
    A segmentação por parte de um poder instituído que venha a querer fazer uma purga poderá usar este tipo de estratégia. Será o mesmo que um “fiscal” vir a nossa casa descobrir o que guardamos nas gavetas de casa ou nos cofres do nosso banco.
    A não ser que se crie alguma salvaguarda bem fundamentada, poderemos correr o risco de inocentes serem arrastados para a lama e não será fácil repor qualquer erro.
    Tempos difíceis estes que nunca sequer pude imaginar.

  6. Miguel says:

    A Apple esteve muito mal, é a prova que uma empresa Europeia não pode confiar na cloud da Apple, pois a América é conhecida por violar a privacidade das empresas internacionais para ganhar vantagem em muitos negócios.

    É a prova se queremos alguma privacidade na Cloud temos que encriptar com ferramentas de terceiros antes de enviar para qualquer cloud, mesmo quando elas (cloud) afirmam que tem encriptação.

    • Vítor M. says:

      Bem pelo contrário. A Apple, no que toca à segurança e privacidade é a melhor empresa, a com melhor cotação no mercado. Essa é uma das razões para o iCloud ter utilizadores que guardam esse conteúdo ilícito. A Apple quer limpar de vez esses utilizadores, não lhes interessam (como referiu o responsável da empresa pelo sistema anti-fraude, no processo Epic Gam4s vs App,e). Só está preocupado e crítico quem tem algo a temer. Doutro modo não há razões para preocupação, dado que o sistema já funciona há alguns anos e sempre com total sucesso, havendo casos detetados e condenados pela justiça. 😉

      • Miguel says:

        Vítor eu não estou a defender os pedófilos, não misture alho com bugalhos.
        E a treta “quem não deve não teme” também não é argumento.

        Infelizmente a Apple com isto veio comprovar que afinal não é seguro meter dados na cloud deles porque o suposto “encriptado” não existe a empresa e seus funcionários podem aceder ao material!

      • darth says:

        mas concorda que analisar iCloud é uma coisa, analisar´conteudo do telemovel de um individuo é outra coisa distinta, certo?

  7. Marco says:

    Acho obviamente que é por um motivo nojento e gravíssimo e não descordo mas… usarem o argumento da privacidade para se diferenciar das outras marcas… Temos de ser coerentes se têm de fazer rastreios, têm de ver os conteúdos, e como não sabem quem são os pedófilos/as vão abrir informação pessoal e empresarial de todos os users Apple é simples privacidade não existe! E se ainda por cima a 2 anos que o fazem sem que os users saibam… mas é bom para a malta que usa o argumento da privacidade para meter a Apple no pedestal abrir os olhos e perceber que a Apple é uma marca como todas as outras com qualidades e defeitos, quer por um motivo ou por outro a privacidade na internet não existe. Nem com Apple como é lógico!

    • Vítor M. says:

      Não entendeste ou estás a tentar enganar os outros (como te enganas a ti). A Apple não vai ver outros conteúdos, deixa de dizer asneiras. Só vai detetar as hashes que coincidirem com as imagens das bases de dados de abusos de crianças fornecidas pelas autoridades e organizamos de combate à pornografia infantil.

      O sistema é todo ele automático, e se nenhuma hash for encontrada, nunca a Apple irá olhar para dentro das contas. É o serviço mais seguro que existe. Por isso tem sido um problema com esse tipo de conteúdo, conforme é referido ()e irias ver, se lesses).

      Somente se houver conteúdo CSAM é que será validado posteriormente por humanos (e tem de ter mais de 30 “coincidências). Portanto, se ninguém tiver esse conteúdo, ninguém, a não ser o proprietário da conta, terá acesso aos conteúdos. Fica tranquilo, basta não teres este conteúdo ilegal e ninguém irá querer saber o que tens dentro da conta. Acalma-te.

      A Apple é a empresa que mais trabalha e desenvolve sistemas no que toca à segurança e privacidade. E o iOS 15, assim como o iPadOS 15 trazem ainda mais segurança na navegação e na utilização dos recursos do Safari (além de outros mecanismos, mostrados nop iOS 13 e iOS 14, como o esconder o endereço eletrónico, IP, etc.)

      Sobre os dois anos de utilização. Bem, tu estás mesmo fora da realidade. O serviço da Apple tem essa referência nas regras. Se as aceitas, aceitas tudo. E mais, a Apple forneceu na altura informação sobre o assunto, como foi devidamente referido no artigo e deixado o link para a comunicação. Só que não viste 😉 não quiseste ver.

      Tens de ler bem primeiro para não te enganares, mas sobretudo para não tentares enganar terceiros com comentários cheios de argumentos errados.

      • Marco says:

        Oh Vítor… fica com a taça! 😀

      • Ale says:

        Omg. Eu sei bem como funciona a verificação de conteúdo. “Validamos cada correspondência com análise individual.” Aqui está a chave. Concerteza que não será só o sistema a fazer a verificação. Deves ser pago a peso de ouro para defender a Apple só pode, pelo que tenho visto ao longo do tempo em certos comentários… Chega a ser triste… Sorry tive mesmo que comentar. Abc

        • Vítor M. says:

          Tu deves é ser pago para dizer asneiras, arre. A Apple explicou que o sistema automático é usado para detetar hashes correspondentes com os exemplos contidos nas bases de dados CSAM. Em vez de perderes tempo a dizer disparates, vai-te informar. O sistema precisa de pelo menos 30 indícios para evitar os falsos positivos, só depois passa para a análise humana, com auxílio das entidades e autoridades dedicadas ao combate da pornografia infantil.

          Estás a ser um triste porque não sabes ler. E é fácil perceber que era impossível a Apple ter milhões de utilizadores a fazer upload de imagens e pessoas, humanos, a olhar para conteúdos que possam estar enquadrados com ilícitos em causa. Aliás, bastava usares o cérebro para perceber que isso era impossível.

          • Ale says:

            Obrigado por confirmares. Passa mesmo pela análise humana!!! O anjinho deve pensar que o sistema é infalível e só vai enviar as imagens ilegais. Idiot, omg.

          • Vítor M. says:

            Como acabas o teu comentário, que é sem dúvida a tua assinatura pessoal, diz muito sobre ti. Contudo, não precisas de te envergonhar a esse ponto. Eu explico de novo, e mais d e v a g a r . . .

            Portanto, não há intervenção humana nem qualquer análise nos conteúdos legais que são enviados para o iCloud. O que me parece que te confunde essa cabeça distraída é haver um sistema automático que vai verificar conteúdos de pornografia infantil.

            Sim existe, esse conteúdo, que também está cifrado, será comparado, via a sua hash (sem a Apple saber o que lá está) com uma base de dados CSAM.

            São precisos, diz a Apple, pelo menos 30 ficheiros (parte deles, a tal hash) detetados para evitar falsos positivos. Havendo então este conteúdo detetado (tudo por sistemas automáticos) passa depois para o nível de verificação humana. Passa depois para a esfera das autoridades judiciais e entidades de combate à pornografia infantil.

            Esta será uma forma eficaz, já que o sistema CSAM está maduro, pois é usado há vários anos, quer pela Apple, Microsoft, Google, etc…

            Existe um relatório muito interessante da Google sobre o seu trabalho nesta área: https://transparencyreport.google.com/child-sexual-abuse-material/reporting

            Claro que muitos criminosos estão cada vez mais preocupados, porque o cerco está a fechar-se.

            Penso que foi devagar o suficiente para p e r c b e r e s, c e r t o?

      • Redin says:

        Vitor, pode parecer conspiração mas imagina o seguinte cenário num mundo gerido por potencias governadas por ditadores.
        Pegam em conteúdos considerados ilícitos a luz das tendências politicas ou sociais e criam um hash com a mesma tecnologia. Injetam algum tipo de sistema nos equipamentos e clouds para detetar padrões da mesma hash.
        Perseguem os proprietários ou os incitam sob ameaça a mostrar e a provar que não são contra o sistema porque por alguma razão a tecnologia os mostrou poder terem isso escondido.
        Dá para imaginar? Ou estou agora a sonhar com um “Black Mirrow”?

        • Vítor M. says:

          Para que raio iam fazer isso se podem ir por métodos bem mais rápidos? Então não se viu o que foi contratado com o malware pegasus? Foi caro? Pois deve ter sido, mas o preço não é problema. E mais, o sistema só deteta se houver coincidência, 30 pelo menos, com as hashs das bases de dados das organizações. Não há outra forma de contornar o esquema. E isso já é feito atualmente pela Microsoft e Google.

          A Apple vai é dar um passo mais além fazendo o rastreio quando as fotos caem no rolo de fotos da app Fotografias, que tem sincronização com o iCloud.

          Tal como introduziu em 2019 no iCloud mail, e nunca nada se passou de estranho, bem pelo contrário, levou foi criminosos à justiça, o mesmo será com o método agora a implementar.

  8. Pedro Nogueira says:

    Desde 2019 que o fazem sem qualquer notificação. Pesquisem pela notícia da CNET desta semana.

  9. JCS says:

    O maior problema é em sistemas fechados como o da Apple não se saber ao certo como os nossos dados são tratados e os erros que podem acontecer ou a sua instrumentalização. Por mero acaso encontrei a seguinte reportagem que mostra uma terrível caixa de Pandora que a Apple pode estar a abrir ou já abriu ?!

    https://www.forbes.com/sites/gordonkelly/2021/08/28/apple-iphone-warning-csam-threat-edward-snowden-upgrade-ios-15-privacy/

Deixe uma resposta

O seu endereço de email não será publicado.

You may use these HTML tags and attributes: <a href="" title="" rel=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aviso: Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de caráter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.