PplWare Mobile

Apple cancela o plano de verificação de conteúdo de pornografia infantil

                                    
                                

Este artigo tem mais de um ano


Autor: Rui Neto


  1. Redin says:

    Afinal, sempre existia uma preocupação bastante legitima.
    https ://www.youtube.com/watch?v=FsAqPTTrZQI&t=616s
    https://pplware.sapo.pt/apple/apple-ja-esta-a-verificar-os-e-mails-a-procura-de-material-de-abuso-de-criancas/#comment-2839683

    • Vítor M. says:

      Não, o que a Apple quer fazer é aperfeiçoar e deixar assentar poeira. Depois, tal como outros já usam, como é o caso da Microsoft e Google, a Apple também o fará na app Fotografias. Não há outra hipótese. A Apple quer limpar o lodo de povo que usa o iCloud para guardar fotos de pornografia infantil e vai levar isso avante, não tenhas dúvidas.

      • ToFerreira says:

        Espero que sim.

      • Winters says:

        Bela maneira de prevenir responder ao seu comentário. “”Se na vida fornos honestos, se tivermos uma participação cívica ativa e fornos cumpridores” É uma atitude louvável até alguém com poder discordar consigo no que é ser honesto, ter uma participação cívica ativa e ser cumpridor. Os que fazem as leis são muitas vezes os que as menos respeitam. Merecemos tudo o que se aproxima.

        • Vítor M. says:

          Há coisas que não podemos ceder. Percebo que muitas vezes, por questões adversas à vontade de cada um, as regras e leis passem para segundo plano. É verdade que hoje vivemos num mundo estranho, de compadrio, de luvas, de mercado paralelo e de amizades por interesse.

          No entanto, o assunto vai muito para lá disso, estamos a falar no assunto “banir pornografia infantil e abuso de crianças em forma de imagens do ecossistema da Apple”.

          O resto, já muito para lá do assunto em discussão. Mas não deixa de ser um tema interessante de debater.

        • ToFerreira says:

          Então segundo essa lógica não deveria haver lei nenhuma.

      • Pedro H. says:

        Embora esteja 100% de acordo com a intenção, existe sempre a preocupação de analisarem os meus dados, independentemente se a Apple diz ou não se vai analisar só as fotografias.

        Existem as seguintes preocupações da minha parte:
        1) Se detectarem fotos de crianças (não interessa se é verificado contra material pedófilo conhecido e registado) nas fotografias ou algo parecido vão dar indicações a elementos humanos. Ora se esses elementos humanos pertencerem ou estarem associados a conhecidos pedófilos, como é que a Apple responde a isto? Justifica os meus filhos estarem expostos a este tipo de situação?
        2) Fotografias ajudam a traçar perfis da minha pessoa.
        3) O que impede o algoritmo funcionar mal ou o elemento humano que tiver acesso à conta e toca de ir buscar informações como passwords, vídeos e segredos industriais que possam vir a beneficiar a Apple?

        É tudo muito bonito, mas a verdadeira pergunta que se deve fazer é esta:
        A Apple é alguma entidade governamental ou autoridade reconhecida para tomar este tipo de acção sem autorização de um tribunal? Se nem a polícia tem autorização para tomar este tipo de acções sem a devida autorização, a Apple tem?

        Reflictam sobre isto, se tiverem coragem. Se autorizarmos a Apple ou uma outra empresa na qual guardamos a nossa vida digital, vamos estar a criar um precedente perigoso.

        • Vítor M. says:

          Boas.

          Vamos então perceber.

          1) Se detectarem fotos de crianças (não interessa se é verificado contra material pedófilo conhecido e registado) nas fotografias ou algo parecido vão dar indicações a elementos humanos. Ora se esses elementos humanos pertencerem ou estarem associados a conhecidos pedófilos, como é que a Apple responde a isto? Justifica os meus filhos estarem expostos a este tipo de situação?

          Ora bem, a Apple automaticamente irá analisar o material se a hash coincidir com o material pornográfico existem CSAM. Ora não é material qualquer, tem de ser muito específico e que esteja já nas bases de dados das autoridades. Mais, apenas com 30 hashes coincidentes é que o material passa para a fase seguinte e nessa será é que entra a verificação humana. Mas para chegar até aí, não é com imagens de crianças nuas aleatórias. Tenham atenção que atualmente o Google e a Microsoft já usam esta tecnologia nos seus servidores, assim como a Apple no iCloud Mail. Isto ao ser detetados já tem de haver material muito específico.

          2) Fotografias ajudam a traçar perfis da minha pessoa.

          O material pornográfico infantil se for encontrado, sim, traçam um perfil de um criminoso. Sim, e esperemos sim que trace e não falhe. Mas só traça se esse perfil tiver esse material alojado e esse material estiver já na posse das autoridades. Não é a Apple que cria as base de dados é ao nível CSAM.

          3) O que impede o algoritmo funcionar mal ou o elemento humano que tiver acesso à conta e toca de ir buscar informações como passwords, vídeos e segredos industriais que possam vir a beneficiar a Apple?

          Não pode funcionar mal. Uma hash não é algo que funcione mal. Ou é ou não é. Aliás, repara que ao longo destes dois anos em que a Apple está a usar o CSAM no iCloud Mail nunca se falou em algo que não fosse devidamente levado à justiça e com condenações. Uma hash não é uma coisa “mais ou menos”. O sistema usado pelas gigantes tecnológicas está muito maduro, atenção.

          A Apple é alguma entidade governamental ou autoridade reconhecida para tomar este tipo de acção sem autorização de um tribunal?

          A Apple é responsável e responsabilizada pelo material que tem dentro dos seus servidores. Como é natural. Tu, se vires um crime público a acontecer, és obrigado a reportar. A pornografia infantil é um crime público. E a Apple, se não reportar e der cobertura, pode estar a ser conivente. Portanto, atentem ao que são as responsabilidades e deveres, até de cada um de nós como cidadãos.

          Reflictam sobre isto, se tiverem coragem. Se autorizarmos a Apple ou uma outra empresa na qual guardamos a nossa vida digital, vamos estar a criar um precedente perigoso.

          Antes de refletirem informem-se porque já percebi não não leram o que escrevemos de como funciona o método. E sim, hoje já usam serviços que usam esta tecnologia. Volto a dizer que o Google e a Microsoft já usam há alguns anos. E a Apple desde 2019. Não pensem que os casos que chegam a tribunal aparecem por obra e graça do espírito santo.

          Tenham vontade, isso sim, de aprender, de se informarem sobre como funciona a tecnologia, vão perceber que é mais segura e importante do que essas falsas e erradas preocupações que estão a colocar.

          Acredito que seja puramente por desconhecimento, este vosso discurso errado sobre a tecnologia. O que não se justifica, depois de tanto que já se escreveu sobre o assunto.

          Leiam:

          Como funciona o novo sistema da Apple para verificação de conteúdo de pornografia infantil

          Médico acusado de ter milhares de imagens de pornografia infantil no iCloud

          Abraço e bom fim de semana.

          • João Ferreira says:

            Alguém que escreve sobre tecnologia vir falar que uma tecnologia é infalível e nunca falha preocupa-me! É mais facil dar a volta a uma tecnologia que a construir. Nada é perfeito e é possível dar a volta a tudo de alguma forma.

            O que impede as autoridades de não meterem apenas fotos de crianças e colocarem fotos de outras pessoas que querem fazer encontrar? Como garantimos que os humanos que vão fazer double check não estão comprados por essas autoridades, etc… Se nem a apple sabe o que está dentro do conteudo ninguem os pode processar por terem conteúdos potencialmente ilegal.

            Há aqui varia maneiras de dar a volta ao sistema e o povo faz muito bem em criticar tal ação da Apple quando vende-se como o rei da privacidade. Aqui está um potencial backdoor a essa privacidade mascarado de boa acção.

            Já dizia o outro: “O caminho para o inferno está cheio de boas ações”

          • Vítor M. says:

            A tecnologia não falha, quem falha são os homens, quem desenvolve a tecnologia. Nunca esqueças isso. O que te pode preocupar é a tua falta de conhecimento.

            Sobre o resto, vejo muitos preocupados com o sistema da Apple, da Google, Microsoft, etc.. anti pornografia infantil. Isso é estranho. Claro, muitos deles são apenas desconhecedores de como funciona, outros são apenas errantes, que queriam estar onde não estão, e outros são hipócritas.

            Sobre a tua falta de conhecimento do assunto, não tenho mais paciência para sugerir que se instruam sobre o que é o CSAM. Acho que quem quer continuar a ser distraído, que o faça, só da tiros nos pés, dado que se usam Gmail, drive, Hotmail ou onedrive, já estão há anos dentro deste sistema. Mas se querem ser enganados 😉 por mim 😀

          • Sujeito says:

            Quão pedante a sua resposta Vítor.

          • Vítor M. says:

            Esse argumento diz muito da tua forma de pensar. Uma fenomenal capacidade de argumentar, que mostra afetação. Isso sim é ser pedante, porque se limita a respirar sem o poder do argumento. Eu justifiquei, detalhei, já o Sujeito… nada disse de útil.

  2. Antonio says:

    Seria um óptimo instrumento

    Quem não deve não teme!!!!!!!
    Não venham com outras tretas

    • Omg not again... says:

      Está pronto para viver na Coreia do Norte ou num estado totalitário estilo… 3o Reich ou com um Salazar a mandar amigo.
      Deixe a porta de casa destrancada à noite… Instale umas cameras dentro de casa e deixe tudo com o login de origem e abra as portas no router para estas também…

      Afinal de contas quem não deve não teme não é?

      Enfim… É graças a gente assim que a privacidade vai desaparecer… 🙂 Depois não se queixem.

      • Vítor M. says:

        Drama… hoje se quiserem sabem tudo sobre ti. Vigiam tudo por onde andas e usas. Se estiveres na mira das autoridades, podes correr, mas não te podes esconder. O resto é drama.

        • Winters says:

          Com essa lógica se lhe estiverem a violar, já que tá dentro é melhor deixar continuar.. Se no início tivéssemos a fortitude testicular de prevenir abusos como este, não estaríamos na situação que referiu.

          • Vítor M. says:

            Isso é conversa da treta. Se na vida fornos honestos, se tivermos uma participação cívica ativa e fornos cumpridores, essa retórica não serve para nada.

            Agora, os espertalhões, os que contornam as regras, infringem as leis e usurpam os direitos de terceiros, aí sim, esses têm mesmo de acreditar que podem esconder-se, é que podem camuflar as suas ações.

            Aliás, podem pensar que o fazem, porque mais tarde ou mais cedo, são apanhados.

            Ainda esta semana vimos dois exemplos.

        • Omg not again... says:

          Descreve-me por favor como funciona a sociedade em países como a China ou a Corea do Norte…
          “Se estiveres na mira das autoridades…” Vou ser inteligente ao ponto de não meter merdas em plataformas ditas “normais” ou expostas a uma possível vigilância… Não? Porque usam para venda de drogas, tráfico de órgãos entre outras coisas fóruns na chamada “Dark Web”? Achas que a vigilância de dispositivos privados vai ajudar alguma coisa? É só drama é… Deixa rolar e depois avisa quando fores julgado por teres escrito ou fotografado algo que alguém julgue menos correcto.
          Já tive que fotografar uma parte privada do meu filho para mostrar ao médico dado que se tratava de uma alergia, vai ser uma bela porra se fôr preso por isso… Ou se tiver que andar a explicar porque raio tenho uma foto dessas no telefone.

          Eu não estou contra que se apanhe os pedófilos, muito pelo contrário… Uma das coisas que adoro nas cadeias é a intolerância que têm relativamente a pedófilos.
          Mas entrar na esfera privada da vida das pessoas sob pretexto da “segurança”… É super inteligente isso… Quem vai monitorizar os que te monitorizam? 🙂

          • Vítor M. says:

            Vamos lá à retórica:

            “Descreve-me por favor como funciona a sociedade em países como a China ou a Corea do Norte…”

            Uma é muito diferente da outra. Na China há um regime comunista com tiques ocidentais.

            É um país com muitos dos mais populares do mundo em comunicação online, tem redes gigantes de tecnologia e informática e permite acesso ao país de qualquer cidadão de bem.

            Fiscaliza como qualquer regime comunista quem está contra o próprio regime e é um polvo no que toca ao comércio mundial. Tentacular no que às suas grandes marcas diz respeito.

            O povo tem grandes cidades, muitas das mais modernas do mundo. São uma superpotência militar e também em áreas como a exploração espacial.

            Tem acordos com muitos países e coopera em várias áreas científicas. Permite mesmo que estudantes estrangeiros possam estudar na China. Intercâmbios culturais, académicos e desportivos.

            A China cada vez está mais aberta ao mundo, apesar de um regime comunista.

            Laivos de repressão de outros tempos ainda se verificam, mas hoje o foco deles é a tentacularidade no globo.

            A Coreia do Norte não tem nada. É um país com uma gestão criminosa sob a bandeira comunista e tiques de ditadura extrema.

            Portanto, nada a ver um com o outros e nada a ver com o que imaginas.

            “ Já tive que fotografar uma parte privada do meu filho para mostrar ao médico dado que se tratava de uma alergia, vai ser uma bela porra se fôr preso por isso…”

            Ou não sabem ler, ou são completamente abstraídos da realidade.

            Que exemplo parvo descabido.

            Se não sabes como funciona o sistema, não te metas a atirar esses exemplos parvos.

            Incrível… já se referiu N de vezes como funciona o sistema e dás um exemplo desses?

            Por acaso as fotografias que mandas são de pornografia infantil? Nem vale a pena falar mais. Vai ler o que escrevi e depois volta.

            Impressionante.

  3. Carlos Marques says:

    Edward Snowden teve de fugir por denunciar quando o governo da ditadura dos EUA cometia este CRIME (sim, isto é um CRIME). Agora, em nome do “combate à pornografia infantil”, vão deixar empresas privadas fazerem ainda pior. Gente doida e irresponsável. Só há liberdade e democracia, se existir o direito fundamental à privacidade. Quem não deve, TEME. Quem não teme, põe-se a jeito… Hoje o uso é “inocente”, amanhã é um ditadorzeco a usá-lo, tipo Donald Trump e Cambridge Analytica com dados pessoais de milhões de potenciais eleitores vendidos pelo Facebook. Deixem de ser ingénuos!

  4. AlexS says:

    A falta de cultura que vocês demonstram é um sinal de que a História se vai repetir.
    Quando forem vocês a ser confundidos por causa de qualquer imagem e isto for usado para outras funções para perseguir wrong thinking vão ver o monstro que criaram.

    “Quem não deve não teme!!!!!!!
    Não venham com outras tretas”
    Então estás de acordo que uma camera de video e gps controlada pelos governos siga todos os teus passos inclusive no teu quarto para ver se quebras alguma lei ou regulamento.
    Todos devem temer quem tem poder. Ainda mais quem tem demasiado.
    Pelo que estou a ver no comportamento absolutista de muita gente ligada à tecnologia quer uma sociedade tipo Revolução Francesa, Inquisição e Caça ás Bruxas. Querem purificação e é o que vão ter. Acaba sempre mal.

  5. Oscar says:

    Claro que existe uma preocupacao. Ninguem gosta que vasculhem as coisas pessoais e muito menos sem autorizacao.
    Isto da Apple é uma treta e todos os fazem sejam google facebook e microsoft. Só quem nao sabe o minimo é que acredita. Esta intrusao é a mesma que terem a policia a visitar regularmente a vossa casa toda.
    Enfim, ainda existe quem acha boa ideia e quem nao deve nao teme. Deixem as vossas chaves para eu fazer uma pesquisa nas vossas casas

  6. Filipe C. says:

    Claro que fez bem cancelar… Entao quando está em causa o terrorismo como há uns anos, recusaram desbloquear iPhones de terroristas em nome da segurança de milhares, e agora é que vêm com a bandeira de afinal vasculhar para proteger… Eram e ainda são o sistema perfeito para os criminosos, mas já perceberam que afinal o excesso de privacidade é mais benéfico ao crime que ao inocente e algum dia terão de aceder assumidamente a mais coisas dos seus clientes em prol da proteção humana

    • Vítor M. says:

      Não tem nada a ver. Não vão criar uma backdoor. É sabido que o processo já existe na Google e Microsoft, a Apple só tem de afinar no processo da confrontação da hash encontrada na fotografia, ou nas 30 necessárias, com a base de dados das entidades de proteção de crianças e autoridades policiais. Simples e continua fora do âmbito da encriptacão do iOS.

      Depois, o primeiro efeito pretendido já deve ter acontecido, de certeza que quem não estava legal la dentro ou fugiu para outro sistema ou apagou.

  7. Marco says:

    Ao fim de 2 anos onde os utilizadores nem sonhavam? Cancelam porquê se estão certos do que fazem e não estão a invadir a privacidade de ninguém 2° muitos iluminados que para aqui vêm defender coisas que só mesmo essas pessoas são capazes de defender de tão ridículas que são! Pois.

    • Vítor M. says:

      São coisas diferentes. Uma coisa é monitorizar dentro dos servidores da Apple. Outra coisa é dentro dos dispositivos.

      A segurança do mecanismo tem de ser total. Além disso, estas implementações carecem de tempo, mesmo após o anúncio.

      A Apple vai melhorar o processo, isto é, como há entidades de proteção à criança e autoridades policiais envolvidas, tem de haver um sistema muito bem afinado.

      Depois, paulatinamente e sem alarido, num grupo restrito, vai implementar a medida. É um dia destes estará completo o processo.

      Sem ondas, sem ruído e a funcionar corretamente, tal como está a acontecer no iCloud Mail.

      O resto é apenas isso, resto.

  8. My namr is Jeff says:

    Suspende*, infelizmente a Apple não é muito conhecida por ser flexível em mudar de ideias.

    • im0ngo says:

      Delayed/Postponed. Fica apenas adiado, estas empresas são do pior, continuem a alimenta-las. Boas intenções mas infelizmente não será isto que irá contribuir de forma significativa para resolver esse ou outros problemas como o terrorismo/tráfico de droga ou pessoas. Os criminosos vão continuar a fazer o que fazem, por esse meio ou por outros. Quem se lixa é o mexilhão, hoje fotos com determinadas caracteristicas, amanhã quem sabe.

  9. Oscar says:

    Quem é a Apple para pesquisar as minhas coisas pessoais?
    É alguma autoridade? Até parece que nao estamos num estado de direito.
    Vivemos sobre uma democracia com direitos e liberdades e nao é a maça podre que tem o direito de pesquisar, seja ele qual o motivo terrorismo, pedofilia ou outros.
    Mas estamos malucos? Vivemos regulados por um algoritmo?

    • Jorge Carvalho says:

      A Google a Microsoft a Amazon , têm o direito ? È que esses já o fazem.

      Abc

      • Oscar says:

        Tambem nao tem o direito claro! E o que fizeste ou o que os governos fizeram para nos proteger? Nada! E ves alguem em Portugal a reclamar? Simplesmente ves estes comentarios a dizer a minha vida é um livro aberto! Nao me importo das fotos no facebook e dos contactos do whatsapp e nao me importo da amazon e da google porque eu sou insignificante, ou ignorante ou eles la querem saber da minha vida…

  10. art says:

    Que lindo , aceitar que uma empresa seja assim como uma espécie de nosso paizinho ….qualquer dia vão ler as nossas ondas cerebrais e descobrir os nossos pensamentos ilegais para nos prenderem….no Japão que eu saiba a hentai é legal com muitas imagens de sexo entre adultos e menores , violações incluídas …qualquer dia a Apple vai começar a denunciar os possuidores de imagens hentai….está tudo louco

  11. António M. says:

    Temos por aqui um começo de Talibanismo a nascer. Nem o pensamento e a fantasia terá liberdade nos tempos vindouros.
    Apesar de concordar que pedófilos, são doentes e tem que ser identificados, mas não as custas da privacidade e liberdade de fantasiar, dos outros.

    Muitas pessoas cometem crimes de conotação sexual sem nenhuma patologia clínica, diferentemente dos pedófilos que padecem de um transtorno mental sexual.
    Assim, a princípio, não é um criminoso, mas um doente. Ele torna-se criminoso a partir do momento que exterioriza a sua patologia e esta se enquadra em algum crime previsto na Lei.

    Um pedófilo, se quiser por em pratica as suas intenções, sabendo que pode estar a ser vigiado pelas novas tecnologias, basta abdicar delas, e fechar-se numa caverna raptando crianças, sem nunca ser apanhado.

    Onde eu quero chegar, é que, não é com este tipo de soluções que que consegue erradicar o problema.
    Fico com a sensação que é apenas uma desculpa para atingir outros fins.

    Meramente a minha opinião, sem afirmar se estou certo ou errado.

    • Vítor M. says:

      Boa António. Penso que está a confundir a beira da estrada, com a estrada da beira. Vamos ver se consigo ajudar.

      Temos por aqui um começo de Talibanismo a nascer. Nem o pensamento e a fantasia terá liberdade nos tempos vindouros.

      Entendo que banir a pedofilia e abuso de crianças (crimes hediondos) não se enquadra numa política talibã (convinha leres um pouco sobre os Talibãs). Acho que essa tua interpretação é perigosa, pois não estás a perceber como finciona o sistema CSAM.

      Apesar de concordar que pedófilos, são doentes e tem que ser identificados, mas não as custas da privacidade e liberdade de fantasiar, dos outros.

      Liberdade dos outros? Quais outros? Se um individuo não possuir esse material, a Apple nem quer saber o que passa pelo sistema ou dispositivos. Volto a dizer que devem perceber como funciona o sistema, é muito mais automatizado e inteligente do que o que estão a pensar.

      Outra coisa que não concordo em nada: fantasiar com pornografia infantil? Hmmmm não estou a perceber o que estás a dizer! Não consigo perceber como alguém com uma menta sã pode fantasiar com pornografia infantil. Usar esse material é crime, pode até ter essa hedionda tara, mas usar material com abusos a criança…. desculpa lá, mas isso não é de gente!

      Muitas pessoas cometem crimes de conotação sexual sem nenhuma patologia clínica, diferentemente dos pedófilos que padecem de um transtorno mental sexual.
      Assim, a princípio, não é um criminoso, mas um doente. Ele torna-se criminoso a partir do momento que exterioriza a sua patologia e esta se enquadra em algum crime previsto na Lei.

      Estás errado. Pode ser doente, mas no momento que utiliza e partilha material como pornografia infantil, é um criminoso. A lei assim o define. É doente e criminoso. Se tiver essa tara e nunca recorrer ao crime, é lá com ele.

      Usar material com crianças escravizadas, violadas, torturadas para saciar a sua tara? Só vejo um fim para essas pessoas.

      Um pedófilo, se quiser por em pratica as suas intenções, sabendo que pode estar a ser vigiado pelas novas tecnologias, basta abdicar delas, e fechar-se numa caverna raptando crianças, sem nunca ser apanhado.

      Isso é uma questão de segurança, de polícia. Mas não é isso que se está a discutir. Estamos a falar do uso das tecnologias para perpetrar crimes.

      Onde eu quero chegar, é que, não é com este tipo de soluções que que consegue erradicar o problema.
      Fico com a sensação que é apenas uma desculpa para atingir outros fins.

      Não se vai resolver, mas vai-se restringir as áreas de ação. Vai-se fechar portas onde outros utilizadores querem estar sem este tipo de pessoas lá dentro. A Google e a Microsoft, nos seus serviços de mail e alojamento, já usam isto. E, muito possivelmente, muitos possuidores deste tipo de material que já foram entregues à justiça, foram por terem este tipo de material no email.

      Agora, não acredito e a história diz-nos isso, que a Apple venda um dos seus maiores trunfos, que é a privacidade. Por isso é que o iCloud está carregado deste tipo de material.

  12. Joao Ptt says:

    Isto parece pouco ambicioso. Assim como aparentemente já não dá para recolher vídeos ou imagens de conteúdos com direitos de autor, pelo menos em algumas circunstâncias, a Apple já devia ter integrado uma forma de não permitir sequer a capturar das ditas imagens de menores nus ou em actividades ainda mais nojentas além é claro de analisar tudo o que fosse recebido de terceiros, e em qualquer situação suspeita enviar logo os dados para a instituição policial com competência na área mais próxima.
    Admira-me é não fazerem isso ainda, ou talvez já o façam e apenas não o divulguem.
    A boa notícia é que agora os pedófilos vão deixar de utilizar Apple e Androids a menos que sejam versões especialmente modificadas… a má é que provavelmente não vão deixar de o ser.

  13. ToFerreira says:

    Pelos comentários, a privacidade deve prevalecer sobre tudo, mesmo sobre os direitos mais básicos de uma criança. Crise de valores…

    • art says:

      O princípio é o mesmo que este : deve um governo torturar supostos terroristas para evitar que novos atentados matem cidadãos ?

      • K_PX says:

        Dizes bem “supostos terroristas”.
        O que é um “suposto terrorista”?
        Na china e noutros países autocráticos, não faltam desses “supostos terroristas” para o governo torturar a seu belo prazer…

  14. G says:

    Fez bem em voltar atrás mas estalou o verniz. Não se pode inverter o ónus da prova, isto é um grave precedente, a Apple já cedeu ao regime chinês e ninguém garante que o sistema não pudesse ser usado por um outro qualquer regime seja ele autoritário ou pseudo-democrático, pensar o contrário é ser ingénuo.

Deixe um comentário

O seu endereço de email não será publicado.

You may use these HTML tags and attributes: <a href="" title="" rel=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aviso: Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de caráter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.