Apple enfrenta denúncia em França por recolher informações privadas através da Siri
O caso remonta a 2019, mas só agora a associação Liga dos Direitos Humanos (LDH) depositou uma denúncia no Ministério Público de Paris contra a Apple. A empresa é acusada por um ex-funcionário de recolha em massa de gravações através da sua assistente virtual Siri.
Ouvir o que a Siri da Apple estava a ouvir
A informação foi apurada pela unidade de investigação da Rádio França e do jornal Le Monde.
A denúncia por violação de privacidade, processamento ilícito de dados pessoais e práticas comerciais enganosas é baseada em informações de Thomas Le Bonniec. O francês, de 29 anos, trabalhava para o projeto Crowd Collect (recolha coletiva), que emprega analistas do mundo inteiro para melhorar a eficácia da resposta multilingue da assistente virtual Siri.
Em 2019, Le Bonniec foi recrutado pela Globe Technical Services (GTS) em Cork, na Irlanda, por 2.600 euros por mês, com muitos outros jovens europeus, como "analista de anotação de operações de dados" na sua língua nativa, o francês.
É um projeto que requer muita mão de o. Trabalhei num grande open space onde devia haver pelo menos 80 pessoas, com um novo lote de 10 a 20 funcionários à segunda-feira. No total, havia centenas de ‘Siri graders’ ou 'avaliadores da Siri' empregados na cidade.
No mesmo dia em que cheguei, explicaram-nos que iríamos trabalhar com gravações de pessoas a conversar com a sua assistente Siri ou em gravações captadas sem o conhecimento delas, quando a máquina era acionada por engano. Isso consistia em verificar se as transcrições das conversas da Siri estavam corretas ou se precisavam ser corrigidas.
Uma grande parte do nosso trabalho era principalmente identificar se eram gravações acidentais, ‘accidental trigger’ (gatilhos acidentais), no jargão da Apple.
Disse o analista de dados à Radio France.
O ex-empregado da empresa afirma que tinha uma obrigação de quantidade e de qualidade e que processava projetos de 1.300 registos por dia com um limite de precisão de pelo menos 90%.
Alguns empregados são responsáveis por etiquetar as palavras-chave ditas durante uma gravação e vinculá-las aos dados armazenados nos dispositivos dos utilizadores, como contactos, geolocalização, música, filmes, marcas, aos quais têm acesso.
Eles rotulam estes dados pessoais com palavras-chave. Para a gravação 'ligar para a mãe', por exemplo, os meus colegas tiveram de procurar por 'mãe' nos contactos do dispositivo e rotulá-lo. Este trabalho de marcação manual deveria melhorar o reconhecimento dos comandos usados pela Siri e acionar as ações apropriadas nos dispositivos, como ligar para o contacto certo.
Explicou Le Bonniec.
Conversas íntimas
Durante o tempo que trabalhou na GTS, Thomas e os seus colegas ouviram uma quantidade considerável de gravações acionadas por engano, onde os utilizadores falavam sobre a suas vidas privadas sem saber que estavam a ser gravados.
Há momentos banais, mas também chocantes ou embaraçosos em que se ouve coisas muito íntimas, até mesmo violentas, que não se partilha com estranhos. Conversas em que dados de saúde são discutidos, como alguém a falar sobre a sua esclerose múltipla ou um aborto espontâneo.
Também se ouvem opiniões políticas ou sindicais. Muitas gravações de crianças em iPads. Lembro-me de ouvir alguém a falar sobre a sua conta bancária na Suíça. Colegas ouviam regularmente casais a ter relações sexuais.
Afirma o ex-funcionário.
Foi justamente a denúncia de uma gravação de cunho sexual ao seu superior que convenceu Thomas Le Bonniec a deixar a empresa após ter ouvido quase 50.000 gravações.
A experiência como Siri Grader levou-o a quebrar a sua cláusula de confidencialidade para denunciar o que ele considerava um "sistema de escuta generalizado" e, assim, se tornar um dos raros denunciantes dentro do GAFAM (Google, Apple, Facebook, Amazon, Microsoft).
As pessoas compram produtos Apple a poensar que a sua privacidade está mais protegida. Não estou nada convencido.
Diz.
Segundo Le Bonniec, a Google, Microsoft e Amazon também contrataram pessoas para fazer o mesmo tipo de trabalho sobre os seus assistentes de voz. Para ele, são necessárias investigações aprofundadas para determinar qual é o interesse das empresas por trás da prática e se elas violaram a lei.
Mas desde 2020, as denúncias de Thomas Le Bonniec às agências de proteção de dados francesas ou europeias não desencadearam nenhuma investigação. A Comissão de Proteção de Dados da Irlanda encerrou o seu relatório em 2022 sem iniciar uma investigação.
O reclamante não apresentou nenhuma evidência de processamento irregular dos seus dados pessoais.
Explicou a comissão à Rádio França. Em agosto de 2019, após o depoimento de Thomas Le Bonniec e vários outros funcionários do projeto Crowd Collect, a Apple anunciou que estava a suspender o seu programa de melhoria da Siri. A empresa afirmou, na altura, que apenas 0,2% das solicitações da Siri e a as suas transcrições foram processadas e armazenadas.
Segundo a Apple, os dados processados pela Siri não permitem a identificação dos utilizadores, já que cada dispositivo gera um identificador alfanumérico único e anónimo.
Questionada pela Rádio France, a Apple afirmou que Siri foi projetada para proteger a privacidade do utilizador.
Usamos dados da Siri para melhorar a Siri e estamos constantemente a desenvolver tecnologias para torná-la ainda mais privada. A Apple resolveu este caso para evitar litígios adicionais e seguir em frente. Os dados da Siri nunca foram usados para criar perfis de marketing e nunca foram vendidos a ninguém para nenhuma finalidade.
Afirma a empresa de Cupertino.
Ricardo Neves, Marketing Manager da ESET Portugal, refere que:
A proteção do direito a que as informações pessoais só sejam recolhidas com o consentimento explícito é essencial. Todas as empresas devem esperar ser escrutinadas se recolherem, processarem e/ou armazenarem dados que sejam considerados informações pessoais, e deve haver total transparência na utilização desses dados.
A questão contra a Apple em França é complexa e, para a Apple, uma empresa que tem tomado frequentemente decisões arrojadas para proteger a privacidade dos seus utilizadores, espero que a sua defesa seja robusta. A Apple confirmou que nenhum dado da Siri foi utilizado para marketing nem vendido. O facto de a Apple ter resolvido um caso nos EUA não deve influenciar o julgamento.
A opção de ação coletiva utilizada nos EUA contra as empresas leva-as muitas vezes a chegar a acordo em vez de se defenderem, uma vez que os custos legais podem ser consideráveis e pode ser financeiramente eficiente chegar a acordo. O rastreio do comportamento dos consumidores e a definição de perfis para efeitos de publicidade é um sector de atividade sofisticado, que beneficia significativamente da evolução da Inteligência Artificial (IA).
Os consumidores beneficiariam se houvesse uma maior transparência sobre como e quando os dados são recolhidos e quais os métodos de rastreio utilizados pelos websites, aplicações e plataformas de redes sociais, o que deveria ser uma prioridade para os reguladores.
A proteção do direito a que as informações pessoais só sejam recolhidas com o consentimento explícito é essencial. Todas as empresas devem esperar ser escrutinadas se recolherem, processarem e/ou armazenarem dados que sejam considerados informações pessoais, e deve haver total transparência na utilização desses dados.
A questão contra a Apple em França é complexa e, para a Apple, uma empresa que tem tomado frequentemente decisões arrojadas para proteger a privacidade dos seus utilizadores, espero que a sua defesa seja robusta.
A Apple confirmou que nenhum dado da Siri foi utilizado para marketing nem vendido. O facto de a Apple ter resolvido um caso nos EUA não deve influenciar o julgamento. A opção de ação coletiva utilizada nos EUA contra as empresas leva-as muitas vezes a chegar a acordo em vez de se defenderem, uma vez que os custos legais podem ser consideráveis e pode ser financeiramente eficiente chegar a acordo.
O rastreio do comportamento dos consumidores e a definição de perfis para efeitos de publicidade é um sector de atividade sofisticado, que beneficia significativamente da evolução da Inteligência Artificial (IA).
A Apple é mais do mesmo…siga!!!!!!!!!!!!!!!!!!!!!!!
Ai ai os quem defendem os aifones agora nem piam….excelente trabalho de investigação do piiware a mostrar os dentes a apple
Não leste tudo, pois não? Isto é de 2019 😉 desde então a Apple, assim como a Google, Meta e afins, que usavam os mesmo métodos, passaram a usar “máquinas” para isto. Não é nada que não fosse corrente, mas ainda bem que estes assuntos saem da esfera da marca. Ajuda a tornar mais forte. Tens é de ler 😉 pois se lesses…percebias do que se trata. 🙂 não sejas hater.
O problema é a normalização.
É errado e ponto final.
Se a concorrência também faz não é motivo para se fazer. Não arranjem desculpas para proteger as marcas, sejam elas quais forem.
E já agora, removam a cotação que está em duplicado … fica-vos mal
Não tem a ver com normalização. Bem pelo contrário. Tem a ver com o evoluir, o refinar métodos para não haver necessidade de ter pessoas dentro destes processos. Mas são máquinas a fazer o trabalho de humanos. E se calhar, neste tipo de trabalho, só as máquinas são capazes. Até pelo distanciamento dos assuntos. A não colocação de julgamentos e avaliações emotivas.
O processo era transversal. E ainda bem que se deteta erros para melhorar este tipo de ferramentas. 🙂
Caro, o duplicado foi corrigido. Sabes que errar é “umano” e só erra quem trabalha. Os inúteis nunca erram, porque não fazem nada. Obrigado pelo report 😉