Apple já respondeu ao caso das gravações de conversas pela Siri
Após a recente exposição da gravação e análise de conversas por parte da Apple com o intuito de melhorar a sua assistente virtual, Siri, a empresa foi alvo de bastante escrutínio. Partido deste redobrado interesse e temática transversal à Google Assistant, uma nova investigação revelou detalhes importantes.
Entre o modus operandi da empresa e as suas preocupações com a privacidade, assim se faz a Siri.
Levada a cabo pelo The Guardian, a investigação levanta novas preocupações, ao passo que também revela o lado cauteloso da Apple. Isto é, traz luz às preocupações e mecanismos que visam garantir a privacidade do utilizador, bem como a transparência das práticas levadas a cabo por Cupertino.
A Siri pode ouvir e gravar todo o tipo de conversas
A peça referida supra destaca uma fonte que preferiu manter-se anónima, mas que afirma ser uma prestadora de serviços à Apple. A seu cargo, a entidade tem a tarefa de "avaliar" a prestação da Siri com base nas suas respostas às nossas conversas e pedidos. Por outras palavras, classificar o desempenho da assistente.
De acordo com a mesma fonte, é comum ouvirem-se conversas de cariz privado. Entre estas, destacam-se temáticas sexuais, pedidos ilícitos como a encomenda de estupefacientes, detalhes médicos confidenciais, celebração de negócios contrários à lei, ou versando sobre itens legalmente proibidos.
Pouco depois, a Apple viria a público trazer a sua voz e opinião em torno da temática. Aí, a tónica incidiu nas gravações acidentais das nossas conversas. Algo que pode ocorrer por ativação errónea da assistente ao, por exemplo, reconhecer a frase de chamada.
Em seguida, essas conversas são analisadas por colaboradores humanos
Em jeito de resposta, a Apple afirmou que apenas uma pequena percentagem das gravações de conversas são analisadas para melhorar a Siri. Mais concretamente, a tecnológica de Cupertino avançou a cifra de 1% para classificar o volume de material analisado e processador por colaboradores humanos.
Uma porção ínfima dos pedidos e conversas com a Siri são analisadas para melhorar a dicção da mesma. As gravações não são associados ao Apple ID do utilizador. Por sua vez, as respostas da Siri são analisadas em instalações seguras, com todos os colaboradores a estarem adstritos a rigorosas cláusulas de confidencialidade. A empresa acrescentou que, apenas uma pequena amostra, menos de 1% das conversas diárias e ativações da Siri são utilizadas para avaliar a prestação desta. Além disso, são preferidas conversas com apenas alguns segundos, para análise rápida.
Apple contractors 'regularly hear confidential details' on Siri recordings https://t.co/9lpvvMaOzD
— The Guardian (@guardian) July 26, 2019
A resposta da Apple, citação supra, surge perante a investigação da imprensa internacional. Ciente do impacto potencialmente negativo em torno dos seus serviços e produtos, a tecnológica reafirma assim o seu compromisso com a nossa privacidade. Algo similar à postura da Google para com a sua Google Assistant.
Tal como a Google Assistant, também a Apple "ouve" as nossas conversas
Por sua vez, a Google afirmou que apenas 0,2 % das conversas gravadas pela Google Assistant são transcritas, analisadas e processadas. Aliás, o mesmo sucedo com a Alexa, a assistente virtual da Amazon utiliza os mesmos procedimentos (com as devidas especificidades).
Assim sendo, o que mais preocupou a empresa que trabalha para a Apple, não foi a prática, mas sim o teor do material analisado. De acordo com essa fonte, a Siri acabou por gravar conversas de cariz sensível e privado. A tónica das mesmas variava entre o sexo, drogas, crimes, bem como os mais diversos negócios ilícitos.
Foi precisamente este tipo de conversas que levou essa fonte a prestar declarações à imprensa. Já, por sua vez, a Apple afirma que os utilizadores são informados, nos termos do serviço e informações de privacidade quanto à prática deste processamento de dados. Mais ainda, podem desativar os serviços de localização, por exemplo.
A Apple está a subcontratar e existe um alto retorno. Não estamos propriamente a ser encorajados para respeitar a privacidade alheia, ou sequer considerar a mesma. Estamos ali para analisar os dados e avaliar o serviço (Siri). Portanto, se alguém tivesse intenções nefastas, seria fácil aproveitar-se deste acervo de dados. Não seria difícil identificar a pessoa (nas gravações).
O whistleblower mostra-se assim preocupado com um uso indevido das gravações de conversas. Algo que também pautou o caso da Google Assistant, perante o grande número de informação a ser tratada. Já, por outro lado, ambas as empresas afirmam ter vários mecanismos para garantir a privacidade do utilizador.
O que diz a Apple quanto a estas práticas?
A tecnológica de Cupertino mostra-se totalmente transparente quanto à prática. Ao utilizar este serviço, as conversas feitas com a Siri podem ser enviadas para a empresa para avaliação e tratamento. Aí, a tecnológica afirma que tal é feito com o exclusivo propósito de melhorar o serviço e produto.
Cumpre ainda ser dito que a peça jornalística não especifica a qualidade e função concreta do informante. O mesmo, diz apenas trabalhar para uma empresa que, por sua vez, fornece os seus serviços à gigante de Cupertino. Já o seu labor, tal como no caso Google Assistant, prende-se com a análise de conversas.
Ainda dentro das suas funções, cumpre-lhe reportar qualquer problema técnico com a Siri. Algo que nada tem a ver com o teor, ou conteúdo, das conversas e pedidos à Siri. Ainda assim, a fonte teme que estas empresas subcontratadas (implicando que existem outras), podem aproveitar-se destas informações.
Leia mais...
Este artigo tem mais de um ano
Fonte: The Guardian
Neste artigo: Apple, conversas, Google Assistant, siri
Nunca usei a siri nem tenciono usar. O unico metodo de input que uso é a escrita.
E quem diz que a escrita não é também monitorizada?
Deve ser tudo gravado, mesmo por causa da segurança.