Pplware

Apple já respondeu ao caso das gravações de conversas pela Siri

Após a recente exposição da gravação e análise de conversas por parte da Apple com o intuito de melhorar a sua assistente virtual, Siri, a empresa foi alvo de bastante escrutínio. Partido deste redobrado interesse e temática transversal à Google Assistant, uma nova investigação revelou detalhes importantes.

Entre o modus operandi da empresa e as suas preocupações com a privacidade, assim se faz a Siri.


Levada a cabo pelo The Guardian, a investigação levanta novas preocupações, ao passo que também revela o lado cauteloso da Apple. Isto é, traz luz às preocupações e mecanismos que visam garantir a privacidade do utilizador, bem como a transparência das práticas levadas a cabo por Cupertino.

A Siri pode ouvir e gravar todo o tipo de conversas

A peça referida supra destaca uma fonte que preferiu manter-se anónima, mas que afirma ser uma prestadora de serviços à Apple. A seu cargo, a entidade tem a tarefa de “avaliar” a prestação da Siri com base nas suas respostas às nossas conversas e pedidos. Por outras palavras, classificar o desempenho da assistente.

De acordo com a mesma fonte, é comum ouvirem-se conversas de cariz privado. Entre estas, destacam-se temáticas sexuais, pedidos ilícitos como a encomenda de estupefacientes, detalhes médicos confidenciais, celebração de negócios contrários à lei, ou versando sobre itens legalmente proibidos.

Pouco depois, a Apple viria a público trazer a sua voz e opinião em torno da temática. Aí, a tónica incidiu nas gravações acidentais das nossas conversas. Algo que pode ocorrer por ativação errónea da assistente ao, por exemplo, reconhecer a frase de chamada.

Em seguida, essas conversas são analisadas por colaboradores humanos

Em jeito de resposta, a Apple afirmou que apenas uma pequena percentagem das gravações de conversas são analisadas para melhorar a Siri. Mais concretamente, a tecnológica de Cupertino avançou a cifra de 1% para classificar o volume de material analisado e processador por colaboradores humanos.

Uma porção ínfima dos pedidos e conversas com a Siri são analisadas para melhorar a dicção da mesma. As gravações não são associados ao Apple ID do utilizador. Por sua vez, as respostas da Siri são analisadas em instalações seguras, com todos os colaboradores a estarem adstritos a rigorosas cláusulas de confidencialidade. A empresa acrescentou que, apenas uma pequena amostra, menos de 1% das conversas diárias e ativações da Siri são utilizadas para avaliar a prestação desta. Além disso, são preferidas conversas com apenas alguns segundos, para análise rápida.

 

 

A resposta da Apple, citação supra, surge perante a investigação da imprensa internacional. Ciente do impacto potencialmente negativo em torno dos seus serviços e produtos, a tecnológica reafirma assim o seu compromisso com a nossa privacidade. Algo similar à postura da Google para com a sua Google Assistant.

Tal como a Google Assistant, também a Apple “ouve” as nossas conversas

Por sua vez, a Google afirmou que apenas 0,2 % das conversas gravadas pela Google Assistant são transcritas, analisadas e processadas. Aliás, o mesmo sucedo com a Alexa, a assistente virtual da Amazon utiliza os mesmos procedimentos (com as devidas especificidades).

Assim sendo, o que mais preocupou a empresa que trabalha para a Apple, não foi a prática, mas sim o teor do material analisado. De acordo com essa fonte, a Siri acabou por gravar conversas de cariz sensível e privado. A tónica das mesmas variava entre o sexo, drogas, crimes, bem como os mais diversos negócios ilícitos.

 

 

Foi precisamente este tipo de conversas que levou essa fonte a prestar declarações à imprensa. Já, por sua vez, a Apple afirma que os utilizadores são informados, nos termos do serviço e informações de privacidade quanto à prática deste processamento de dados. Mais ainda, podem desativar os serviços de localização, por exemplo.

A Apple está a subcontratar e existe um alto retorno. Não estamos propriamente a ser encorajados para respeitar a privacidade alheia, ou sequer considerar a mesma. Estamos ali para analisar os dados e avaliar o serviço (Siri). Portanto, se alguém tivesse intenções nefastas, seria fácil aproveitar-se deste acervo de dados. Não seria difícil identificar a pessoa (nas gravações).

whistleblower mostra-se assim preocupado com um uso indevido das gravações de conversas. Algo que também pautou o caso da Google Assistant, perante o grande número de informação a ser tratada. Já, por outro lado, ambas as empresas afirmam ter vários mecanismos para garantir a privacidade do utilizador.

O que diz a Apple quanto a estas práticas?

A tecnológica de Cupertino mostra-se totalmente transparente quanto à prática. Ao utilizar este serviço, as conversas feitas com a Siri podem ser enviadas para a empresa para avaliação e tratamento. Aí, a tecnológica afirma que tal é feito com o exclusivo propósito de melhorar o serviço e produto.

 

Cumpre ainda ser dito que a peça jornalística não especifica a qualidade e função concreta do informante. O mesmo, diz apenas trabalhar para uma empresa que, por sua vez, fornece os seus serviços à gigante de Cupertino. Já o seu labor, tal como no caso Google Assistant, prende-se com a análise de conversas.

Ainda dentro das suas funções, cumpre-lhe reportar qualquer problema técnico com a Siri. Algo que nada tem a ver com o teor, ou conteúdo, das conversas e pedidos à Siri. Ainda assim, a fonte teme que estas empresas subcontratadas (implicando que existem outras), podem aproveitar-se destas informações.

Leia mais…

 

Exit mobile version