Assistentes virtuais: Cuidado com comandos de voz escondidos
As assistentes virtuais, como o Google Now, Siri ou a Cortana são a mais recente "moda" no mundo dos smartphones. Capazes de ajudar os utilizadores na realização de tarefas do dia-a-dia, representam também novos desafios de segurança que não podem ser descurados.
Uma investigação recente conseguiu provar que estes assistentes virtuais estão expostos e podem ser usados sem os utilizadores terem consciência disso.
O ditar comandos para estes assistentes implica que estejam constantemente a ouvir o ambiente, aguardando pelo ordem que inicia o processo. Mas esta característica é também um ponto de falha, que pode ser aproveitada por outros para poderem controlar o smartphone.
Sete investigadores das Universidades de California, Berkeley e Georgetown conseguiram criar comandos de voz, incompreensíveis para os utilizadores, mas que accionam as assistentes virtuais e que lhes dão comandos. É apenas uma prova de conceito, mas deixa bem clara a vulnerabilidade.
Se na maioria dos casos um utilizador consegue ouvir o comando, neste caso, como é incompreensível e apenas interpretado pela assistente digital, o telefone pode ser usado sem o consentimento do utilizador.
Como pode ser visto no vídeo, estes comandos são dados de forma a não serem entendidos e assim passarem despercebidos, se incluídos com outros ruídos ou noutras fontes de som.
Uma forma simples de usar este conceito é através de vídeos do YouTube, onde estes comandos podem ser incluídos e assim, de forma discreta, controlar um smartphone. As utilizações podem ir de uma simples brincadeira até à mais séria e destrutiva instalação de malware.
Os investigadores criaram uma página web onde explicam este processo e a forma como pode ser aproveitado, tendo também vários vídeos que podem ser usados para testar esta "falha".
Este artigo tem mais de um ano
OK… Na realidade basta desativar a ativação do assistente por voz.
Mas sou só eu ou no vídeo falam em Google Now e Siri, mas só se vê o exemplo em Google Now. Vocês ainda acrescentam a Cortana, mas têm alguma prova que isto acontece com todos estes tipos de assistentes, nomeadamente com a Cortana que não é referida no vídeo (e presumo que no estudo) mas que vocês referem?
no caso do Siri esta função requer reconhecimento da voz da pessoa, pelo menos no iPhone 6s que é o único modelo que permite activação por voz sem estar ligado a um carregador, de modo que à partida será muito mais complicado este tipo de ataque.
No Google Now esse reconhecimento também é possível mas creio que é opcional
sao os programas actuais que usam a voz do utilizador, por isso pode acontecer em qq um desses programas com frequencia mais ou menos trabalhadas..
E isto com sons audiveis, ja ensaiaram com frequencias que o ouvido humano nao consegue ounvir mas que os aparelhos podem captar e esses programas podem entender?
Aposto que os hackers ja se lembraram de usar isto bem antes de terem feito este estudo…vai uma aposta?
se é reconhecimento de linguagem humana como é que achas que iria funcionar com frequências que não são audíveis?
Não acontece com qq programa, pois há sistemas que implementam reconhecimento vocal da pessoa, isto é, à partida só será activado pela voz duma pessoa específica, o que reduz substancialmente a capacidade para enganar.
Megatron??
Tbm pensei nisso xD
Engraçado… A skynet pode ser ativada num festival de verão… basta meterem isso a ser reproduzido no meio da música e o pessoal pensa que é uma musica dos transformers….
Não deixa ser ser interessante!