As assistentes virtuais, como o Google Now, Siri ou a Cortana são a mais recente “moda” no mundo dos smartphones. Capazes de ajudar os utilizadores na realização de tarefas do dia-a-dia, representam também novos desafios de segurança que não podem ser descurados.
Uma investigação recente conseguiu provar que estes assistentes virtuais estão expostos e podem ser usados sem os utilizadores terem consciência disso.
O ditar comandos para estes assistentes implica que estejam constantemente a ouvir o ambiente, aguardando pelo ordem que inicia o processo. Mas esta característica é também um ponto de falha, que pode ser aproveitada por outros para poderem controlar o smartphone.
Sete investigadores das Universidades de California, Berkeley e Georgetown conseguiram criar comandos de voz, incompreensíveis para os utilizadores, mas que accionam as assistentes virtuais e que lhes dão comandos. É apenas uma prova de conceito, mas deixa bem clara a vulnerabilidade.
Se na maioria dos casos um utilizador consegue ouvir o comando, neste caso, como é incompreensível e apenas interpretado pela assistente digital, o telefone pode ser usado sem o consentimento do utilizador.
Como pode ser visto no vídeo, estes comandos são dados de forma a não serem entendidos e assim passarem despercebidos, se incluídos com outros ruídos ou noutras fontes de som.
Uma forma simples de usar este conceito é através de vídeos do YouTube, onde estes comandos podem ser incluídos e assim, de forma discreta, controlar um smartphone. As utilizações podem ir de uma simples brincadeira até à mais séria e destrutiva instalação de malware.
Os investigadores criaram uma página web onde explicam este processo e a forma como pode ser aproveitado, tendo também vários vídeos que podem ser usados para testar esta “falha”.