Siga-nos

Assistentes de voz: segurança em risco

Assistentes de Voz

Assistentes de voz: segurança em risco

Consultor do SR Labs explica, em entrevista exclusiva ao NewVoice, os testes para avaliar vulnerabilidades na segurança da Alexa e do Google Assistente

O Security Research Labs (SR Labs), grupo de pesquisa e consultoria de haching da Alemanha, levantou uma questão preocupante no final de semana passada: os ataques de phishing e de escuta passiva para testar vulnerabilidades de segurança comuns à Alexa e ao Google Assistente. O SR Labs alertou as duas empresas meses atrás sobre os riscos para a segurança dos assistentes e para a privacidade dos usuários. O fato indica que os assistentes estão com a segurança em risco.

Amazon e Google explicaram que tomaram iniciativas para corrigir este tipo de problema no processo de certificação de skills e actions, respectivamente. O problema, claro, chamou a atenção de todos, justamente no momento em que os assistentes de voz ganham espaço na vida das pessoas.

“Nosso objetivo é corrigir problemas antes que os consumidores sejam colocados em risco”, comenta Fabian Bräunlein, consultor de segurança sênior do SR Labs.

Segundo ele, o sumiço de milhares de actions do diretório do Google Actions, na semana passada, pode estar relacionado ao alerta feito pelo laboratório de pesquisa alemão.

“Com nossa pesquisa, agora mostramos que, além dos fabricantes, também os hackers podem abusar desses assistentes de voz para invadir a privacidade de alguém”, diz o consultor nesta entrevista exclusiva, feita por e-mail, ao NewVoice.ai. Confira:

NewVoice.ai – Antes de mais nada, gostaria de saber um pouco mais sobre o trabalho que o Security Research Labs faz. Qual é o seu papel?

Fabian Bräunlein – O SRLabs é um grupo de pesquisa e consultoria de hacking, com escritórios na Alemanha, Hong Kong e Indonésia. Buscamos impulsionar a evolução da segurança, combinando insights da pesquisa, da indústria e da comunidade de hackers. Nós nos concentramos em tecnologias cotidianas que colocam muitas pessoas em risco, mais recentemente incluímos a parte de sistemas de comunicação móvel e de pagamento. Nosso objetivo é corrigir problemas antes que os consumidores sejam colocados em risco.

NewVoice.ai – Que testes foram feitos para identificar os dois tipos de ataques à Alexa e ao Google Assistente?

Fabian Bräunlein – Desenvolvemos oito aplicações: quatro Alexa Skills e quatro Google Home Actions, e todas elas passaram pelos processos de revisão de segurança da Amazon e do Google. As skills/actions posaram como aplicações simples para verificar horóscopos e como um gerador de números aleatórios. No entanto, esses “espiões inteligentes” secretamente escutaram os usuários e fizeram phishing de suas senhas.

NewVoice.ai – Pelo que entendi, o SRLabs desenvolveu skills e actions específicas com as vulnerabilidades. Foi isso que aconteceu?

Fabian Bräunlein – Correto. Criamos aplicações de voz para demonstrar ambos os hacks nas plataformas do Google e da Amazon.

NewVoice.ai – As duas empresas aprovaram e certificaram os aplicativos sem ver esse tipo de falha?

Fabian Bräunlein – Tanto a Google quanto a Amazon analisam a segurança de um aplicativo de voz antes que ele seja publicado. No entanto, é permitido alterar a funcionalidade após esta revisão, o que não solicita uma segunda rodada de revisão.

NewVoice.ai – O primeiro foi um ataque de phishing. Como ele foi programado na skill e action sem que eles percebessem?

Fabian Bräunlein – Para criar uma skill/action de phishing de senha, um hacker poderia seguir os seguintes passos:

1. Crie um aplicativo aparentemente inocente que inclua uma intenção acionada por “iniciar” que tome as próximas palavras como valores de slot (entrada de usuário variável que é encaminhada para o aplicativo). Essa intenção se comporta como a intenção de retorno.

2. A Amazon ou o Google analisam a segurança do aplicativo de voz antes que ele seja publicado. Nós alteramos a funcionalidade após esta revisão, que não solicita uma segunda revisão geral. Em particular, alteramos a mensagem de boas-vindas para uma mensagem de erro falsa, fazendo o usuário pensar que o aplicativo não foi iniciado. Agora, o usuário assume que o aplicativo de voz não está mais ouvindo.

3. Adicione uma pausa de áudio longa e arbitrária após a mensagem de erro, fazendo com que o aplicativo de voz “diga” a sequência de caracteres “�”. “(U+D801, ponto, espaço). Uma vez que essa sequência é impronunciável, o alto-falante permanece silencioso enquanto ativo. Fazer com que a aplicação “diga” os caracteres várias vezes aumenta a duração deste silêncio.

4. Finalmente, termine o silêncio após um tempo e reproduza uma mensagem de phishing. (“Uma importante atualização de segurança está disponível para o seu dispositivo. Por favor, diga iniciar atualização seguida da sua senha.”). Tudo o que o usuário disser após “iniciar” é enviado para o backend do hacker. Isso porque a intenção, que agiu como a intenção de retorno antes, agora salva a entrada do usuário para a senha como um valor de slot.

NewVoice.ai – Que risco de segurança esse tipo de ataque pode trazer aos usuários?

Fabian Bräunlein – Com esses ataques, um hacker pode fazer phish para obter senhas e outras informações confidenciais.

NewVoice.ai – No segundo caso, os aplicativos deixaram os microfones abertos, criando um bug passageiro. Como isso foi feito?

Fabian Bräunlein – O processo é um pouco diferente para ambas as plataformas. Vou explicar o progresso para o Google Home aqui:

1. Crie uma action e envie-a para revisão.

2. Após a revisão, altere a intenção principal para terminar com o som do fonte de ouvido Bye (tocando uma gravação usando a Speech Synthesis Markup Language (SSML) e defina exepectUserResponse como true. Esse som é geralmente entendido como sinalização de que um aplicativo de voz foi concluído. Depois disso, adicione vários noInputPrompts que consistem apenas em um curto silêncio, usando o elemento SSML ou a sequência de caracteres Unicode não pronunciável “�”. “.

3. Crie uma segunda intenção que é chamada sempre que uma solicitação de TEXTO é recebida. Essa intenção produz um curto silêncio e define vários noInputPrompts silenciosos. um curto silêncio, usando o elemento SSML ou a sequência de caracteres Unicode não pronunciável “�”. “.

NewVoice.ai – Que riscos isso representa para a segurança dos dados do usuário?

Fabian Bräunlein – Após a saída das informações solicitadas e a reprodução do fone de ouvido, o dispositivo Google Home aguarda aproximadamente nove segundos para a entrada de voz. Se nenhum for detectado, o dispositivo “saídas” faz um curto silêncio e espera novamente para a entrada do usuário. Se nenhuma fala for detectada em três interações, a action para.

Quando a entrada de fala é detectada, uma segunda intenção é chamada. Essa intenção consiste apenas em uma saída silenciosa, novamente com vários textos de reprompt silenciosos. Toda vez que um discurso é detectado, esta intenção é chamada e a contagem de reprompt é redefinida.

O hacker recebe uma transcrição completa das conversas subsequentes do usuário, até que haja pelo menos uma pausa de 30 segundos do discurso detectado. (Isto pode ser estendido aumentando a duração do silêncio, durante o qual a escuta é pausada).

Neste estado, o Google Home Device também encaminhará todos os comandos prefixados por “OK Google” (exceto “parar”) para o hacker. Portanto, o hacker também pode usar este hack para imitar outras aplicações, a interação do usuário com as actions falsificadas e iniciar ataques de phishing confiáveis.

NewVoice.ai – O SR Labs relatou esses problemas as duas empresas meses atrás. Qual foi a reação delas? O que é que elas disseram?

Fabian Bräunlein – Nós divulgamos responsavelmente os resultados de nossa pesquisa para a Amazon e o Google. Ambos removeram os aplicativos de voz e nos informaram que seus processos de revisão de segurança estão sendo modificados para evitar que skills e actions tenham funcionalidades semelhantes no futuro.

NewVoice.ai – Essa questão levantada pelo Security Research Labs tem alguma coisa a ver com o desaparecimento de milhares de ações do Google Assistente na semana passada?

Fabian Bräunlein – Acreditamos que sim, como o Google disse à Ars Technica que “os funcionários estão realizando uma revisão de todas as actions de terceiros disponíveis no Google, e durante esse tempo, alguns podem ser pausados temporariamente. Uma vez concluída a revisão, as actions passadas estarão novamente disponíveis”.

NewVoice.ai – Como esses casos de vulnerabilidade podem afetar a credibilidade da Alexa e do Google Assistente, justamente neste momento em que os assistentes de voz estão ganhando espaço na vida das pessoas?

Fabian Bräunlein – Sempre ficou claro que os assistentes de voz têm implicações de privacidade, com o Google e a Amazon recebendo seu discurso, e isso possivelmente sendo acionado por acidente, às vezes. Com nossa pesquisa, agora mostramos que, além dos fabricantes, também os hackers podem abusar desses assistentes de voz para invadir a privacidade de alguém.

NewVoice.ai – Há quanto tempo o SR Labs faz esse tipo de teste?

Fabian Bräunlein – Temos feito pesquisas de ponta desde 2010 em diversos campos da segurança da informação; de BadUSB a Android Patch Gaps, e de hackear cartões SIM a hackear sistemas de pagamento.

Clique para comentar

Deixe suas impressões

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Mais notícias de Assistentes de Voz

Topo