escuro
Mercado de smart speaker deve crescer 21% em 2021

Assistentes: mais de mil frases de ativação involuntária

Pesquisadores mostram que acionamento dos assistentes de voz pode ser feito com outras palavras, além das usadas tradicionalmente

Apesar de cada mais mais presentes no dia a dia das pessoas, o uso dos assistentes de voz ainda preocupa quando o assunto é privacidade. Pesquisadores de duas entidades da Alemanha descobriram mais de mil outras palavras e frases que podem acionar involuntariamente o Google Assistente, a Alexa, a Siri e outros assistentes, além de suas tradicionais palavras de ativação. Ou seja, a ameaça a privacidade pode ser muito maior do que se imaginava.

As descobertas demonstram como é comum o diálogo em programas de TV e outras fontes produzirem falsos gatilhos que causam a ativação dos dispositivos, às vezes enviando sons próximos para os assistentes de voz. O artigo da pesquisa, intitulado “Inaceitável, onde está minha privacidade?” (na tradução), reuniu pesquisadores da Universidade Ruhr Bochum e do Max Planck Institute for Security and Privacy, da Alemanha.

Em alguns exemplos, os pesquisadores mostram casos em que as frases ativam o dispositivo localmente, onde os algoritmos fazem a análise delas. Depois de concluir erroneamente que essas são provavelmente uma palavra de ativação, os dispositivos enviam o áudio para servidores remotos onde mecanismos de verificação mais robustos também confundem as palavras com termos de ativação.

Em outros casos, as palavras ou frases enganam apenas a detecção local de palavras ativadas, mas não os algoritmos na nuvem, apontaram os pesquisadores.

Veja a íntegra da pesquisa

Total
0
Shares
Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados
Total
0
Share