Apesar de cada mais mais presentes no dia a dia das pessoas, o uso dos assistentes de voz ainda preocupa quando o assunto é privacidade. Pesquisadores de duas entidades da Alemanha descobriram mais de mil outras palavras e frases que podem acionar involuntariamente o Google Assistente, a Alexa, a Siri e outros assistentes, além de suas tradicionais palavras de ativação. Ou seja, a ameaça a privacidade pode ser muito maior do que se imaginava.
As descobertas demonstram como é comum o diálogo em programas de TV e outras fontes produzirem falsos gatilhos que causam a ativação dos dispositivos, às vezes enviando sons próximos para os assistentes de voz. O artigo da pesquisa, intitulado “Inaceitável, onde está minha privacidade?” (na tradução), reuniu pesquisadores da Universidade Ruhr Bochum e do Max Planck Institute for Security and Privacy, da Alemanha.
Em alguns exemplos, os pesquisadores mostram casos em que as frases ativam o dispositivo localmente, onde os algoritmos fazem a análise delas. Depois de concluir erroneamente que essas são provavelmente uma palavra de ativação, os dispositivos enviam o áudio para servidores remotos onde mecanismos de verificação mais robustos também confundem as palavras com termos de ativação.
Em outros casos, as palavras ou frases enganam apenas a detecção local de palavras ativadas, mas não os algoritmos na nuvem, apontaram os pesquisadores.