Siga-nos

Assistentes: mais de mil frases de ativação involuntária

Assistentes: mais de mil frases de ativação involuntária

Assistentes de Voz

Assistentes: mais de mil frases de ativação involuntária

Pesquisadores mostram que acionamento dos assistentes de voz pode ser feito com outras palavras, além das usadas tradicionalmente

Apesar de cada mais mais presentes no dia a dia das pessoas, o uso dos assistentes de voz ainda preocupa quando o assunto é privacidade. Pesquisadores de duas entidades da Alemanha descobriram mais de mil outras palavras e frases que podem acionar involuntariamente o Google Assistente, a Alexa, a Siri e outros assistentes, além de suas tradicionais palavras de ativação. Ou seja, a ameaça a privacidade pode ser muito maior do que se imaginava.

As descobertas demonstram como é comum o diálogo em programas de TV e outras fontes produzirem falsos gatilhos que causam a ativação dos dispositivos, às vezes enviando sons próximos para os assistentes de voz. O artigo da pesquisa, intitulado “Inaceitável, onde está minha privacidade?” (na tradução), reuniu pesquisadores da Universidade Ruhr Bochum e do Max Planck Institute for Security and Privacy, da Alemanha.

Em alguns exemplos, os pesquisadores mostram casos em que as frases ativam o dispositivo localmente, onde os algoritmos fazem a análise delas. Depois de concluir erroneamente que essas são provavelmente uma palavra de ativação, os dispositivos enviam o áudio para servidores remotos onde mecanismos de verificação mais robustos também confundem as palavras com termos de ativação.

Em outros casos, as palavras ou frases enganam apenas a detecção local de palavras ativadas, mas não os algoritmos na nuvem, apontaram os pesquisadores.

Veja a íntegra da pesquisa

Clique para comentar

Deixe suas impressões

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Mais notícias de Assistentes de Voz

Topo