Agressões verbais, assédio sexual, ofensas, preconceitos. Assim como já acontece em 39 idiomas, o Google Assistente decidiu jogar duro contra essas práticas também na língua portuguesa. No contra-ataque, a assistente de voz agora tem novas respostas quando lida com interações consideradas ofensivas.
Nesta primeira fase do programa que começou nos Estados Unidos, o Google Assistente no Brasil catalogou 200 termos, classificados em duas categorias: abusivos/agressivos ou inapropriados. A ideia é ampliar a lista de termos, incluindo respostas para ofensas racista e de homofobia.
Segundo o Google, no Brasil, cerca de 2% das interações de personalidade do Google Assistente – ou seja, perguntas ou comandos de caráter pessoal, como “Ok Google, como você está?” – são de mensagens que utilizam termos abusivos ou inapropriados.
O levantamento do Google mostra que um a cada seis insultos são direcionados às mulheres, seja por expressões de misoginia ou de assédio sexual, chegando a 15% das ofensas.
“Entendemos que o Google Assistente pode assumir um papel educativo e de responsabilidade social, mostrando às pessoas que condutas abusivas não podem ser toleradas em nenhum ambiente, incluindo o virtual”, observou Maia Mau, Head de Marketing do Google Assistente para a América Latina.
O Google também revela as diferenças nos tratamentos quando a interação é feita com os dois tipos de vozes existentes no Brasil: a vermelha, que soa como feminina, e a laranja, com tom masculino.
Na voz vermelha, por exemplo, comentários ou perguntas sobre a aparência física (ex.: Você é bonita?) são quase duas vezes mais comuns do que na voz laranja. A voz com tom ‘masculino’, por sua vez, recebe um grande número de comentários homofóbicos – quase uma a cada dez ofensas registradas.