O “boom” dos assistentes virtuais pontua o distanciamento de um evento sazonal chamado de “Inverno da Inteligência Artificial”. Nessa teoria, pessoas e empresas acabam ignorando processos tecnológicos, seja por descrença ou por desconhecimento. Contudo, na contramão dessa “estação”, que parece pertencer a um passado distante, os chatbots, talvez principais representantes do uso de IA, seguem em alta. A quem procura por atendimento (ou autoatendimento) em empresas de praticamente todos os segmentos, é difícil encontrar uma que não ofereça ou aposte na solução.
Essa nova tendência, a exemplo de tantas outras, gera consequências positivas e outras não tão virtuosas. E isso vale para as duas partes de envolvimento com os assistentes virtuais. Isto é, os usuários finais e/ou clientes; e, ainda, as empresas provedoras e contratantes da tecnologia.
Alguns fatores acabam nos “empurrando” para o relacionamento cada vez mais comum com os robôs no autoatendimento. O principal, ao menos que é mais comentado – para não dizer reclamado – é a demora e inconsistência do atendimento humano. Não é de hoje que empresas deixaram de ficar reféns unicamente desse tipo de suporte – por gastos e episódios de imprecisão. Ao mesmo tempo, consumidores também passaram a evitar o contato humano, diante de experiências passadas que não agradaram, tampouco resolveram.
O que vemos no cenário corrente são os assistentes virtuais na linha de frente do atendimento ao cliente. Quase toda página de ajuda, mesmo aquelas já são munidas das FAQs (Perguntas Frequentes), possuem um ícone no canto inferior direito para acionar um robô com respostas rápidas.
Curiosamente, os consumidores também já se acostumaram a “conviver” com esses bots. De forma semelhante ao ocorrido com o atendimento humano, as pessoas desenvolveram hábitos saudáveis e outros desfavoráveis.
“Atendimento humano”
Talvez em razão do número elevado de vezes que os consumidores interagiram com chatbots, muitos deles acabaram por aprender atalhos para chegar a uma informação específica.
O maior “pulo do gato” é a pergunta direta por “atendimento humano”. Exemplos reais provam que as pessoas não esperam sequer a exibição da mensagem inicial, ignorando completamente o “menu” sugerido, no qual, normalmente, o assistente virtual apresenta sugestões de informações.
Essa prática, talvez inteligente do ponto de vista dos usuários, mas prejudicial para os agentes humanos, acaba driblando a principal competência do bot, que é resolver coisas simples. Com esse novo vício, os consumidores podem gastar mais tempo acionando o suporte, ao invés de encontrar a informação necessária em alguns segundos.
Perguntas objetivas
Há um consenso que alguns chatbots são melhores do que outros. Por exemplo, aqueles que funcionam na base do Processamento de Linguagem Natural desempenham melhor suas funções do que os atrelados a palavras-chave.
Contudo, independente da tecnologia, absolutamente todos eles elevam sua performance quando o usuário faz perguntas utilizando poucas palavras. Essa boa prática facilita (e muito) o trabalho dos bots de vasculharem o próprio “cérebro” na procura pela melhor informação.
Nessa questão, os índices de exemplos reais mostram que o público ainda não se acostumou plenamente com o autoatendimento. De todas as interações, cerca de 40% acontecem digitando quatro palavras ou mais, enquanto 25% são feitas com apenas uma palavra. Por outro lado, dentre as mais frequentes, a grande maioria é, de fato, executada com apenas um termo.
Expectativa mais real
De maneira resumida, e levando em consideração os dois pontos anteriores, o relacionamento entre humanos e os robôs de atendimento tem melhorado. Tanto quem já digita “falar com atendimento humano” quanto quem utiliza poucas palavras nas interações dão demonstrações disso.
Ambas as situações indicam usuários cientes do que vão encontrar ao iniciar o diálogo com um assistente virtual. A percepção de que do outro lado da conversa não há um humano é fundamental para que o bom autoatendimento aconteça. Mesmo para empresas que desenvolvem e criam personas, a explícita distinção é muito bem-vinda.
*Adriano Bertin é Knowledge Engineer da Inbenta