Siga-nos

Amazon treina a Alexa para melhorar conversas

Assistentes de Voz

Amazon treina a Alexa para melhorar conversas

Pesquisadores da Amazon trabalham para treinar um modelo de PLN capaz de trazer respostas mais precisas às consultas dos usuários

Melhorar a qualidade das respostas da Alexa. É com este objetivo que cientistas da Amazon trabalham para treinar um modelo de processamento de linguagem natural (PLN) capaz de trazer respostas mais precisas às consultas dos usuários. O trabalho leva em conta a abordagem de transferência e adaptação (Tanda), baseada no Transformer do Google.

Segundo os pesquisadores, a abordagem Tanda pode ser efetivamente adaptada a novos domínios com uma pequena quantidade de dados de treinamento e, ao mesmo tempo, alcançar maior precisão do que as técnicas tradicionais. A Tanda é uma metodologia de treinamento dividida em duas partes. A primeira adapta o modelo Transformer a uma tarefa de resposta a perguntas, enquanto a segunda adapta-o a tipos específicos de perguntas e respostas.

Os Transformers são um tipo de arquitetura neural introduzida em um artigo de pesquisadores do Google Brain, a divisão de pesquisa de IA do Google. Como todas as redes neurais profundas, elas contêm funções (neurônios) dispostas em camadas interconectadas que transmitem sinais dos dados de entrada e ajustam lentamente a força sináptica (pesos) de cada conexão.

É assim que todos os modelos de IA extraem recursos e aprendem a fazer previsões, mas os Transformers têm atenção exclusiva, de modo que todo elemento de saída seja conectado a cada elemento de entrada. As ponderações entre eles são calculadas dinamicamente, com efeito.

Preparação do sistema

Um conjunto de dados de larga escala e de uso geral – ASNQ de sentença de resposta – é usado para preparar o sistema, após o qual uma etapa de ajuste fino o adapta ao domínio de destino. Os pesquisadores explicam que o ASNQ – derivado do conjunto de dados de perguntas naturais do Google – é muito maior que os corpora (coletânea de documentos) existentes.

São 57.242 perguntas em um conjunto usado para treinar os modelos de inteligência artificial e 2.672 perguntas em um conjunto de validação. E contém exemplos negativos, além de exemplos positivos, que ajudam o modelo a identificar as melhores respostas para as perguntas dadas, a partir de perguntas semelhantes, porém incorretas.

Para validar sua abordagem, os pesquisadores da Amazon utilizaram primeiro duas estruturas populares de PNL – o BERT, do Google, e o RoBERTa, do Facebook – e mediram a precisão média e a recordação recíproca, usando todo o conjunto de candidatos para cada pergunta.

Os cientistas relatam que os modelos BERT e RoBERTa com ajuste fino no Tanda fornecem uma “grande melhoria” em relação ao estado da arte e que são “uma ordem de grandeza” menos afetada pela inserção de dados ruidosos.

Em um segundo experimento, a equipe construiu quatro corpora diferentes com perguntas amostradas das interações dos clientes Alexa. Eles dizem que o uso da Tanda com o mencionado RoBERTa produz uma melhoria “ainda maior” do que com o BERT, e que a Tanda permanece robusta contra o ruído.

“Trabalhos futuros interessantes podem ser dedicados para abordar a questão sobre a aplicabilidade e generalização da abordagem da Tanda para outras tarefas da PNL”, destacaram os coautores do estudo. “Seria interessante testar se o ASNQ pode produzir os mesmos benefícios para tarefas relacionadas, mas claramente diferentes, por exemplo, parafraseando ou implicação textual, em que a relação entre os membros dos pares de texto é frequentemente diferente daquela que ocorre entre perguntas e respostas.”

Fonte: Venturebeat

Clique para comentar

Deixe suas impressões

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Mais notícias de Assistentes de Voz

Topo