O Google liberou nesta semana um modelo de código aberto chamado MT5, que afirma poder alcançar resultados avançados em tarefas de processamento natural sem a interferência do inglês.
O MT5 é uma variante do modelo T5 do Google que foi treinado para cobrir dados de até 101 idiomas, abrangendo entre 300 milhões e 13 bilhões de parâmetros (variáveis usadas para fazer previsões).
De acordo com o Google, o objetivo do projeto de inteligência artificial multilíngue é construir um modelo que possa compreender mais de 7 mil idiomas em todo o mundo. Os modelos de IA compartilham informações entre idiomas semelhantes, permitindo o processamento de línguas em que a tecnologia não foi programada.
A empresa também disse que os pesquisadores se concentraram em retirar conteúdos da web para acompanhar o crescimento dos modelos de IA, que exigem conjuntos de dados maiores e mais complexos para o desenvolvimento.
Além disso, o Google afirmou que o maior modelo de MT5 superou todos os concorrentes em testes de benchmark contra os quais foi testado. Os testes incluíram cinco tarefas multilíngue, como identificação de paráfrase e compreensão de leitura.
“No geral, nossos resultados destacam a importância da capacidade do modelo no aprendizado de representação multilíngue e sugerem que expandir uma receita simples de pré-treinamento pode ser uma alternativa viável por depender de filtragem, dados paralelos ou tarefas intermediárias”, destacaram os pesquisadores do Google.
O modelo multilíngue do Google foi divulgado uma semana após o Facebook anunciar que desenvolveu um novo formato de inteligência artificial, chamado M2M-100, capaz traduzir diretamente 100 idiomas, sem a dependência do inglês.