Compreensão De Linguagem Natural: Uma solução em português brasileiro
Resumo
O Projeto A.D.A (Assistente Distribuída Avançada)1 tem como objetivo desenvolver uma assistente pessoal de código aberto capaz de interagir com o usuário a partir de um ecossistema de dispositivos por meio de comandos de voz em português. Dentro desse escopo, visamos interpretar os comandos em linguagem natural e traduzi-los para uma linguagem formal compilável. Para o presente trabalho, fizemos um estudo preliminar a fim de investigar entre as soluções atualmente disponíveis, baseadas em redes neurais artificiais capazes de capturar diversas relações semânticas e sintáticas, se, e como, estas podem contribuir para o desenvolvimento de uma solução nos moldes requeridos pelo projeto.Referências
Devlin, J., Chang, M.-W., Lee, K., and Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint ar- Xiv:1810.04805.
Grosz, B. J. and Sidner, C. L. (1986). Attention, intentions, and the structure of discourse. Computational linguistics, 12(3):175–204.
Howard, J. and Ruder, S. (2018). Universal language model ne-tuning for text classication. arXiv preprint arXiv:1801.06146.
Luz, F. F. (2019). Deep neural semantic parsing: translating from natural language into SPARQL. PhD thesis, Universidade de São Paulo.
Peters, M. E., Neumann, M., Iyyer, M., Gardner, M., Clark, C., Lee, K., and Zettlemoyer, L. (2018). Deep contextualized word representations. arXiv preprint ar- Xiv:1802.05365.
Roman, N. T. (2001). Estudo de dialogos orientados a tarefa usando a teoria de multiagentes. Master's thesis, Universidade Estadual de Campinas, São Paulo, Brazil.
Souza, F., Nogueira, R., and Lotufo, R. (2019). Portuguese named entity recognition using bert-crf. arXiv preprint arXiv:1909.10649.
Taylor, W. L. (1953). Cloze procedure: a new tool for measuring readability. Journalism Bulletin, pages 415–433.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, ., and Polosukhin, I. (2017). Attention is all you need. In Advances in neural information processing systems, pages 5998–6008. 2https://www.clips.uantwerpen.be/conll2003/ner/
Grosz, B. J. and Sidner, C. L. (1986). Attention, intentions, and the structure of discourse. Computational linguistics, 12(3):175–204.
Howard, J. and Ruder, S. (2018). Universal language model ne-tuning for text classication. arXiv preprint arXiv:1801.06146.
Luz, F. F. (2019). Deep neural semantic parsing: translating from natural language into SPARQL. PhD thesis, Universidade de São Paulo.
Peters, M. E., Neumann, M., Iyyer, M., Gardner, M., Clark, C., Lee, K., and Zettlemoyer, L. (2018). Deep contextualized word representations. arXiv preprint ar- Xiv:1802.05365.
Roman, N. T. (2001). Estudo de dialogos orientados a tarefa usando a teoria de multiagentes. Master's thesis, Universidade Estadual de Campinas, São Paulo, Brazil.
Souza, F., Nogueira, R., and Lotufo, R. (2019). Portuguese named entity recognition using bert-crf. arXiv preprint arXiv:1909.10649.
Taylor, W. L. (1953). Cloze procedure: a new tool for measuring readability. Journalism Bulletin, pages 415–433.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, ., and Polosukhin, I. (2017). Attention is all you need. In Advances in neural information processing systems, pages 5998–6008. 2https://www.clips.uantwerpen.be/conll2003/ner/
Publicado
19/08/2020
Como Citar
VICENTE NETO, Augusto; DO ESPÍRITO SANTO, Guilherme; GOLDMAN, Alfredo.
Compreensão De Linguagem Natural: Uma solução em português brasileiro. In: ESCOLA REGIONAL DE APRENDIZADO DE MÁQUINA E INTELIGÊNCIA ARTIFICIAL DE SÃO PAULO, 1. , 2020, São Paulo.
Anais [...].
Porto Alegre: Sociedade Brasileira de Computação,
2020
.
p. 5-8.