Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/30004
Título: Comparando BERT, RoBERTa e DistilBERT para análise de sentimentos em texto
Título(s) alternativo(s): Comparing BERT, RoBERTa and DistilBERT for sentiment analysis in text
Autor(es): Rosa Junior, Marcos Yuri
Orientador(es): Candido Junior, Arnaldo
Palavras-chave: Redes neurais (Computação)
Processamento de linguagem natural (Computação)
Inteligência artificial
Neural networks (Computer science)
Natural language processing (Computer science)
Artificial intelligence
Data do documento: 10-Dez-2021
Editor: Universidade Tecnológica Federal do Paraná
Câmpus: Medianeira
Citação: ROSA JUNIOR, Marcos Yuri. Comparando BERT, RoBERTa e DistilBERT para análise de sentimentos em texto. 2021. Trabalho de Conclusão de Curso (Bacharelado em Ciência da Computação) - Universidade Tecnológica Federal do Paraná, Medianeira, 2021.
Resumo: O desejo de melhorar a comunicação entre o homem e a máquina proporcionou vários avanços na área de Processamento de Linguagem Natural (PLN), uma das grandes sub-áreas da Inteligência Artificial (IA). Ao passar dos anos a criação e o aprimoramento das técnicas de PLN alteraram o conceito das melhores práticas para construção dos modelos de Redes Neurais Artificiais (RNAs) voltadas para esta área, surgindo a possibilidade de utilizar as RNAS para tarefas de PLN como a análise de sentimentos. Em 2018 um novo modelo de arquitetura chamado Bidirectional Encoder Representation from Transformer (BERT) alcançou um novo estado da arte, obtendo ótimos resultados em diferentes tipos de tarefas. Alguns novos modelos baseados em BERT surgiram com uma proposta de obter melhores resultados como o RoBERTa, e outros em abaixar o custo de treinamento e tentar manter a performance, como o DistilBERT. Neste Trabalho é comparado os modelos BERT, RoBERTa e DistilBERT com os seus parâmetros refinados para a tarefa de análise de sentimentos binária. Os resultados obtidos neste trabalho, indicam a superioridade dos modelos BERT e RoBERTa no quesito de acurácia, porém o DistilBERT necessita de cerca da metade do tempo necessário para finalizar o fine-tuning. A partir destes resultados, a escolha do melhor modelo para a tarefa de análise de sentimentos binária irá depender do cenário que será aplicado.
Abstract: The desire to improve communication between man and machine has provided several advances in the area of Natural Language Processing (PLN), one of the great sub-areas of Artificial Intelligence (AI). Over the years, the creation and improvement of PLN techniques have changed the concept of best practices for building models of Artificial Neural Networks (ANNs) aimed at this area, giving rise to the possibility of using RNAS for PLN tasks such as the analysis of feelings. In 2018, a new architectural model called Bidirectional Encoder Representationfrom Transformer (BERT) reached a new state of the art, obtaining excellent results in different types of tasks. Some new models based on BERT have emerged with a proposal to obtain better results such as RoBERTa, and others to lower the training cost and try to maintain performance, such as DistilBERT. In this work, the BERT, RoBERTa and DistilBERT models are compared with their refined parameters for the binary sentiment analysis task. The results obtained in this work indicate the superiority of the BERT and RoBERTa models in terms of accuracy, but the DistilBERT requires about half the time needed to complete the fine-tuning. From these results, the choice of the best model for a binary sentiment analysis task will depend on the scenario to be applied.
URI: http://repositorio.utfpr.edu.br/jspui/handle/1/30004
Aparece nas coleções:MD - Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
comparandobertanalisesentimentos.pdf1,05 MBAdobe PDFThumbnail
Visualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons