Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/30169
Título: Classificação de ações em vídeos por meio de redes neurais convolucionais baseadas em grafos
Título(s) alternativo(s): Video actions classification through graph-based convolutional neural networks
Autor(es): Costa, Felipe Franco
Orientador(es): Bugatti, Pedro Henrique
Palavras-chave: Aprendizado do computador
Teoria dos grafos
Visão por computador
Machine learning
Graph theory
Computer vision
Data do documento: 14-Ago-2020
Editor: Universidade Tecnológica Federal do Paraná
Câmpus: Cornelio Procopio
Citação: COSTA, Felipe Franco. Classificação de ações em vídeos por meio de redes neurais convolucionais baseadas em grafos. 2020. Dissertação (Mestrado em Informática) - Universidade Tecnológica Federal do Paraná, Cornélio Procópio, 2020.
Resumo: Métodos para classificação de vídeos têm evoluido por meio de propostas baseadas em arquiteturas end-to-end para aprendizagem profunda. Diversos trabalhos da literatura têm corroborado que tais modelos end-to-end são eficazes para o aprendizado de características intrínsecas às imagens (ou frames de um vídeo), quando comparados a descritores tradicionais (handcrafted). Assim, de maneira geral, utiliza-se redes neurais convolucionais para realizar o aprendizado profundo em vídeos. Quando aplicadas a tais contextos as mesmas podem apresentar variações baseadas em informações temporais, em células de memória (e.g. long-short term memory - LSTM) ou até mesmo métodos de entrada de fluxo óptico para auxílio de convolução. Porém, apesar de serem, de certa forma, eficazes para a classificação de vídeos, as mesmas negligenciam a análise global de vídeos, aceitando apenas alguns poucos frames por lote de processamento para treino e inferência. Além disso, não consideram o relacionamento semântico entre diferentes vídeos pertencentes a um mesmo contexto para auxiliar o processo de classificação. Dessa forma, o presentre trabalho visa preencher essas lacunas existentes. Para tanto, serão utilizados conceitos de agrupamento de informação e detecção contextual por meio de redes convolucionais baseadas em grafos (graph convolutional networks). Por meio de tal arquitetura espera-se propor um método capaz de criar e explorar o relacionamento entre diferentes vídeos de um dado contexto, visando melhor eficácia quando comparadao aos métodos do estado da arte.
Abstract: Video classification methods have been evolving through proposals based on end-to-end architectures for deep learning. Many academic works have validated that such end-to-end models are effective for the learning of characteristics intrinsic to videos, especially when compared to traditional, handcrafted, descriptors. In general, convolutional neural networks are used for deep learning in videos. When applied to such contexts, the networks can display variations based on temporal information, based memory cells (e.g. long-short term memory), or even optical flow techniques used in conjunction with the convolution process. However, despite its effectiveness, those methods neglect global analysis, processing only a small quantity of frames in each batch during the learning and inference process. Moreover, they also completely ignore the semantic relationship between different videos that belong to the same context. Thus, the present work aims to fill the existing gaps by using concepts of information grouping and contextual detection through graph-based convolutional neural networks (GCN). With these architectures we hope to propose new approaches to create and explore the relationship between different videos of a given context, improving the state-of-the-art in the process.
URI: http://repositorio.utfpr.edu.br/jspui/handle/1/30169
Aparece nas coleções:CP - Programa de Pós-Graduação em Informática

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
CP_PPGI_M_Costa,Felipe_Franco_2020.pdf2,65 MBAdobe PDFThumbnail
Visualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.