Please use this identifier to cite or link to this item: http://riu.ufam.edu.br/handle/prefix/6258
metadata.dc.type: Trabalho de Conclusão de Curso
Title: Extração de características de narrativas audiovisuais a partir de elementos visuais e suas relações
Other Titles: Extraction of features from audiovisual narratives from visual elements and their relationships
metadata.dc.creator: Alencar, Elton Dione Nascimento de Alencar
metadata.dc.contributor.advisor1: Mota, Edjard de Souza
metadata.dc.contributor.referee1: Pio, José Luiz de Souza
metadata.dc.contributor.referee2: Souto, Eduardo James Pereira
metadata.dc.description.resumo: Os vídeos compartilhados na internet representam mais da metade de todo o tráfego mundial. O YouTube foi considerada a segunda plataforma de compartilhamento de vídeos mais utilizada atualmente. Portanto, a otimização dos processos de análise do conteúdo presente nessas estruturas audiovisuais, é considerada uma solução para tornar esses processos mais efetivos. Sendo assim, este trabalho apresenta o desenvolvimento de uma ferramenta, em Python, que tem como objetivo automatizar o processo de extração de características visuais de vídeos publicados no YouTube. Para isso, foi validada uma arquitetura com os principais processos executados na ferramenta proposta, a qual faz a aplicação de dois modelos de deep-learning, pré-treinados, um para detecção de objetos e o outro para detecção de ações/movimentos presentes no vídeo. A ferramenta proposta pode ser integrada no processo de caracterização e análise de narrativas audiovisuais, uma vez que, de acordo com os resultados obtidos, as características extraídas pela ferramenta se relacionam com os principais elementos que compõem os recursos visuais da narrativa.
Abstract: Videos shared on the internet represent more than 80% of the traffic worldwide. YouTube is considered the second most used platform for video sharing. The optimization of the processes related to content analysis regarding these audiovisual structures is treated as a solution to make these processes more effective. For these reasons, this work presents a tool, developed in Python, which aims to automate the process of extracting visual features from videos shared on YouTube. For this, an architecture with the main processes executed in the proposed tool, which applies two pre-trained deep-lerning models, one for object detection and the other for action detection, was validated. Based on the result obtained, this approach can be integrated into the analysis process of audiovisual narratives, since the characteristics extracted by the tool are related to the main elements that compose the visual resources of the narrative.
Keywords: Detecção de objetos
Object detection
Detecção de ação
Action detection
Composição de cena
Scene description
Modelos pré-treinados
Video understanding
Elementos de narrativas audiovisuais
Audiovisual narrative
Video
Youtube
metadata.dc.subject.cnpq: CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO: SISTEMAS DE COMPUTACAO: SOFTWARE BASICO
metadata.dc.language: por
metadata.dc.publisher.country: Brazil
metadata.dc.publisher.department: FT - Faculdade de Tecnologia
metadata.dc.publisher.course: Engenharia da Computação - Bacharelado - Manaus
metadata.dc.rights: Acesso Aberto
metadata.dc.rights.uri: An error occurred getting the license - uri.
URI: http://riu.ufam.edu.br/handle/prefix/6258
metadata.dc.contributor.grupo-pesquisa: LIA - Laboratório de Inteligência Articial da UFAM
metadata.dc.subject.controlado: Youtube (Recurso eletrônico)
Vídeos para Internet
Vídeo digital - Processamento de dados
Processamento de imagens
Appears in Collections:Trabalho de Conclusão de Curso - Graduação - Ciências Exatas e da Terra

Files in This Item:
File Description SizeFormat 
TCC_EltonAlencar.pdf11,27 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.