Please use this identifier to cite or link to this item:
http://riu.ufam.edu.br/handle/prefix/6258
metadata.dc.type: | Trabalho de Conclusão de Curso |
Title: | Extração de características de narrativas audiovisuais a partir de elementos visuais e suas relações |
Other Titles: | Extraction of features from audiovisual narratives from visual elements and their relationships |
metadata.dc.creator: | Alencar, Elton Dione Nascimento de Alencar |
metadata.dc.contributor.advisor1: | Mota, Edjard de Souza |
metadata.dc.contributor.referee1: | Pio, José Luiz de Souza |
metadata.dc.contributor.referee2: | Souto, Eduardo James Pereira |
metadata.dc.description.resumo: | Os vídeos compartilhados na internet representam mais da metade de todo o tráfego mundial. O YouTube foi considerada a segunda plataforma de compartilhamento de vídeos mais utilizada atualmente. Portanto, a otimização dos processos de análise do conteúdo presente nessas estruturas audiovisuais, é considerada uma solução para tornar esses processos mais efetivos. Sendo assim, este trabalho apresenta o desenvolvimento de uma ferramenta, em Python, que tem como objetivo automatizar o processo de extração de características visuais de vídeos publicados no YouTube. Para isso, foi validada uma arquitetura com os principais processos executados na ferramenta proposta, a qual faz a aplicação de dois modelos de deep-learning, pré-treinados, um para detecção de objetos e o outro para detecção de ações/movimentos presentes no vídeo. A ferramenta proposta pode ser integrada no processo de caracterização e análise de narrativas audiovisuais, uma vez que, de acordo com os resultados obtidos, as características extraídas pela ferramenta se relacionam com os principais elementos que compõem os recursos visuais da narrativa. |
Abstract: | Videos shared on the internet represent more than 80% of the traffic worldwide. YouTube is considered the second most used platform for video sharing. The optimization of the processes related to content analysis regarding these audiovisual structures is treated as a solution to make these processes more effective. For these reasons, this work presents a tool, developed in Python, which aims to automate the process of extracting visual features from videos shared on YouTube. For this, an architecture with the main processes executed in the proposed tool, which applies two pre-trained deep-lerning models, one for object detection and the other for action detection, was validated. Based on the result obtained, this approach can be integrated into the analysis process of audiovisual narratives, since the characteristics extracted by the tool are related to the main elements that compose the visual resources of the narrative. |
Keywords: | Detecção de objetos Object detection Detecção de ação Action detection Composição de cena Scene description Modelos pré-treinados Video understanding Elementos de narrativas audiovisuais Audiovisual narrative Video Youtube |
metadata.dc.subject.cnpq: | CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO: SISTEMAS DE COMPUTACAO: SOFTWARE BASICO |
metadata.dc.language: | por |
metadata.dc.publisher.country: | Brazil |
metadata.dc.publisher.department: | FT - Faculdade de Tecnologia |
metadata.dc.publisher.course: | Engenharia da Computação - Bacharelado - Manaus |
metadata.dc.rights: | Acesso Aberto |
metadata.dc.rights.uri: | An error occurred getting the license - uri. |
URI: | http://riu.ufam.edu.br/handle/prefix/6258 |
metadata.dc.contributor.grupo-pesquisa: | LIA - Laboratório de Inteligência Articial da UFAM |
metadata.dc.subject.controlado: | Youtube (Recurso eletrônico) Vídeos para Internet Vídeo digital - Processamento de dados Processamento de imagens |
Appears in Collections: | Trabalho de Conclusão de Curso - Graduação - Ciências Exatas e da Terra |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
TCC_EltonAlencar.pdf | 11,27 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.