Please use this identifier to cite or link to this item:
http://riu.ufam.edu.br/handle/prefix/7528
metadata.dc.type: | Trabalho de Conclusão de Curso |
Title: | Categorização de ambientes internos a partir de imagens obtidas por câmeras acopladas a robôs terrestres móveis |
metadata.dc.creator: | Cabrera Neto, José Marcos |
metadata.dc.contributor.advisor1: | Oliveira, Felipe Gomes de |
metadata.dc.contributor.referee1: | Pio, José Luiz de Souza |
metadata.dc.contributor.referee2: | Cavalcanti, João Marcos Bastos |
metadata.dc.description.resumo: | Na última década, houve um aumento significativo no interesse em incorporar informações semânticas na navegação autônoma de robôs. Neste trabalho, foi desenvolvida uma abordagem para mapear cenas internas a partir de imagens capturadas por um robô terrestre por meio de Deep Learning. A metodologia é baseada em um modelo de aprendizado de representação integrado, composto por três componentes: i) um autoencoder; ii) um modelo de detecção de objetos You Only Look Once (YOLO); e iii) uma Rede Neural Convolucional (CNN). O autoencoder e a CNN são empregados para aprender a representação a partir de imagens de cenas internas, enquanto o YOLO é usado para representar a informação semântica. Experimentos são realizados em dois conjuntos de dados de imagens bem estabelecidos para categorização de locais em ambientes internos. Os resultados demonstram que nossa abordagem alcança uma precisão significativa em diferentes cenários, com objetos dinâmicos, pessoas e condições de iluminação. Este alto nível de precisão destaca a robustez e eficiência do método proposto no mapeamento semântico de cenas internas. |
Abstract: | Over the last decade, there has been a significant increase in interest in incorporating semantic information into autonomous robot navigation. In this work, we propose an approach to map indoor scenes from images captured by a ground robot through Deep Learning. The methodology is based on an integrated representation learning model composed of three components: i) an autoencoder; ii) a You Only Look Once (YOLO) object detection model; and iii) a Convolutional Neural Network (CNN). The autoencoder and the CNN are employed for learning the representation from images of indoor scenes, while the YOLO is used for representing the semantic information. Experiments are conducted on two well-established image datasets for place categorization in indoor environments. The results demonstrate that our approach achieves significant accuracy in different scenarios, with dynamic objects, people, and lighting conditions. This high level of accuracy showcases the robustness and efficiency of our proposed method in the semantic mapping of indoor scenes. |
Keywords: | Navegação autônoma Mapeamento semântico Classificação semântica Categorização de locais Cenas internas Deep learning |
metadata.dc.subject.cnpq: | ENGENHARIAS |
metadata.dc.language: | por |
metadata.dc.publisher.country: | Brasil |
metadata.dc.publisher.department: | ICOMP - Instituto de Computação |
metadata.dc.publisher.course: | Engenharia da Computação - Bacharelado - Manaus |
metadata.dc.rights: | Acesso Aberto |
metadata.dc.rights.uri: | https://creativecommons.org/licenses/by-nc-nd/4.0/ |
URI: | http://riu.ufam.edu.br/handle/prefix/7528 |
metadata.dc.subject.controlado: | . . . |
Appears in Collections: | Trabalho de Conclusão de Curso - Graduação - Engenharias |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
TCC_JoséCabreraNeto.pdf | 3,94 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.