Please use this identifier to cite or link to this item: http://riu.ufam.edu.br/handle/prefix/7528
metadata.dc.type: Trabalho de Conclusão de Curso
Title: Categorização de ambientes internos a partir de imagens obtidas por câmeras acopladas a robôs terrestres móveis
metadata.dc.creator: Cabrera Neto, José Marcos
metadata.dc.contributor.advisor1: Oliveira, Felipe Gomes de
metadata.dc.contributor.referee1: Pio, José Luiz de Souza
metadata.dc.contributor.referee2: Cavalcanti, João Marcos Bastos
metadata.dc.description.resumo: Na última década, houve um aumento significativo no interesse em incorporar informações semânticas na navegação autônoma de robôs. Neste trabalho, foi desenvolvida uma abordagem para mapear cenas internas a partir de imagens capturadas por um robô terrestre por meio de Deep Learning. A metodologia é baseada em um modelo de aprendizado de representação integrado, composto por três componentes: i) um autoencoder; ii) um modelo de detecção de objetos You Only Look Once (YOLO); e iii) uma Rede Neural Convolucional (CNN). O autoencoder e a CNN são empregados para aprender a representação a partir de imagens de cenas internas, enquanto o YOLO é usado para representar a informação semântica. Experimentos são realizados em dois conjuntos de dados de imagens bem estabelecidos para categorização de locais em ambientes internos. Os resultados demonstram que nossa abordagem alcança uma precisão significativa em diferentes cenários, com objetos dinâmicos, pessoas e condições de iluminação. Este alto nível de precisão destaca a robustez e eficiência do método proposto no mapeamento semântico de cenas internas.
Abstract: Over the last decade, there has been a significant increase in interest in incorporating semantic information into autonomous robot navigation. In this work, we propose an approach to map indoor scenes from images captured by a ground robot through Deep Learning. The methodology is based on an integrated representation learning model composed of three components: i) an autoencoder; ii) a You Only Look Once (YOLO) object detection model; and iii) a Convolutional Neural Network (CNN). The autoencoder and the CNN are employed for learning the representation from images of indoor scenes, while the YOLO is used for representing the semantic information. Experiments are conducted on two well-established image datasets for place categorization in indoor environments. The results demonstrate that our approach achieves significant accuracy in different scenarios, with dynamic objects, people, and lighting conditions. This high level of accuracy showcases the robustness and efficiency of our proposed method in the semantic mapping of indoor scenes.
Keywords: Navegação autônoma
Mapeamento semântico
Classificação semântica
Categorização de locais
Cenas internas
Deep learning
metadata.dc.subject.cnpq: ENGENHARIAS
metadata.dc.language: por
metadata.dc.publisher.country: Brasil
metadata.dc.publisher.department: ICOMP - Instituto de Computação
metadata.dc.publisher.course: Engenharia da Computação - Bacharelado - Manaus
metadata.dc.rights: Acesso Aberto
metadata.dc.rights.uri: https://creativecommons.org/licenses/by-nc-nd/4.0/
URI: http://riu.ufam.edu.br/handle/prefix/7528
metadata.dc.subject.controlado: .
.
.
Appears in Collections:Trabalho de Conclusão de Curso - Graduação - Engenharias

Files in This Item:
File Description SizeFormat 
TCC_JoséCabreraNeto.pdf3,94 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.