Logo PUCPR

VALIDAÇÃO DE TÉCNICAS DE ODOMETRIA VISUAL EM HARDWARE DE BAIXO CUSTO

MARÇANEIRO JUNIOR, Silvio Cezar ¹; TEIXEIRA, Marco Antonio Simoes ²
Curso do(a) Estudante: Engenharia de Software – Escola Politécnica – Câmpus Curitiba
Curso do(a) Orientador(a): Ciência da Computação – Escola Politécnica – Câmpus Curitiba

Introdução: À navegação autônoma é um dos principais desafios da robótica móvel, exigindo precisão na localização e movimentação dos robôs. A odometria visual desponta como uma alternativa promissora ao uso exclusivo de sensores caros, como LiDARs de alta precisão. Entretanto, sua aplicação em plataformas de baixo custo impõe desafios técnicos, como calibração de sensores, fusão de dados e limitações computacionais. Este projeto busca validar técnicas de odometria visual em sistemas robóticos acessíveis, utilizando hardware de baixo custo e tecnologias open source. O robô desenvolvido conta com motores de hoverboard, câmeras de alta resolução, sensor LiDAR e um mini PC Intel NUC, todos integrados via plataforma ROS2. Objetivos: O objetivo geral do projeto é investigar a viabilidade de técnicas de odometria visual aplicadas à navegação autônoma em plataformas de baixo custo. Pretende-se demonstrar que, com planejamento adequado, é possível alcançar desempenho satisfatório mesmo com restrições orçamentárias. Entre os objetivos específicos estão: revisar algoritmos de visão computacional, definir os requisitos de hardware ideais, comparar técnicas de odometria em ambiente controlado e documentar os resultados por meio de relatórios e publicações científicas. Materiais e método: O robô foi construído do zero, com motores e placas de hoverboard, alimentados por baterias de lítio e chumbo. Foram utilizados sensores como o LiDAR Livox Mid-360 e câmeras Logitech 4K e Intel RealSense. O sistema foi implementado com ROS2, usando os pacotes Cartographer, Navigation2 e algoritmos de visão como YOLO. A navegação combinou mapeamento 3D com centralização baseada em imagem. Os testes foram realizados em ambiente controlado, com métricas como precisão da odometria, estabilidade na movimentação e resposta dos sensores. Resultados: O sistema demonstrou navegação eficiente e estável, validando a integração de visão computacional e LiDAR em hardware acessível. A adoção do “supersensor”, composto por câmeras e LiDAR, aumentou a precisão da percepção ambiental. A integração com aplicação web e botoeiras sem fio permite controle remoto e testes robustos. Considerações finais: O projeto confirma a viabilidade técnica de navegação autônoma com baixo custo, ressaltando a importância da integração de sensores e do uso do ROS2. Para trabalhos futuros, recomenda-se expandir os testes para ambientes externos e investigar técnicas de aprendizado de máquina para aprimorar a fusão sensorial.

Palavras-chave: Navegação autônoma; Odometria visual; ROS2; Robótica móvel; LiDAR.

APRESENTAÇÃO EM VÍDEO

Esta pesquisa foi desenvolvida com bolsa PUCPR no programa PIBITI Jr.
Legendas:
  1. Estudante
  2. Orientador
  3. Colaborador

QUERO VOTAR NESTE TRABALHO

Para validarmos seu voto, por favor, preencha os campos abaixo. Alertamos que votos duplicados ou com CPF inválido não serão considerados.