원문정보
Robust SLAM Using Vision-LiDAR Map Fusion and Encoder Correction
초록
영어
Simultaneous Localization and Mapping(SLAM) is a technique that builds a map of the surrounding environment while estimating the current position, and it is widely used in various fields such as autonomous driving, drones, and augmented reality(AR). However, its performance can degrade depending on the type of sensor and the environment. For example, vision-based SLAM struggles in textureless environments, while LiDAR-based SLAM has limitations in areas lacking sufficient structural features. To overcome these limitations, this study proposes a SLAM method that fuses visual and LiDAR data and integrates encoder-based odometry. In addition, a homography-based approach is introduced to align the coordinate systems of each sensor without an explicit calibration process. Experiments conducted in various indoor and outdoor environments with obstacles confirmed that the proposed method operates effectively, achieving an average localization error of approximately 3.7cm.
한국어
동시적 위치 추정 및 지도 작성(Simultaneous Localization And Mapping, SLAM)은 주변 환경의 지도를 구 축하며 현재 위치를 추정하는 기술로, 자율주행 로봇, 드론, 증강현실(AR) 등 다양한 분야에 활용된다. 그러나 센 서 종류와 환경에 따라 성능이 저하될 수 있는데, 예를 들어 비전 기반 SLAM은 질감이 부족한 환경에서, 라이다 기반 SLAM은 구조물이 드문 공간에서 한계를 가진다. 본 연구에서는 이러한 센서의 한계를 보완하기 위해 비전과 라이다를 융합하고, 엔코더 기반의 오도메트리(odometry)를 결합한 SLAM 기법을 제안한다. 또한, 명시적인 보정 (calibration) 과정 없이 호모그래피(homography)를 적용하여 각 센서의 좌표계를 정렬하는 방법도 함께 제안한 다. 실내외 다양한 장애물이 존재하는 환경에서 실험한 결과, 평균 위치 오차는 약 3.7cm로 측정되어 효과적으로 잘 작동함을 확인하였다.
목차
Abstract
1. 서론
2. 센서별 SLAM 기술
2.1 라이다 SLAM
2.2 비전 SLAM
2.3 휠 엔코더 오도메트리(wheel encoder odometry)
2.4 융합 SLAM
3. 제안하는 융합 SLAM
3.1 좌표계 정렬(coordinate alignment)
3.2 후기 융합 방법
4. 실험 결과
4.1 실내 환경 실험 결과
4.2 실외 환경 실험 결과
4.3 출발-도착 위치 오차
5. 결론
Acknowledgement
참고문헌
