earticle

논문검색

논문

드론비행에서 객체상황인식을 위한 초광각렌즈 왜곡보정기술

원문정보

A Study on Ultra Wide-Angle Lens Distortion Correction Technique for Object Situation Recognition in Drone Flight

문석환

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

This paper is for omni-directional image monitoring using drones equipped with GPS and super wide angle image lens. It proposes an algorithm that corrects and separates distorted images of super-wide-angle lens and accurately detects the surrounding information and proximity information of the object, and implements it through conversion test and empirical test. In this case, the distortion correction coefficient of the ultra-wide-angle lens was extracted by the pre-patterning operation and the 360° omni-directional image was transformed into the orthogonal coordinate system through the coordinate system transformation. Finally, the location information of the object is provided based on the target GPS coordinates and the state information of the object is imaged via the zoom camera. In the future, it is necessary to provide detailed image information such as reference point patch and correction point matching technique through location based search technology and fusion research. In the future, it is necessary to provide detailed image information such as reference point patch and correction point matching technique through location based search technology and fusion research.

한국어

본 논문에서는 GPS위성을 이용하는 무인 비행체분야 중 초광각 영상렌즈를 탑재한 드론의 전방위 영상 모니터링을 위해 초광각렌즈의 왜곡영상을 보정하고 분할하여 주변의 상황정보와 객체의 근접정보를 정확하게 검출하기 위한 알고리즘을 제안하고 변환 테스트와 실증 테스트를 통해 구현하였다. 여기서는 사전 패턴작업을 통해 초광각 렌즈의 왜곡보정계수를 추출하고 360˚전방위 영상을 좌표계 변환을 통해 직교 좌표계로 변화하는 작업을 수행하였다. 또한 주변 상황에 대한 정보취득을 위해 방사왜곡 보정을 한 5분할 영상으로 분할하여 테스트하였고, 최종적으로 목표물 의 좌표에 기반한 줌(Zoom) 촬영을 통해 객체의 상태정보를 제공하는 시스템으로 구현하였다. 향후에는 위치기반 탐색기술과의 융합을 통해 영상의 기준점 패치 및 보정점 정합기술을 통해 세밀한 영상정보를 제공하고 분석하는 연 구를 진행하거나 영상 이미지 데이터 정합기술을 활용한 지상 좌표계와 GPS 좌표계, 영상좌표계 간의 Mapping과 관련한 절대 좌표점 산출연구가 필요할 것이다.

목차

요약
Abstract
1. 서론
2. 초광각렌즈의 영상좌표계 변환
3. 왜곡 영상의 4단계 변환 프로세스와 알고리즘
3. 초광각 영상 왜곡보정 적용 테스트
3.1 초광각 렌즈의 영상왜곡보정 구현
3.2 테스트 환경
3.3 취득영상
3.4 왜곡보정계수 추출
3.5 왜곡보정계수 적용 테스트
3.6 실내 기반 전방위 왜곡영상 변환 테스트
3.7 드론의 전방위 취득영상 왜곡보정 테스트 결과
4. 결론
참고문헌

저자정보

  • 문석환 Suk Hwan Moon. 제주한라대학교 컴퓨터멀티미디어과

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      0개의 논문이 장바구니에 담겼습니다.