최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국항공우주학회지 = Journal of the Korean Society for Aeronautical & Space Sciences, v.46 no.6, 2018년, pp.479 - 486
정재형 (Department of Mechanical and Aerospace Engineering) , 허세종 (Department of Mechanical and Aerospace Engineering) , 박찬국 (Department of Mechanical and Aerospace Engineering)
In order to ensure reliable navigation performance of a lunar exploration rover, navigation algorithms using additional sensors such as inertial measurement units and cameras are essential on lunar surface in the absence of a global navigation satellite system. Unprecedentedly, Visual Odometry (VO) ...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
VO는 어떤 알고리즘인가? | VO는 연속된 이미지를 통해 카메라의 6자유도(선형 속도 및 각속도) 상대 움직임을 추정하고 그 값을 누적하여 카메라의 위치 및 자세를 계산하는 알고리즘이며, 탐사로버, 무인기 혹은 스마트폰 등 다양한 플랫폼에 적용되고 있다. 하지만, VO는 상대 움직임을 누적하여 최종적인 위치 및 자세를 계산하기 때문에 시간에 따라 오차가 누적되는 단점을 가지고 있어, 이를 보완하고자 많은 연구들이 진행되고 있다. | |
VO와 비교했을 때, SSDVO이 특징점의 깊이를 어떻게 구하는가? | 영상의 모든 영역을 사용하는 밀접(dense) 직접방식 VO[3]와 달리 본 논문에서 제안하는 SSDVO는 특징점의 패치 정렬로 로버(카메라)의 상대 움직임을 계산한다. 따라서 영상의 모든 픽셀이 아닌 추출된 특징점의 깊이만을 계산하며, 스테레오 영상의 좌우 특징점은 Kanade Lucas Tomasi (KLT) 추적기를 이용하여 정합 관계를 구하였다. 픽셀의 밝기차를 최소화하는 광류 (optical flow)를 계산하는 KLT 추적기는 이미지 간의 움직임이 크거나 광량의 변화가 심한 경우 그 성능이 저하된다. | |
지구 밖 환경에서 성공적으로 임무를 수행한 탐사 로버는 어떤 것이 있는가? | 이처럼 달 탐사에 대한 관심이 다시 높아지는 이유는 우주개발에 대한 전초기지로서의 활용도가 높고, 우주탐사 기술을 검증하기에 적합 하다는 것이다. 지구 밖 환경에서 성공적으로 임무를 수행한 탐사 로버로 70년대 러시아의 달 탐사 로버인 루노코드(Lunokhod), 2013년 중국의 달탐사 로버인 위투(Yutu) 그리고 미국의 최초 화성 탐사 로버인 소저너(Sojourner), 쌍둥이 로버인 스피릿(Spirit)과 오퍼튜니티(Opportunity) 그리고 가장 최근에 화성에 착륙한 큐리오서티(Curiosity) 로버가 있다. 지구환경과 달리 화성과 달에는 위성항법시스템이 존재하지 않기 때문에 다른 항법 시스템이 필요하다. |
Cheng, Y., Maimone, M., and Matthies, L., "Visual odometry on the Mars exploration rovers," IEEE International Conference on Systems, Man and Cybernetics, Oct. 2005, pp. 903-910.
Fraundorfer, F., and Scaramuzza, D., "Visual odometry: Part II: Matching, robustness, optimization, and applications," IEEE Robotics & Automation Magazine, Vol. 19, No. 2, June 2012, pp. 78-90.
Steinbrucker, F., Sturm, J., and Cremers, D., "Real-time visual odometry from dense RGB-D images," IEEE Internation Conference on Computer Vision Workshops, Nov. 2011, pp. 719-722.
Howard, A., "Real-time stereo visual odometry for autonomous ground vehicles," IEEE/RSJ International Conference on Intelligent Robots and Systems, Oct. 2008, pp. 3946-3952.
Lambert, A., Furgale, P., and Barfoot, T. D., "Field testing of visual odometry aided by a sun sensor and inclinometer," Journal of Field Robotics, Vol. 29, No. 3, Feb. 2012, pp. 426-444.
Engel, J., Sturm, J., and Cremers, D., "Semi-dense visual odometry for a monocular camera," IEEE International Conference on Computer Vision, 2013, pp. 1449-1456.
Forster, C., Pizzoli, M., and Scaramuzza, D., "SVO: Fast semi-direct monocular visual odometry," IEEE International Conference on Robotics and Automation, June 2014, pp.15-22.
Furgale, P., Carle, P., Enright, J., and Barfoot, T. D., "The Devon Island rover navigation dataset," The International Journal of Robotics Research, Vol. 31, No. 6, April 2012, pp. 707-713.
Kerl, C., Sturm, J., and Cremers, D., "Robust odometry estimation for RGB-D cameras," IEEE International Conference on Robotics and Automation, May 2013, pp. 3748-3754.
Geiger, A., Ziegler, J., and Stiller, C., "Stereoscan: Dense 3d reconstruction in realtime," IEEE Intelligent Vehicles Symposium(IV), June 2011, pp. 963-968.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.