$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

센서 융합 시스템을 이용한 심층 컨벌루션 신경망 기반 6자유도 위치 재인식
A Deep Convolutional Neural Network Based 6-DOF Relocalization with Sensor Fusion System 원문보기

로봇학회논문지 = The journal of Korea Robotics Society, v.14 no.2, 2019년, pp.87 - 93  

조형기 (Dept. of Electrical and Electronic Engineering, Yonsei University) ,  조해민 (Dept. of Electrical and Electronic Engineering, Yonsei University) ,  이성원 (Dept. of Electrical and Electronic Engineering, Yonsei University) ,  김은태 (Dept. of Electrical and Electronic Engineering, Yonsei University)

Abstract AI-Helper 아이콘AI-Helper

This paper presents a 6-DOF relocalization using a 3D laser scanner and a monocular camera. A relocalization problem in robotics is to estimate pose of sensor when a robot revisits the area. A deep convolutional neural network (CNN) is designed to regress 6-DOF sensor pose and trained using both RGB...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 추후 연구로는 향상된 네트워크 구조를 학습하여 조명, 날씨 등 다양한 환경 변화가 존재하는 환경에서도 동작 가능한 위치 재인식 방법에 대한 연구를 수행하고자 한다. 또한, 네트워크 학습에 필요한 파라미터를 검색하는 방식을 도입하여 위치인식 성능을 높이고, 파티클 필터를 통한 위치인식이 심하게 실패한 경우 오차를 극복하는 연구를 진행하고자 한다.
  • 본 논문에서는 3차원 레이저 스캐너와 비전 센서를 융합한 센서 시스템을 통해 심층 컨벌루션 신경망의 학습 및 파티클 필터 기반 위치인식 방법을 제안하였다. 심층 컨벌루션 신경망의 학습에는 카메라 영상의 RGB 정보뿐만 아니라 주변 환경의 거리 정보도 포함한다.

가설 설정

  • Motion 모델은 control 입력 ut이 주어졌을 때, 현재 상태 x1의 확률을 이전 스 텝의 상태 xt-1로부터 표현한다. Motion 모델에서 사용되는 ut는 constant velocity motion으로 가정했다. 파티클 필터에서 상태 xt는 파티클 xt = <xt, wt>, j = 1, .
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
로봇의 위치인식은 무엇인가 로봇의 위치인식은 내비게이션 분야에서 현재 로봇이 어디에 있는지를 추정하는 문제로서 다양한 환경에서 많은 연구가 진행되었다. 위치인식 문제 중 위치 재인식(Relocalization)은 로봇이 이전에 방문했던 지역을 재방문했을 때 현재 절대적인 위치를 인식하며 SLAM (Simultaneous Localization and Mapping) 의루프 클로징(Loop Closing) 검출이나 납치(Kidnapped) 상황에서의 위치인식 문제에도 적용 가능한 필수 요소 기술이다.
위치 재인식(Relocalization)은 어떠한 기술인가 로봇의 위치인식은 내비게이션 분야에서 현재 로봇이 어디에 있는지를 추정하는 문제로서 다양한 환경에서 많은 연구가 진행되었다. 위치인식 문제 중 위치 재인식(Relocalization)은 로봇이 이전에 방문했던 지역을 재방문했을 때 현재 절대적인 위치를 인식하며 SLAM (Simultaneous Localization and Mapping) 의루프 클로징(Loop Closing) 검출이나 납치(Kidnapped) 상황에서의 위치인식 문제에도 적용 가능한 필수 요소 기술이다. 비전 센서를 이용한 위치 재인식은 외형 기반 방법과 학습 기반 방법으로 연구가 진행되어 왔다[1].
위치 재인식 중 외형 기반 방법을 설명하시오 비전 센서를 이용한 위치 재인식은 외형 기반 방법과 학습 기반 방법으로 연구가 진행되어 왔다[1]. 외형 기반 방법은 SIFT, SURF, BRIEF, ORB와 같은 Hand-crafted 특징점을 영상으로부터 추출하는 것을 기본으로 한다. 매우 많은 영상 데이터를 모아서 추출된 특징점으로 특정 모델을 만들고 재방문 시 모델의 특징과 매칭하여 현재 센서의 자세(pose)를 추정한다. 이러한 방법 중 널리 알려진 방법은 Structure-from-Motion (SfM)[2]을 통해 3차원 지도를 생성하고 새로운 쿼리 이미지가 들어왔을 때, 해당 이미지의 특징점과 모델링 된 특징점과의 비교를 통해 센서 자세를 추정한다.
질의응답 정보가 도움이 되었나요?

참고문헌 (16)

  1. R. Li, Q. Liu, J. Gui, D. Gu, and H. Hu, "Indoor Relocalization in Challenging Environments With Dual-Stream Convolutional Neural Networks," IEEE Transaction on Automation Science and Engineering, vol. 15, no. 2, pp. 651-662, Apr. 2018. 

  2. J. L. Schonberger and J.-M. Frahm, "Structure-from-Motion Revisited," 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 4104-4113, Jun. 2016. 

  3. D. Nister and H. Stewenius, "Scalable recognition with a vocabulary tree," 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06), New York, NY, USA, 2006, DOI: 10.1109/CVPR.2006.264. 

  4. A. Kendall, M. Grimes, and R. Cipolla, "PoseNet: A convolutional network for real-time 6-DOF camera relocalization," 2015 IEEE International Conference on Computer Vision (ICCV), Santiago, Chile, pp. 2938-2946, 2015. 

  5. A. Kendall and R. Cipolla, "Modelling uncertainty in deep learning for camera relocalization," 2016 IEEE International Conference on Robotics and Automation (ICRA), Stockholm, Sweden, pp. 4762-4769, 2016. 

  6. S. Thrun, D. Fox, W. Burgard, and F. Dellaert, "Robust Monte Carlo localization for mobile robots," Artificial Intelligence, vol. 128, no. 1-2, pp. 99-141, May. 2001. 

  7. R. Arandjelovic, P. Gronat, A. Torii, T. Pajdla, and J. Sivic, "NetVLAD: CNN Architecture for Weakly Supervised Place Recognition," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 40, no. 6, pp. 1437-1451, Jun., 2018. 

  8. J. Shotton, B. Glocker, C. Zach, S. Izadi, A. Criminisi, and A. Fitzgibbon, "Scene coordinate regression forests for cam- era relocalization in RGB-D images," 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, OR, USA, pp. 2930-2937, 2013. 

  9. E. Brachmann, A. Krull, S. Nowozin, J. Shotton, F. Michel, S. Gumhold, and C. Rother, "DSAC - Differentiable RANSAC for Camera Localization," 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, USA, 2017, DOI: 10.1109/CVPR.2017.267. 

  10. Z. Chen, O. Lam, A. Jacobson, and M. Milford, "Convolutional neural network-based place recognition," arXiv:1411.1509 [cs.CV], 2014. 

  11. R. Clark, S. Wang, A. Markham, N. Trigoni, and H. Wen, "VidLoc: A Deep Spatio-Temporal Model for 6-DoF Video-Clip Relocalization," 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, USA, pp. 6856-6864, 2017. 

  12. F. Walch, C. Hazirbas, L. Leal-Taixe, T. Sattler, S. Hilsenbeck, and D. Cremers, "Image-based localization using LSTMs for structured feature correlation," 2017 IEEE International Conference on Computer Vision (ICCV), Venice, Italy, pp. 627-637, 2017. 

  13. M. Velas, M. Spanel, Z. Materna, and A. Herout, "Calibration of RGB Camera With Velodyne LiDAR." WSCG 2014, pp. 135-144. 2014. 

  14. H. Jo, H. M. Cho, S. Lee, and E. Kim, "Multi-Resolution Point Cloud Generation Based on Heterogeneous Sensor Fusion System," 2017 14th International Conference on Ubiquitous Robots and Ambient Intelligence (URAI), Jeju, South Korea, pp. 886-888, 2017. 

  15. C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, "Going deeper with convolutions," 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston, MA, USA, 2015, DOI: 10.1109/CVPR.2015.7298594. 

  16. H. Jo, H. M. Cho, S. Jo, and E. Kim, "Efficient Grid-Based Rao-Blackwellized Particle Filter SLAM With Interparticle Map Sharing," IEEE Transactions on Mechatronics, vol. 23, no. 2, pp. 714-724, Apr. 2018. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

이 논문과 함께 이용한 콘텐츠

유발과제정보 저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로