$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

Abstract AI-Helper 아이콘AI-Helper

This paper surveys past and state-of-the-art SLAM technologies. The standard methods for solving the SLAM problem are the Kalman filter, particle filter, graph, and bundle adjustment-based methods. Kalman filters such as EKF (Extended Kalman Filter) and UKF (Unscented Kalman Filter) have provided su...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

제안 방법

  • 전방 모노카메라를 이용하여 임베디드 시스템 상에서 GraphSLAM을 수행할 수 있는 방법도 제안되었다[37]. SIFT 특징이 사용되었으며, 실시간성 확보를 위하여 서술자를 기존의 128차원에서 36차원으로 낮춰 표현하였다. Front-end에서는 5점 RANSAC 또는 오도메트리 정보로 로봇의 이동을 예측하고 특징의 위치를 추정하였다.
  • 초음파센서 정보로부터 특징을 추출하여 EKF-SLAM을 수행한 연구 결과도 있다[24,25]. Sliding data window를 사용하여 최근에 측정된 초음파센서 정보를 수집하고, 수집한 정보의 양상을 분석하여 벽의 코너, 돌출된 부분 등에서 강인한 특징을 추출하였다. 제안된 특징은 기존의 직선, 점 특징들보다 안정적인 정합 결과를 제공해 주었으며, 결과적으로 실내 환경에서 장시간 동안 실패 없이 초음파센서 기반 SLAM을 수행할 수 있었다.
  • RBPF에 기반한 다중 로봇 SLAM 방법도 제안되었다[30]. 각 로봇은 천장 지향 모노카메라를 이용하여 특징지도를 작성하였다. 주행 초기에 로봇들은 다른 로봇들의 상대적인 위치를 모르는 상태에서 출발점을 기준으로 특징지도를 작성해 나간다.
  • 따라서 EKF-SLAM의 구조에 새로운 특징을 등록하기 위해서 지연 방식으로 특징을 초기화하였다. 거리가 먼 특징을 SLAM에 활용하기 위해서 가까운 거리에 있는 특징과 먼 곳에 있는 특징을 구분하여 각기 다른 모델을 세워 위치추정에 기여할 수 있도록 하였다[4]. 또 다른 대안으로 위치 불확실성을 여러 가우시안 분포의 합(sum of Gaussians)으로 표현하는 방법도 시도되었다[5].
  • 초기 모노카메라 기반 SLAM의 문제점은 거리가 먼 특징들의 경우 위치 불확실성을 가우시안 분포로 표현하기 어려운 것이었다. 따라서 EKF-SLAM의 구조에 새로운 특징을 등록하기 위해서 지연 방식으로 특징을 초기화하였다. 거리가 먼 특징을 SLAM에 활용하기 위해서 가까운 거리에 있는 특징과 먼 곳에 있는 특징을 구분하여 각기 다른 모델을 세워 위치추정에 기여할 수 있도록 하였다[4].
  • 전체 키프레임과 특징지도를 보정하기 위하여 BA를 사용하였으나, 지도의 규모가 커지면 연산량이 크게 증가하는 문제로 인해 실시간 SLAM이 어려웠다. 따라서 현재 카메라 위치에 인접한 5개의 키프레임들로 별도의 국부 BA를 수행하여 각 키프레임과 특징들의 위치를 보정하여 실시간성을 확보하였다. 그림 9에서와 같이 좁은 환경에서는 성공적인 결과를 보여주지만, BA의 연산량 증가 문제로 인해 넓은 환경에서는 SLAM이 어려운 문제가 존재하였다.
  • 주행 초기에 로봇들은 다른 로봇들의 상대적인 위치를 모르는 상태에서 출발점을 기준으로 특징지도를 작성해 나간다. 로봇들은 다른 로봇들이 작성한 지도와 자신이 작성한 지도의 중첩되는 부분을 자동으로 감지하여 최적의 변환을 계산하여 지도를 통합하였다.
  • BA를 SLAM에 활용한 대표적인 예로는 PTAM (Parallel Tracking and Mapping)이 있다[43]. 모노카메라로 FAST 특징을 추출하여 5점 RANSAC 알고리즘으로 카메라 이동과 특징의 위치를 예측하였다. 특징들은 키프레임(keyframe)을 생성하여 등록하고 카메라가 일정 거리 이상을 이동할 경우 새로운 키 프레임을 추가하였다.
  • 모노카메라 또는 스테레오카메라가 장착된 쿼드롭터로 FastSLAM을 수행하는 방법이 제시되었다[29]. 모노카메라의 경우 5점 RANSAC (Random Sample Consensus) 알고리즘을 통해 연속된 영상으로부터 샘플의 위치를 예측하고 SLAM을 수행하였다. 스테레오카메라를 사용하는 경우에는 3점 RANSAC 알고리즘을 적용하여 샘플의 분포를 예측하였다.
  • SLAM은 미지의 공간에서 위치추정 및 지도작성을 위해 필요한 기술이다. 본 논문에서는 SLAM 기술을 크게 Kalman filter, particle filter, graph 및 bundle adjustment에 기반한 방법들로 구분하여 지난 몇 년 동안의 연구성과를 정리하였다. 초기에는 Kalman filter에 기반한 연구가 주류를 이루었으나, 특징 개수의 증가로 인한 연산량의 급격한 증가 등의 문제를 극복하기 위하여 particle filter 기반의 다양한 SLAM 방법도 제안되었다.
  • 위치가 정확히 추정된 특징들을 관측해야 카메라의 위치를 지속적으로 추정할 수 있으므로, 아무런 정보가 없는 SLAM 초기에는 위치를 알고 있는 몇 개의 특징들에 의존하여 SLAM을 수행하였다. 새로 관측된 특징의 3차원 위치는 PF를 이용한 지연방식으로 초기화하였다[2]. 그림 1(a)와 같이 특징이 관측된 방향으로 샘플을 직선 모양으로 분포시키고, 시점의 변화에 따라 샘플이 일정 길이 이하로 수렴하여 가우시안 분포로 근사화시킬 수 있을 때 EKF에 등록하여 그림 1(b)와 같이 위치추정에 활용하였다.
  • 초기에는 좁은 사무실 환경에서 코너 특징을 사용하였으며, 위치를 알고 있는 특징들로부터 SLAM을 시작하여 주변으로 지도를 확장하였다. 위치가 정확히 추정된 특징들을 관측해야 카메라의 위치를 지속적으로 추정할 수 있으므로, 아무런 정보가 없는 SLAM 초기에는 위치를 알고 있는 몇 개의 특징들에 의존하여 SLAM을 수행하였다. 새로 관측된 특징의 3차원 위치는 PF를 이용한 지연방식으로 초기화하였다[2].
  • SLAM 기술의 안정성이 크게 향상되고 임베디드 시스템에서의 실시간성이 확보됨으로써 저가의 센서를 이용한 다양한 방법들도 제안되었다. 주로 천장지향 카메라 또는 전방카메라를 사용하거나 감지거리가 짧은 거리센서를 사용하여 SLAM을 수행하였다.
  • 모노카메라로 FAST 특징을 추출하여 5점 RANSAC 알고리즘으로 카메라 이동과 특징의 위치를 예측하였다. 특징들은 키프레임(keyframe)을 생성하여 등록하고 카메라가 일정 거리 이상을 이동할 경우 새로운 키 프레임을 추가하였다. 전체 키프레임과 특징지도를 보정하기 위하여 BA를 사용하였으나, 지도의 규모가 커지면 연산량이 크게 증가하는 문제로 인해 실시간 SLAM이 어려웠다.

이론/모형

  • 그림 10과 같이 키프레임 방식으로 graph를 작성하며 카메라 위치 주변에서는 inner window를 이용하여 실시간으로 BA를 수행하였다. Inner window의 바깥 부분에서는 outer window를 구성하고, 최근 우수한 성능을 보여준 g2o 알고리즘[45]에 기반하여 graph 최적화 작업을 수행하였다. Outer window의 크기는 제한하여 전체적인 연산량이 증가하지 않도록 하였다.
  • 단기 smoother는 최근에 작성된 graph를 최적화하며 실시간으로 동작한다. SWFG (Sliding-Window Factor Graphs) 기법을 통해 융합된 센서정보로 노드와 노드 사이의 구속조건을 계산한다. 장기 smoother는 전체 graph의 오차를 최소화하며 여분의 시스템 자원을 이용하여 느리게 동작한다.
  • 그림 7. Sliding-window 기반 iSAM 수행.
  • Dellaert와 Kaess는 처음으로 희소행렬의 인수분해를 통하여 오프라인으로 GraphSLAM을 수행하였다[34]. 그리고 이어서 실시간 GraphSLAM 방법인 iSAM (incremental Smoothing and Mapping)을 발표하였다[35]. 로봇의 위치와 특징들 사이의 모든 구속조건을 고려하여 오프라인으로 full SLAM 문제를 풀기 위한 GraphSLAM 방법도 2006년에 제안되었다[36].
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
거리센서에는 어떤 것들이 있는가? SLAM에는 거리센서, 비전센서 등 다양한 종류의 센서가 사용된다. 거리센서는 대표적으로 레이저스캐너, 적외선스캐너, 초음파센서, 라이다(LIDAR), 레이더(RADAR) 등이 있으며, 비전센서에는 스테레오카메라, 모노카메라, 전방향카메라, Kinect 등이 포함된다. 거리센서는 쉽게 물체까지의 거리정보를 얻을 수는 있지만, 활용할 수 있는 정보의 종류가 제한적인 단점이 있다.
로봇이 위치정보에 기반하여 작업을 수행하기 위해 필요한 것은 무엇인가? 로봇이 미지의 공간 상에서 주행을 시작하는 경우 주변환경에 대한 아무런 정보가 없다. 따라서 로봇이 위치정보에 기반하여 작업을 수행하기 위해서는 센서정보를 이용하여 환경에 대한 지도를 작성하고, 동시에 작성된 지도로부터 로봇의 현재 위치를 추정하는 SLAM (Simultaneous Localization And Mapping) 과정이 필요하다. 최근 성공적으로 상용화된 위치인식 기능이 탑재된 청소로봇의 경우를 예로 들면, 전원을 켰을 때의 위치를 기준점으로 설정하여 장착된 센서(예, 비전센서, 거리센서)로부터 수집한 정보로 지도를 작성하는 동시에, 자신의 위치를 실시간으로 추정하여 청소한 구역과 청소해야 할 구역을 구분한다.
특징 초기화의 지연 방식이 주로 사용된 때는 언제인가? 지연 방식은 필터에 새로운 특징을 등록하기 이전에 필터 외부에서 특징의 위치를 대략적으로 결정하는 방법이다. 이는 모노카메라 기반 SLAM의 초기에 거리를 가늠하기 어려운 특징들이 환경에 존재하는 경우 주로 사용되었다[2,3]. 지연이 없는 방식은 새로운 특징이 관측되면 즉시 필터에 등록시키고, 추가 관측정보로부터 특징의 위치 불확실성을 감소시켜 나간다.
질의응답 정보가 도움이 되었나요?

참고문헌 (53)

  1. R. Martinez-Cantin and J. A. Castellanos, "Unscented SLAM for large-scale outdoor environments," Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, pp 328-333, 2005. 

  2. A. J. Davison, "Real-time simultaneous localization and mapping with a single camera," Proc. of the 9th Int. Conf. on Computer Vision, pp. 1403-1410, 2003. 

  3. A. J. Davison, I. Reid, N. Molton, and O. Stasse, "MonoSLAM: real-time single camera SLAM," IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 29, no. 6, pp. 1052-1067, 2007. 

  4. J. Civera, A. J. Davison, and J. M. M. Montiel, "Interacting multiple model monocular SLAM," Proc. of the IEEE Int. Conf. of Robotics and Automation, pp. 3704-3709, 2008. 

  5. J. Sola, A. Monin, M. Devy, and T. Lemaire, "Undelayed initialization in bearing only SLAM," Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, pp. 2499-2504, 2005. 

  6. J. M. M. Montiel, J. Civera, and A. J. Davison, "Unified inverse depth parametrization for monocular SLAM," Proc. of Robotics Science and Systems, 2006. 

  7. J. Civera, A. J. Davison, and J. M. M. Montiel, "Inverse depth to depth conversion for monocular slam," Proc. of the IEEE Int. Conf. on Robotics and Automation, pp. 2-7, 2007. 

  8. J. Civera, A. J. Davison, and J. M. M. Montiel, "Inverse depth parametrization for monocular SLAM," IEEE Trans. on Robotics, vol. 24, no. 5, pp. 932-945, 2008. 

  9. T. Lemaire, S. Lacroix, and J. Sola, "A practical 3D bearingonly SLAM algorithm," Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, pp. 2449-2454, 2005. 

  10. T. Lemaire and S. Lacroix, "Monocular-vision based SLAM using Line Segments," Proc. of the IEEE Int. Conf. on Robotics and Automation, pp. 2791-2796, Apr. 2007. 

  11. S. Se, D. Lowe, and J. Little, "Mobile robot localization and mapping with uncertainty using scale-invariant visual landmarks," Int. Journal of Robotics Research, vol. 8, no. 21, pp. 735-758, 2002. 

  12. S. Y. Hwang, Y. J. Lee, B. D. Yim, and J. B. Song, "Bearingonly SLAM using SIFT-based Object Recognition in Indoor Environments," Proc. of the Int. Conf. on Ubiquitous Robots and Ambient Intelligence, pp. 344-349, 2006. 

  13. W. Y. Jeong and K. M. Lee, "CV-SLAM: a new ceiling visionbased SLAM technique," Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, pp. 3195-3200, 2005. 

  14. S. Y. Hwang and J. B. Song, "Stable monocular SLAM with indistinguishable features on estimated ceiling plane using upward camera," Proc. of the Int. Conf. on Control, Automation, and Systems, pp. 704-709, 2008. 

  15. W. Y. Jeong and K. M. Lee, "Visual SLAM with line and corner features," Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, pp. 2570-2575, 2006. 

  16. H. Choi, D. Kim, J. Hwang, C. Park, and E. Kim, "Efficient simultaneous localization and mapping based on ceiling-view: ceiling boundary feature map approach," Advanced Robotics, vol. 26, pp. 653-671, 2012. 

  17. S. Y. Hwang and J. B. Song, "Upward monocular camera based SLAM using corner and door features," Proc. of the IFAC 17th World Congress, pp. 1663-1668, Jul. 2008. 

  18. S. Y. Hwang and J. B. Song, "Monocular vision and odometrybased SLAM using position and orientation of ceiling lamps," Journal of Institute of Control, Robotics and Systems, vol. 17, no. 2, pp. 164-170, 2011. 

  19. J. Folkesson, P. Jensfelt, and H. I. Christensen, "Visual SLAM in the measurement subspace," IEEE Int. Conf. on Robotics and Automation, pp. 30-35, 2005. 

  20. S. Y. Hwang, J. B. Song, and M. Kim, "Robust extraction of arbitrary-shaped features in ceiling for upward-looking camerabased SLAM," Proc. of the 18th IFAC World Congress, pp. 8165-8170, 2011. 

  21. S. Y. Hwang and J. B. Song, "Clustering and probabilistic matching of arbitrarily shaped ceiling features for monocular vision-based SLAM," Advanced Robotics, vol. 27, no. 10, pp. 739-747, 2013. 

  22. J. Hesch and N. Trawny, "Simultaneous localization and mapping using an omni-directional camera," Available: www-users.cs.umn.edu/-joel/_files/BoS.pdf 

  23. S. Kim and S.-Y. Oh, "SLAM in indoor environments using omni-directional vertical and horizontal line features," Journal of Intelligent and Robotic Systems, vol. 51, no. 1, pp. 31-43, Jan. 2008. 

  24. S. J. Lee, J. H. Lim, and D. W. Cho, "Robust feature detection for mapping and localization of a mobile robot using sparsely sampled sonar data," Advanced Robotics, vol. 23, no. 12-13 pp. 1601-1616, 2009. 

  25. S. J. Lee and J. B. Song, "A new sonar salient feature structure for EKF-based SLAM," Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, pp. 5966-5971, 2010. 

  26. J. A. Castellanos, R. Martinez-Cantin, J. D. Tardos, and J. Neira, "Robocentric map joining: Improving the consistency of EKFSLAM," Robotics and Autonomous Systems, vol. 55, no. 1, pp. 21-29, 2007. 

  27. M. Montemerlo, S. Thrun, D. Koller, and B. Wegbreit, "FastSLAM: A factored solution to the simultaneous localization and mapping problem," Proc. of the AAAI National Conf. on Artificial Intelligence, 2002. 

  28. M. Montemerlo and S. Thrun, "FastSLAM 2.0: An improved particle filtering algorithm for simultaneous localization and mapping that provably converges," Proc. of the 16th Int. Joint Conf. on Artificial Intelligence, 2003. 

  29. G. H. Lee, F. Fraundorfer, and M. Pollefeys, "RS-SLAM: RANSAC sampling for visual FastSLAM," Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, pp. 1655-1660, 2011. 

  30. H. S. Lee and K. M. Lee, "Multi-robot SLAM using ceiling vision," Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, pp. 912-917, 2009. 

  31. J. L. Blanco, J. A. Fernandez-Madrigal, and J. Gonzalez, "Efficient probabilistic range-only SLAM," Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, pp. 1017-1022, 2008. 

  32. F. Lu and E. Milios, "Globally consistent range scan alignment for environment mapping," Autonomous Robots, vol. 4, pp. 333-349, 1997. 

  33. J. S. Gutmann and K. Konolige, "Incremental mapping of large cyclic environments," Proc. of the IEEE Int. Symp. on Computational Intelligence in Robotics and Automation, 1999. 

  34. F. Dellaert and M. Kaess, "Square root SAM: Simultaneous location and mapping via square root information smoothing," Int. Journal of Robotics Research, 2006. 

  35. M. Kaess, A. Ranganathan, and F. Dellaert, "iSAM: Incremental smoothing and mapping," IEEE Trans. on Robotics, pp. 1-14, 2008. 

  36. S. Thrun and M. Montemerlo, "The Graph SLAM Algorithm with Applications to Large-Scale Mapping of Urban Structures," Int. Journal of Robotics Research, vol. 25, no. 5-6, pp. 403-429, May 2006. 

  37. E. Eade, P. Fong, and M. E. Munich, "Monocular graph SLAM with complexity reduction," Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, pp. 3017-3024, 2010. 

  38. H.-P. Chiu, S. Williams, F. Dellaert, S. Samarasekera, and R. Kumar, "Robust vision-aided navigation using sliding-window factor graphs," Proc. of the IEEE Int. Conf. on Robotics and Automation, pp. 46-53, 2013. 

  39. H. Johannsson, M. Kaess, M. F. Fallon, and J. J. Leonard, "Temporally scalable visual SLAM using a reduced pose graph," Proc. of the IEEE Int. Conf. on Robotics and Automation, pp. 54-61, 2013. 

  40. N. Carlevaris-bianco and R. M. Eustice, "Generic factor-based node marginalization and edge sparsification for pose-graph SLAM," Proc. of the IEEE Int. Conf. on Robotics and Automation, 2013. 

  41. B. Triggs, P. F. McLauchlan, R. I. Hartley, and A. W. Fitzibbon, "Bundle adjustment - A modern synthesis, in vision algorithms: theory and practice," Lecture Notes in Computer Science, vol. 1883, pp. 298-372, 2000. 

  42. J. J. More, "The levenberg-marquardt algorithm: implementation and theory," Lecture Notes in Mathematics, vol. 630, pp. 105-116, 1978. 

  43. G. Klein and D. Murray, "Parallel tracking and mapping for small AR workspaces," Proc. of the 6th IEEE ACM Int. Symp. on Mixed and Augmented Reality, Nov. 2007. 

  44. H. Strasdat and A. Davison, "Double window optimisation for constant time visual SLAM," Proc. of the IEEE Int. Conf. on Computer Vision, 2011. 

  45. R. Kummerle, G. Grisetti, H. Strasdat, K. Konolige, and W. Burgard, " $g^2o$ : A general framework for graph optimization," Proc. of the IEEE Int. Conf. on Robotics and Automation, 2011. 

  46. M. J. Milford, "Robot navigation from nature," Berlin-Heidelberg: Springer-Verlag, 2008. 

  47. M. J. Milford, G. F. Wyeth, and D. P. Prasser, "RatSLAM on the edge: revealing a coherent representation from an overloaded rat brain," Proc. of the Int. Conf. on Robots and Intelligent Systems, 2006. 

  48. M. J. Milford, G. Wyeth, and D. Prasser, "RatSLAM: A hippocampal model for simultaneous localization and mapping," Proc. of the IEEE Int. Conf. on Robotics and Automation, 2004. 

  49. M. Milford and G. Wyeth, "Mapping a suburb with a single camera using a biologically inspired SLAM System," IEEE Trans. on Robotics, vol. 24, no. 5, pp. 1038-1053, 2008. 

  50. M. Cummins and P. Newman, "FAB-MAP: Probabilistic localization and mapping in the space of appearance," Int. Journal of Robotics Research, vol. 27, no. 6, pp. 647-665, Jun. 2008. 

  51. J. Folkesson and H. Christensen, "Graphical SLAM-A self-correcting map," Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, 2004. 

  52. E. Olson, J. Leonard, and S. Teller, "Fast iterative alignment of pose graphs with poor initial estimates," Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, 2006. 

  53. F. Lu and E. Milios, "Globally consistent range scan alignment for envi- ronment mapping," Autonomous Robots, vol. 4, pp. 333-349, 1997. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로