$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

Performance Evaluation of a Compressed-State Constraint Kalman Filter for a Visual/Inertial/GNSS Navigation System 원문보기

Journal of Positioning, Navigation, and Timing, v.12 no.2, 2023년, pp.129 - 140  

Yu Dam Lee (Department of Electronics and Information Engineering, Korea Aerospace University) ,  Taek Geun Lee (Department of Electronics and Information Engineering, Korea Aerospace University) ,  Hyung Keun Lee (Department of Electronics and Information Engineering, Korea Aerospace University)

Abstract AI-Helper 아이콘AI-Helper

Autonomous driving systems are likely to be operated in various complex environments. However, the well-known integrated Global Navigation Satellite System (GNSS)/Inertial Navigation System (INS), which is currently the major source for absolute position information, still has difficulties in accura...

주제어

표/그림 (8)

AI 본문요약
AI-Helper 아이콘 AI-Helper

제안 방법

  • 실제 도심지에서 참 궤적을 획득하는 것은 매우 어려우며 고가의 항법 장비 일지라고 도심지에서는 오차의 변동이 크기 때문에 참 궤적으로 비교하기에는 난점이 존재한다. 따라서, 본 실험에서는 개활지 환경에서 RTK 기법으로 산출된 정수해를 참값으로 설정하고 획득한 GNSS 측정치의 수를 조절하여 고의적으로 열악한 수신환경을 모사하였다.
  • 본 논문에서는 GNSS 수신이 열악한 환경에서도 정확하고 안정적인 항법해를 제공하는 새로운 강결합 방식의 CSCKF-VIG 시스템을 소개하고 실제 실험 데이터를 기반으로 기존 시스템과 성능 분석을 진행하였다. CSCKF-VIG 시스템은 가속도와 자이로 측정치, 이미지 기반의 특징점 측정치 그리고 차분된 GNSS 측정치를 활용하여 성능 손실 없이 불필요한 카메라 상태변수를 제거하고 항법에 필요한 INS 상태변수로만 시스템을 구성한 점이 특징이다.

대상 데이터

  • 실험에서 사용된 GNSS 신호는 GPS L1C, GLONASS G1, BeiDou B1 그리고 Galileo E1이다. GNSS 기준국은 한국항공대학교 연구동 옥상에 설치된 Trimble Ti-V2 Choke Ring 안테나와 이동체에 사용된 수신기와 동일한 NovAtel ProPak6를 활용하였다. Fig.
  • 실험에서 사용된 GNSS 수신기는 다중 위성군 및 다중 주파수를 제공하는 NovAtel ProPak6를 활용하였으며 GNSS 안테나는 NovAtel GPS-703-GGG-HV를 사용하였다. 사용된 IMU는 Microelectromechanical System 사의 (MEMS)-IMU인 Xsens-MTi 모델을 사용하였다.
  • 모든 센서 측정치는 GPS 시간에 시각 동기화되어 측정치를 수집하였으며 각 센서의 샘플링 주기는 IMU는 100 Hz, 카메라는 15 Hz 그리고 GNSS 수신기는 1 Hz이다. 실험에서 사용된 GNSS 신호는 GPS L1C, GLONASS G1, BeiDou B1 그리고 Galileo E1이다. GNSS 기준국은 한국항공대학교 연구동 옥상에 설치된 Trimble Ti-V2 Choke Ring 안테나와 이동체에 사용된 수신기와 동일한 NovAtel ProPak6를 활용하였다.
  • CSCKF-VIG 시스템의 성능평가를 위하여 실외 실험을 진행하였다. 차량에 GNSS 수신기, IMU 그리고 카메라 센서를 부착하고 주행하면서 데이터를 취득하였다. 실제 도심지에서 참 궤적을 획득하는 것은 매우 어려우며 고가의 항법 장비 일지라고 도심지에서는 오차의 변동이 크기 때문에 참 궤적으로 비교하기에는 난점이 존재한다.
  • 사용된 IMU는 Microelectromechanical System 사의 (MEMS)-IMU인 Xsens-MTi 모델을 사용하였다. 카메라는 스테레오 카메라인 FLIR (구 PointGrey)사의 BumblebeeXB3 모델을 사용하였으며 스테레오 카메라에서 왼쪽 카메라로부터 획득된 이미지만을 활용하였다. Fig.

데이터처리

  • CSCKF-VIG 시스템의 성능평가를 위하여 개활지에서 데이터를 취득하고 각 알고리즘의 결과를 비교하였다. Fig.

이론/모형

  • 실험에서 사용된 GNSS 수신기는 다중 위성군 및 다중 주파수를 제공하는 NovAtel ProPak6를 활용하였으며 GNSS 안테나는 NovAtel GPS-703-GGG-HV를 사용하였다. 사용된 IMU는 Microelectromechanical System 사의 (MEMS)-IMU인 Xsens-MTi 모델을 사용하였다. 카메라는 스테레오 카메라인 FLIR (구 PointGrey)사의 BumblebeeXB3 모델을 사용하였으며 스테레오 카메라에서 왼쪽 카메라로부터 획득된 이미지만을 활용하였다.
본문요약 정보가 도움이 되었나요?

참고문헌 (34)

  1. Bar-Itzhack, I. Y. 1980, Novel method for data compression in?recursive INS error estimation, Journal of Guidance and?Control, 3, 245-250. https://doi.org/10.2514/3.55979? 

  2. Breckenridge, W. G. 1999, Quaternions proposed standard?conventions, Jet Propulsion Laboratory Technical?Report, INTEROFFICE MEMORANUM IOM 343-79-199? 

  3. Britting, K. R. 2010, Inertial navigation systems analysis?(Norwood, MA: Artech House Publishers)? 

  4. Cadena, C., Carlone, L., Carrillo, H., Latif, Y., Scaramuzza,?D., et al. 2016, Past, present, and future of simultaneous?localization and mapping: Toward the robustperception age, IEEE Transactions on robotics, 32,?1309-1332. https://doi.org/10.1109/TRO.2016.2624754? 

  5. Cioffi, G. & Scaramuzza, D. 2020, Tightly-coupled fusion?of global positional measurements in optimization-based visual-inertial odometry, In Proceedings of the?2020 IEEE/RSJ International Conference on Intelligent?Robots and Systems (IROS), Las Vegas, NV, USA, 24?Oct 2020, pp.5089-5095. https://doi.org/10.1109/IROS45743.2020.9341697? 

  6. Civera, J., Davison, A. J., & Montiel, J. M. M. 2008, Inverse?depth parametrization for monocular SLAM, IEEE?transactions on robotics, 24, 932-945. https://doi.org/10.1109/TRO.2008.2003276? 

  7. Forster, C., Pizzoli, M., & Scaramuzza, D. 2014, SVO: Fast?semi-direct monocular visual odometry, In Proceedings?of the 2014 IEEE international conference on robotics?and automation (ICRA), Hong Kong, China, 31 May?- 07 June 2014, pp.15-22. https://doi.org/10.1109/ICRA.2014.6906584? 

  8. Gao, Z., Shen, W., Zhang, H., Ge, M., & Niu, X. 2016,?Application of Helmert variance component based?adaptive Kalman filter in multi-GNSS PPP/INS tightly?coupled integration, Remote Sensing, 8, 553. https://doi.org/10.3390/rs8070553? 

  9. Godha, S. & Cannon, M. E. 2005, Integration of DGPS with a?low cost MEMS-based inertial measurement unit (IMU)?for land vehicle navigation application, In Proceedings?of the 18th International Technical Meeting of the?Satellite Division of the Institute of Navigation (ION?GNSS 2005), Long Beach, CA, USA, 13-16 Sept 2005,?pp.333-345.? 

  10. Gong, Z., Liu, P., Wen, F., Ying, R., Ji, X., et al. 2020, Graph-based?adaptive fusion of GNSS and VIO under intermittent?GNSS-degraded environment, IEEE Transactions on?Instrumentation and Measurement, 70, 1-16. https://doi.org/10.1109/TIM.2020.3039640? 

  11. Goshen-Meskin, D. & Bar-Itzhack, I. Y. 1992, Unified?approach to inertial navigation system error modeling,?Journal of Guidance, Control, and Dynamics, 15, 648-653. https://doi.org/10.2514/3.20887? 

  12. Kim, L., Lee, Y., & Lee, H. K. 2022, Kalman-Hatch dual-filter?integrating global navigation satellite system/inertial?navigation system/on-board diagnostics/altimeter for?precise positioning in urban canyons, IET Radar, Sonar?& Navigation, 16, 379-397. https://doi.org/10.1049/rsn2.12190? 

  13. Kim, L. W., Yoo, W. J., & Lee, H. K. 2019, Position-Domain?Hatch Filter for Integrated GPS/BeiDou/Altimeter,?In Proceedings of the ION 2019 Pacific PNT Meeting,?Honolulu, Hawaii, 8-11 April 2019, pp.691-701. https://doi.org/10.33012/2019.16778? 

  14. Lam, T. Y. 2003, Hamilton's quaternions, In Handbook of?algebra, 3, 429-454. https://doi.org/10.1016/S1570-7954(03)80068-2? 

  15. Lee, H. K. & Lee, J. G. 2007, Fault-tolerant compression filters?by time-propagated measurement fusion, Automatica, 43,?355-361. https://doi.org/10.1016/j.automatica.2006.09.005? 

  16. Lee, Y. D., Kim, L. W., & Lee, H. K. 2022, A tightly-coupled?compressed-state constraint Kalman Filter for integrated?visual-inertial-Global Navigation Satellite System?navigation in GNSS-Degraded environments, IET?Radar, Sonar & Navigation, 16, 1344-1363. https://doi.org/10.1049/rsn2.12265? 

  17. Leutenegger, S., Lynen, S., Bosse, M., Siegwart, R., & Furgale,?P. 2015, Keyframe-based visual-inertial odometry?using nonlinear optimization, The International?Journal of Robotics Research, 34, 314-334. https://doi.org/10.1177/0278364914554813? 

  18. Li, T., Zhang, H., Gao, Z., Niu, X., & El-Sheimy, N. 2019, Tight?fusion of a monocular camera, MEMS-IMU, and single-frequency multi-GNSS RTK for precise navigation in?GNSS-challenged environments, Remote Sensing, 11, 610. https://doi.org/10.3390/rs11060610? 

  19. Liao, J., Li, X., Wang, X., Li, S., & Wang, H. 2021, Enhancing?navigation performance through visual-inertial?odometry in GNSS-degraded environment, GPS?Solutions, 25, 1-18. https://doi.org/10.1007/s10291-020-01056-0? 

  20. Liu, J., Gao, W., & Hu, Z. 2021, Optimization-based?visual-inertial SLAM tightly coupled with raw GNSS?measurements, In Proceedings of the 2021 IEEE?International Conference on Robotics and Automation?(ICRA), Xi'an, China, 30 May - 05 June 2021, pp.11612-11618. https://doi.org/10.1109/ICRA48506.2021.9562013? 

  21. Lucas, B. D. & Kanade, T. 1981, An iterative image registration?technique with an application to stereo vision, In?Proceedings of the 7th international joint conference?on Artificial intelligence, Vancouver, Canada, 24-28 Aug?1981, pp.674-679.? 

  22. Medan, Y. & Bar-itzhack, I. Y. 1985, Batch recursive data?compression schemes for INS error estimation, IEEE?transactions on aerospace and electronic systems, AES-21, 688-697. https://doi.org/10.1109/TAES.1985.310597? 

  23. Misra, P. & Enge, P. 2001, Global Positioning System: Signals,?Measurements, and Performance (Lincoln, MA: Ganga-Jamuna Press)? 

  24. Mourikis, A. I. & Roumeliotis, S. I. 2007, A multi-state?constraint Kalman filter for vision-aided inertial?navigation, In Proceedings of the 2007 IEEE international?conference on robotics and automation (ICRA), Rome,?Italy, 10-14 April 2007, pp.3565-3572. https://doi.org/10.1109/ROBOT.2007.364024? 

  25. Nister, D., Naroditsky, O., & Bergen, J. 2006, Visual odometry?for ground vehicle applications, Journal of Field?Robotics, 23, 3-20. https://doi.org/10.1002/rob.20103? 

  26. Noureldin, A., Karamat, T. B., Eberts, M. D., & El-Shafie, A.?2008, Performance enhancement of MEMS-based INS/GPS integration for low-cost navigation applications,?IEEE Transactions on vehicular technology, 58, 1077-1096. https://doi.org/10.1109/TVT.2008.926076? 

  27. Qin, T., Li, P., & Shen, S. 2018, Vins-mono: A robust and?versatile monocular visual-inertial state estimator, IEEE?Transactions on Robotics, 34, 1004-1020. https://doi.org/10.1109/TRO.2018.2853729? 

  28. Rizos, C. 2001, Precise GPS positioning: Prospects and?challenges, In Proceedings of the 5th Int. Symp. on?Satellite Navigation Technology & Applications,?Canberra, Australia, July 2001, pp.24-27.? 

  29. Rosten, E. & Drummond, T. 2005, Fusing points and lines for?high performance tracking, In Proceedings of the 10th?IEEE International Conference on Computer Vision?(ICCV'05), Beijing, China, 17-21 Oct 2005, pp.1508-1515. https://doi.org/10.1109/ICCV.2005.104? 

  30. Scaramuzza, D. & Fraundorfer, F. 2011, Visual odometry?[tutorial], IEEE robotics & automation magazine, 18, 80-92. https://doi.org/10.1109/MRA.2011.943233? 

  31. Sun, R., Yang, Y., Chiang, K. W., Duong, T. T., Lin, K. Y., et?al. 2020, Robust IMU/GPS/VO integration for vehicle?navigation in GNSS degraded urban areas, IEEE Sensors?Journal, 20, 10110-10122. https://doi.org/10.1109/JSEN.2020.2989332? 

  32. Vu, A., Ramanandan, A., Chen, A., Farrell, J. A., & Barth, M.?2012, Real-time computer vision/DGPS-aided inertial?navigation system for lane-level vehicle navigation, IEEE?Transactions on Intelligent Transportation Systems, 13,?899-913. https://doi.org/10.1109/TITS.2012.2187641? 

  33. Yu, M. J., Park, H. W., & Jeon, C. B. 1997, Equivalent?nonlinear error models of strapdown inertial navigation?system, In Proceedings of the Guidance, Navigation,?and Control Conference, New Orleans, LA, USA, 11-13?Aug 1997, pp.581-587. https://doi.org/10.2514/6.1997-3563? 

  34. Zhang, Z., Dong, P., Wang, J., & Sun, Y. 2020, Improving?S-MSCKF with variational Bayesian adaptive nonlinear?filter, IEEE Sensors Journal, 20, 9437-9448. https://doi.org/10.1109/JSEN.2020.2989206? 

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로