$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

GPS 취약 환경에서 전술급 무인항공기의 주/야간 영상정보를 기반으로 한 실시간 비행체 위치 보정 시스템 개발
Development of Real-Time Vision Aided Navigation Using EO/IR Image Information of Tactical Unmanned Aerial System in GPS Denied Environment 원문보기

한국항공우주학회지 = Journal of the Korean Society for Aeronautical & Space Sciences, v.48 no.6, 2020년, pp.401 - 410  

최승기 (Koreanair R&D Center) ,  조신제 (Koreanair R&D Center) ,  강승모 (Koreanair R&D Center) ,  이길태 (Koreanair R&D Center) ,  이원근 (Koreanair R&D Center) ,  정길순 (Koreanair R&D Center)

초록
AI-Helper 아이콘AI-Helper

본 연구에서는 전술급 무인항공기의 GPS 신호간섭 및 재밍(Jamming)/기만(Spoofing) 공격 시 위치항법 정보의 취약성을 보완하기 위해 개발한 영상정보 기반 실시간 비행체 위치보정 시스템을 기술하고자 한다. 전술급 무인항공기는 GPS 두절 시 항법장비가 GPS/INS 통합항법에서 DR/AHRS 모드로 전환하여 자동비행이 가능하나, 위치 항법의 경우 대기속도 및 방위각을 활용한 추측항법(DR, Dead Reckoning)으로 인해 시간이 지나면 오차가 누적되어 비행체 위치 파악 및 데이터링크 안테나 자동추적이 제한되는 등의 문제점을 갖고 있다. 이러한 위치 오차의 누적을 최소화하기 위해 영상감지기를 이용한 특정지역 위치보정점을 바탕으로 비행체 자세, 영상감지기 방위각/고각 및 수치지도 데이터(DTED)를 활용하여 비행체 위치를 계산하고 이를 실시간으로 항법장비에 보정하는 시스템을 개발하였다. 또한 GPS 시뮬레이터를 이용한 지상시험과 추측항법 모드의 비행시험으로 영상정보 기반 실시간 비행체 위치보정 시스템의 기능 및 성능을 검증하였다.

Abstract AI-Helper 아이콘AI-Helper

In this study, a real-time Tactical UAS position compensation system based on image information developed to compensate for the weakness of location navigation information during GPS signal interference and jamming / spoofing attack is described. The Tactical UAS (KUS-FT) is capable of automatic fli...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구에서의 전술급 무인항공기(KUS-FT)는 주/야간 감시정찰을 목적으로 개발된 시스템으로 신뢰성 향상을 위한 주요장비 이중화, 한국형 산악지대에서의 자동착륙과 비행영역보호/재형상 제어 등의 고등기술 및 생존 향상을 위한 낙하산 비상회수/공중재시동 기술이 들어간 첨단 무인항공기[1,2]이다.
  • 또한 임무고도에서 비행하고 있는 전술급 무인기의 경우 영상의 특징점들이 비교적 적은 상태에서 실시간 영상처리를 수행하게 되므로 영상기반 위치추정 오차가 급격히 증가할 수 있다. 이러한 문제점으로 인해 본 논문에서는 기존의 무인항공기 시스템을 그대로 활용하고, 사진측량 분야에서 널리 사용된 공선방정식을 이용하여 비행체 위치를 보정하는 시스템 개발에 관해 연구하고자 한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
전술급 무인항공기란? 본 연구에서의 전술급 무인항공기(KUS-FT)는 주/야간 감시정찰을 목적으로 개발된 시스템으로 신뢰성 향상을 위한 주요장비 이중화, 한국형 산악지대에서의 자동착륙과 비행영역보호/재형상 제어 등의 고등기술 및 생존 향상을 위한 낙하산 비상회수/공중재시동 기술이 들어간 첨단 무인항공기[1,2]이다.
무인항공기를 통상 전략급 무인항공기와 전술급 무인항공기로 나누는 기준은? 현재 군에서 사용하는 무인항공기는 통상 전략급(Strategy) 무인항공기와 전술급(Tactical) 무인항공기로 나눌 수 있는데, 그 구분은 운용군의 규모 및 운용 범위(거리) 등을 기준으로 한다. 전술급 무인항공기는 군단급 이하의 부대 규모에서 운용하는 것으로 현실적으로 부대위치 및 시설(활주로 혹은 이착륙장)을 고려하여 주로 육군에서 운용하고 있다.
실시간 비행체 위치정보시스템 검증을 위해 실시한 비행체 위치 좌표와 GPS Raw 데이터(SBAS)를 비교하여 계산한 값이 위치보정점마다 오차가 다른 이유는? 일부 위치보정점의 경우 비교적 좋은 성능을 나타냈지만, 일부 위치보정점의 경우는 오차가 조금 큰 것으로 나왔다. 각 보정점마다 오차가 서로 다른 이유 중에 하나는 위치보정점의 건물 및 구조물을 탐색한 후 자동추적을 수행할 때 정확하게 가운데로 추적하느냐 혹은 주변으로 추적하느냐에 따라 오차 가 다르게 나올 수 있다. 예를 들어 건물의 가운데를 기준으로 자동추적이 되면, 오차가 줄어드는 경향을 보이며 건물의 중심에서 조금 벗어난 상태로 자동추적이 되면 오차가 증가하는 경향을 보인다.
질의응답 정보가 도움이 되었나요?

참고문헌 (29)

  1. Choi, S. K., Moon, J. H. and Ko, J. S., "Airworthiness Case Study for the Tactical UAV's Flight Control System," Journal of the Korea Institute of Military Science and Technology, Vol. 17, No. 4, 2014, pp. 430-435. 

  2. Choi, S. K., Moon, J. H., Cho, S. J. and Lee, S. H., "Flight Control System Design and Flight Test of the Tactical Unmanned Aircraft System," Proceeding of The Society for Aerospace System Engineering Fall Conference, October 2014, pp. 427-432. 

  3. Kim, K. Y., "Analysis of Anti-Jamming Techniques for Satellite Navigation Systems," Journal of Korean Institute of Communications and Information Sciences, Vol. 38C No. 12, 2013, pp. 1216-1227. 

  4. Golden, J. P., "Terrain contour matching (TERCOM): A cruise missile guidance aid," In Proceedings of SPIE Image Processing for Missile Guidance, Vol. 38, July-August 1980, pp. 10-18. 

  5. Rodriguez, J. J. and Aggarwal, J. K., "Matching aerial images to 3-D terrain maps," IEEE Transactions on Pattern Analysis and Machine Intelligence, No. 12, December 1990, pp. 1138-1149. 

  6. Mok, S. H., Bang, H. C. and Yu, M. J., "Performance Analysis of Vision-Based Terrain Referenced Navigation," Journal of Institute of Control, Robotics and Systems, Vol. 23, No. 4, 2017, pp. 294-299. 

  7. Horn, B. K. and Schunck, B. G., "Determining Optical Flow," Artificial Intelligence, Vol. 17, Issues 1-3, 1981, pp. 185-203. 

  8. Bosse, M., Karl, W. C., Castanon, D. A. and DeBitetto, P., "A vision augmented navigation system," Proceedings of the IEEE Conference on Intelligent Transportation Systems, November 9-12, 1997, pp. 1028-1033. 

  9. Li, H. and Yang, S. X., "A Behavior-based Mobile Robot with a Visual Landmark-recognition System," IEEE/ASME Transactions on Mechatronics, Vol. 8, No. 3, 2003, pp. 390-400. 

  10. Herisse, B., Hamel, T., Mahony, R. and Russotto, F., "Landing a VTOL Unmanned Aerial Vehicle on a Moving Platform Using Optical Flow," IEEE Transactions on Robotics, Vol. 28, No. 1, 2012, pp. 77-89. 

  11. Maier, J. and Humenberger, M., "Movement Detection Based on Dense Optical Flow for Unmanned Aerial Vehicles," International Journal of Advanced Robotic Systems, Vol. 10, No. 2, 2013, p. 146. 

  12. Cho, D. M., Tsiotras, P., Zhang, G. and Holzinger, M., "Robust Feature Detection, Acquisition and Tracking for Relative Navigation in Space with a Known Target," Proceeding of AIAA Guidance, Navigation, and Control (GNC) Conference, Boston, MA, August 19-22, 2013. 

  13. Nourani-Vatani, N., Borges, P. V. K., Roberts, J. M. and Srinivasan, M. V., "On the Use of Optical Flow for Scene Change Detection and Description," Journal of Intelligent and Robotic Systems, Vol. 74, Issues 3-4, 2014, p. 817. 

  14. DeSouza, G. N. and Kak, A. C., "Vision for Mobile Robot Navigation: A Survey," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 24, No. 2, February 2002. 

  15. Sim, D G., Park, R. H., Kim, R. C., Lee, S. U. and Kim, I. C., "Integrated position estimation using aerial image sequences," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 24, Issue 1, January 2002, pp. 1-18. 

  16. Fournier, J., Ricard, B. and Laurendeau, D., "Mapping and Exploration of Complex Environments Using Persistent 3D Model," Proceeding of Fourth Canadian Conference on Computer and Robot Vision, IEEE, Montreal, Canada, May 28-30, 2007. 

  17. Gutmann, J., Fukuchi, M. and Fujita, M., "3D Perception and Environment Map Generation for Humanoid Robot Navigation," The International Journal of Robotics Research, Vol. 27, No. 10, 2008, pp. 1117-1134. 

  18. Dryanovski, I., Morris, W. and Xiao, J., "Multi-Volume Occupancy Grids: An Efficient Probabilistic 3D Mapping Model for Micro Aerial Vehicles," Proceeding of IEEE/RSJ International Conference on Intelligent Robots and Systems, Taipei, China, October 18-22 2010. 

  19. Zhang, J., Liu, W. and Wu, Y., "Novel Technique for Vision-Based UAV Navigation," IEEE Transactions on Aerospace and Electronic Systems, Vol. 47, Issue 4, October 2011. 

  20. Hornung, A., Wurm, K. M., Bennewitz, M., Stachniss, C. and Burgard, W., "OctoMap: An Efficient Probabilistic 3D Mapping Framework Based on Octrees," Autonomous Robotics, Vol. 34, No. 3, 2013, pp. 189-206. 

  21. Moravec, H. P., "The Stanford Cart and the CMU Rover," Proceedings of the IEEE, Vol. 71, No. 7, 1983 pp. 872-884. 

  22. Davison, A. J., "Real-Time Simultaneous Localisation and Mapping with a Single Camera," Proceeding of Ninth IEEE International Conference on Computer Vision, Nice, France, October 13-16 2003. 

  23. Mahon, I., Williams, S. B., Pizarro, O. and Johnson-Roberson, M., "Efficient View-based SLAM Using Visual Loop Closures," IEEE Transactions on Robotics, Vol. 24, No. 5, 2008, pp. 1002-1014. 

  24. Engel, J., Schops, T. and Cremers, D. "LSD-SLAM: Large-scale Direct Monocular SLAM," Proceeding of European Conference on Computer Vision, Zurich, Switzerland, September 6-12 2014, pp. 834-849. 

  25. Harmat, A., Trentini, M. and Sharf, I., "Multi-camera Tracking and Mapping for Unmanned Aerial Vehicles in Unstructured Environments," Journal of Intelligent and Robotic Systems, Vol. 78, No. 2, 2015, pp. 291-317. 

  26. Forster, C., Faessler, M., Fontana, F., Werlberger, M. and Scaramuzza, D., "Continuous on-board monocular-vision-based elevation mapping applied to autonomous landing of micro aerial vehicles," Proceeding of IEEE International Conference on Robotics and Automation (ICRA), Seattle, USA, May 26-30 2015. 

  27. Ranftl, R., Vineet, V., Chen, Q. and Koltun, V., "Dense Monocular Depth Estimation in Complex Dynamic Scenes," Proceeding of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, USA, June 27-30 2016. 

  28. Habib, A., Asmamaw, A., Kelley, D. and May, M., "Linear feature in photogrammetry," Geodetic science and surveying, 2000, pp. 21-36. 

  29. SimGEN Software User Manual, Spirent Communication plc, November 2015. 

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로