GPS 취약 환경에서 전술급 무인항공기의 주/야간 영상정보를 기반으로 한 실시간 비행체 위치 보정 시스템 개발 Development of Real-Time Vision Aided Navigation Using EO/IR Image Information of Tactical Unmanned Aerial System in GPS Denied Environment원문보기
본 연구에서는 전술급 무인항공기의 GPS 신호간섭 및 재밍(Jamming)/기만(Spoofing) 공격 시 위치항법 정보의 취약성을 보완하기 위해 개발한 영상정보 기반 실시간 비행체 위치보정 시스템을 기술하고자 한다. 전술급 무인항공기는 GPS 두절 시 항법장비가 GPS/INS 통합항법에서 DR/AHRS 모드로 전환하여 자동비행이 가능하나, 위치 항법의 경우 대기속도 및 방위각을 활용한 추측항법(DR, Dead Reckoning)으로 인해 시간이 지나면 오차가 누적되어 비행체 위치 파악 및 데이터링크 안테나 자동추적이 제한되는 등의 문제점을 갖고 있다. 이러한 위치 오차의 누적을 최소화하기 위해 영상감지기를 이용한 특정지역 위치보정점을 바탕으로 비행체 자세, 영상감지기 방위각/고각 및 수치지도 데이터(DTED)를 활용하여 비행체 위치를 계산하고 이를 실시간으로 항법장비에 보정하는 시스템을 개발하였다. 또한 GPS 시뮬레이터를 이용한 지상시험과 추측항법 모드의 비행시험으로 영상정보 기반 실시간 비행체 위치보정 시스템의 기능 및 성능을 검증하였다.
본 연구에서는 전술급 무인항공기의 GPS 신호간섭 및 재밍(Jamming)/기만(Spoofing) 공격 시 위치항법 정보의 취약성을 보완하기 위해 개발한 영상정보 기반 실시간 비행체 위치보정 시스템을 기술하고자 한다. 전술급 무인항공기는 GPS 두절 시 항법장비가 GPS/INS 통합항법에서 DR/AHRS 모드로 전환하여 자동비행이 가능하나, 위치 항법의 경우 대기속도 및 방위각을 활용한 추측항법(DR, Dead Reckoning)으로 인해 시간이 지나면 오차가 누적되어 비행체 위치 파악 및 데이터링크 안테나 자동추적이 제한되는 등의 문제점을 갖고 있다. 이러한 위치 오차의 누적을 최소화하기 위해 영상감지기를 이용한 특정지역 위치보정점을 바탕으로 비행체 자세, 영상감지기 방위각/고각 및 수치지도 데이터(DTED)를 활용하여 비행체 위치를 계산하고 이를 실시간으로 항법장비에 보정하는 시스템을 개발하였다. 또한 GPS 시뮬레이터를 이용한 지상시험과 추측항법 모드의 비행시험으로 영상정보 기반 실시간 비행체 위치보정 시스템의 기능 및 성능을 검증하였다.
In this study, a real-time Tactical UAS position compensation system based on image information developed to compensate for the weakness of location navigation information during GPS signal interference and jamming / spoofing attack is described. The Tactical UAS (KUS-FT) is capable of automatic fli...
In this study, a real-time Tactical UAS position compensation system based on image information developed to compensate for the weakness of location navigation information during GPS signal interference and jamming / spoofing attack is described. The Tactical UAS (KUS-FT) is capable of automatic flight by switching the mode from GPS/INS integrated navigation to DR/AHRS when GPS signal is lost. However, in the case of location navigation, errors accumulate over time due to dead reckoning (DR) using airspeed and azimuth which causes problems such as UAS positioning and data link antenna tracking. To minimize the accumulation of position error, based on the target data of specific region through image sensor, we developed a system that calculates the position using the UAS attitude, EO/IR (Electric Optic/Infra-Red) azimuth and elevation and numerical map data and corrects the calculated position in real-time. In addition, function and performance of the image information based real-time UAS position compensation system has been verified by ground test using GPS simulator and flight test in DR mode.
In this study, a real-time Tactical UAS position compensation system based on image information developed to compensate for the weakness of location navigation information during GPS signal interference and jamming / spoofing attack is described. The Tactical UAS (KUS-FT) is capable of automatic flight by switching the mode from GPS/INS integrated navigation to DR/AHRS when GPS signal is lost. However, in the case of location navigation, errors accumulate over time due to dead reckoning (DR) using airspeed and azimuth which causes problems such as UAS positioning and data link antenna tracking. To minimize the accumulation of position error, based on the target data of specific region through image sensor, we developed a system that calculates the position using the UAS attitude, EO/IR (Electric Optic/Infra-Red) azimuth and elevation and numerical map data and corrects the calculated position in real-time. In addition, function and performance of the image information based real-time UAS position compensation system has been verified by ground test using GPS simulator and flight test in DR mode.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 연구에서의 전술급 무인항공기(KUS-FT)는 주/야간 감시정찰을 목적으로 개발된 시스템으로 신뢰성 향상을 위한 주요장비 이중화, 한국형 산악지대에서의 자동착륙과 비행영역보호/재형상 제어 등의 고등기술 및 생존 향상을 위한 낙하산 비상회수/공중재시동 기술이 들어간 첨단 무인항공기[1,2]이다.
또한 임무고도에서 비행하고 있는 전술급 무인기의 경우 영상의 특징점들이 비교적 적은 상태에서 실시간 영상처리를 수행하게 되므로 영상기반 위치추정 오차가 급격히 증가할 수 있다. 이러한 문제점으로 인해 본 논문에서는 기존의 무인항공기 시스템을 그대로 활용하고, 사진측량 분야에서 널리 사용된 공선방정식을 이용하여 비행체 위치를 보정하는 시스템 개발에 관해 연구하고자 한다.
제안 방법
GPS 기만환경 고장을 모사하고 주입하기 위하여 기존의 항법 모델링에 시간에 따라 비행체 위치를 변화시켜 주는 모델을 추가하였다. 또한 감지기 고각, 방위각과 비행체 위치 및 표적기준점을 바탕으로 비행체 현재 위치를 계산하는 모델도 HILS 모델링에
이러한 GPS 기만모델을 포함한 항법 모델링을 바탕으로 HILS 시험을 수행하였다. GPS 두절 및 기만 고장을 주입하였을 때 이를 제대로 판단하는지 Fig.6과 같이 확인하고, 주항법장비 모드가 자동으로 전환되는지 검증하며 위치보정점을 비행체로 전송하였을 때 비행체 위치가 변화되는지 시험을 수행하였다.
GPS 수신기에 따라 위성 배열(Almanac)의 정보가 기존 수신정보와 다를 경우 GPS 초기 수신 완료까지 상당시간 소요될 수가 있어 매 시험마다 최신의 Almanac 정보를 사용하였다. 또한 GPS 속도 변화를 주는 가속 상태의 경우 급가속 상태에서 GPS수신기가 위성을 놓쳐 두절 상태가 될 수 있으므로 이를 고려하여 가속의 G값을 조절해가며 시나리오를 완성하였다.
첫째는 체계연동 ESICD 및 기능점검이고, 둘째는 GPS 두절 및 기만상태 모사이며, 셋째는 지상활주 점검이다. GPS 시뮬레이터를 이용한 GPS 두절 및 기만 상태 모사의 경우, GPS BIT 알람이 제대로 작동하는지, 무인항공기 조종사가 바로 인지할 수 있는지를 검증하였다. 또한 Air Data 에뮬레이터를 통해 추측 항법이 실행될 때 사전에 설정한 위치보정점을 비행체로 전송하고 그 위치로 다시 추측항법이 진행되는지도 검증하였다.
주야간 영상정보를 기반으로 한 실시간 비행체 위치보정시스템을 적용하여 비행시험을 수행하기 위해서는 감항당국을 통해 비행안전 검토심의회(SRB, Safety Reveiw Board)를 진행해야 한다. 검토심의회에서 소프트웨어 변경내용, 기능/성능 검증내용, 소프트웨어 신뢰성 결과 및 지상시험 결과 자료를 검토하였으며, 비행안전에 영향성이 없는 것으로 최종 승인되어 비행시험을 수행하였다.
GPS 시뮬레이터를 이용한 GPS 두절 및 기만 상태 모사의 경우, GPS BIT 알람이 제대로 작동하는지, 무인항공기 조종사가 바로 인지할 수 있는지를 검증하였다. 또한 Air Data 에뮬레이터를 통해 추측 항법이 실행될 때 사전에 설정한 위치보정점을 비행체로 전송하고 그 위치로 다시 추측항법이 진행되는지도 검증하였다. 위치보정 기능은 Fig.
GPS 수신기에 따라 위성 배열(Almanac)의 정보가 기존 수신정보와 다를 경우 GPS 초기 수신 완료까지 상당시간 소요될 수가 있어 매 시험마다 최신의 Almanac 정보를 사용하였다. 또한 GPS 속도 변화를 주는 가속 상태의 경우 급가속 상태에서 GPS수신기가 위성을 놓쳐 두절 상태가 될 수 있으므로 이를 고려하여 가속의 G값을 조절해가며 시나리오를 완성하였다.
GPS 기만환경 고장을 모사하고 주입하기 위하여 기존의 항법 모델링에 시간에 따라 비행체 위치를 변화시켜 주는 모델을 추가하였다. 또한 감지기 고각, 방위각과 비행체 위치 및 표적기준점을 바탕으로 비행체 현재 위치를 계산하는 모델도 HILS 모델링에
추가하였다.
이때 무인항공기 조종사는 항법 위치해의 경우 DR이라는 추측항법이 작동하기 때문에 시간에 따라 오차가 증가하는 것을 감안하여 유도 모드(점항법 혹은 사전프로그램)를 사용하지 않고, 고도/속도/헤딩을 직접 조종하는 노브 모드를 사용한다. 또한 영상 감지기 조종사는 위치보정 시스템을 효과적으로 적용하기 위해 EO/IR 카메라를 이용하여 사전에 탐지가 완료된 위치보정점으로 지향하고 감지기 추적모드를 선택한 후 비행체 위치계산 알고리즘이 작동할 수 있도록 이를 활성화 한다.
GPS 두절의 경우는 GPS 안테나를 분리하여 손쉽게 고장을 주입할 수 있으나 GPS 기만의 경우, 위성 신호는 정상적인 상태에서 GPS 위치 및 속도 등을 비정상으로 생성해야 하는데 이때 GPS 시뮬레이터를 활용하는 것이 적절한 방법일 수 있다. 또한 항법 장비에서 추측항법을 계산하기 위해 대기속도가 필요하며, Air Data 에뮬레이터를 사용하여 대기속도를 모사하였다.
전술급 무인항공기의 항법장비는 GPS 신호가 없을 경우 항법모드를 자동으로 변경하는 기능을 갖고 있다. 본 연구에서는 GPS 위성 신호는 정상적이나 GPS 항법해가 정상으로 작동하지 않는 경우, 예를 들면 항법 위치가 비행체의 기동을 초과하는 위치로 변할 때 이를 GPS 기만으로 판단하는 로직을 추가하였다. 이러한 로직이 추가된 항법장비는 GPS 두절 혹은 기만인 상황에서 GPS 이상 BIT(Built in Test)를 지상으로 송출하며 항법모드를 GPS/INS 모드에서 GPS 신호를 사용하지 않는 DR/AHRS 모드로 자동 전환한다.
비행시험을 통해 실시간 비행체 위치보정 시스템의 성능을 검증하였고, 전술급 무인항공기의 데이터링크 운용 및 지상통제권 이양과 같은 운용성도 확인하였다. 비행시험의 절차는 Table 2와 같이 수행하였다.
비행시험을 통해 실환경에서 실시간 비행체 위치 보정시스템의 성능을 검증하였고, 동시에 데이터링크 자동추적 영향성과 지상통제장비 이양 등의 운용성 평가도 확인하였다. 단, 영상감지기 조종사가 임무지역에서의 지형정보가 익숙지 않아 사전에 설정한 위치보정점과 영상감지기로 탐지한 지역이 불일치할 경우 비행체 위치보정이 적절하게 이루어지지 않을 수 있다.
GPS 시뮬레이터는 Spirent社의 GSS6700을 사용하였고, SimGEN[29]을 이용하여 GPS 기만 시나리오를 생성하였다. 수분간의 위치 정지 신호를 만들고 이후 직선으로 위치가 서서히 흐른 다음 GPS 속도 및 위치의 변화를 주면서 가속상태를 만들어 GPS 기만 신호를 만드는 방식으로 Fig. 8과 같이 시나리오를 개발하였다.
13에서처럼 위치보정점은 12개 정도를 사용하였다. 위치 오차는 각 위치보정점을 기준으로 비행체로 장입된 비행체 위치 좌표와 GPS Raw 데이터(SBAS)를 비교하여 계산하였다.
이러한 GPS 기만모델을 포함한 항법 모델링을 바탕으로 HILS 시험을 수행하였다. GPS 두절 및 기만 고장을 주입하였을 때 이를 제대로 판단하는지 Fig.
전술급 무인항공기에 영상기반 실시간 위치보정 시스템을 검증하기 위해서 단품레벨에서 기능, 성능 및 신뢰성 검증이 완료된 지상체, 비행제어 및 항법 장비 소프트웨어를 탑재하고 통합시험을 Fig. 7과 같이 수행하였다.
지상시험에서 GPS 두절 및 기만상태에서도 1PPS 신호가 1분에 2μs 이하의 요구사항이 출력되는지 신호를 측정하여 성능을 검증하였으며, Fig. 10과 같은 결과를 확인하였다.
특히 GPS 두절 및 기만과 같은 고장주입을 비행시험 환경에서는 수행할 수 없기 때문에 지상시험에서 GPS 시뮬레이터 및 Air Data 에뮬레이터를 활용하여 GPS 두절 및 기만 BIT 발생부터 위치보정점 적용 결과까지 확인하였다.
데이터처리
또한 Air Data 에뮬레이터를 통해 추측 항법이 실행될 때 사전에 설정한 위치보정점을 비행체로 전송하고 그 위치로 다시 추측항법이 진행되는지도 검증하였다. 위치보정 기능은 Fig. 9처럼 지상시험을 통해 검증하였고 비행시험을 통해 최종 성능을 확인하였다.
이론/모형
GPS 시뮬레이터는 Spirent社의 GSS6700을 사용하였고, SimGEN[29]을 이용하여 GPS 기만 시나리오를 생성하였다. 수분간의 위치 정지 신호를 만들고 이후 직선으로 위치가 서서히 흐른 다음 GPS 속도 및 위치의 변화를 주면서 가속상태를 만들어 GPS 기만 신호를 만드는 방식으로 Fig.
비행제어소프트웨어인 OFP(Operational Flight Program)를 검증하기 위해 실시간으로 비행운동 모델을 계산하고 입출력 신호를 IFCC와 연동하며 고장주입이 가능한 HILS(Hardware In the Loop Simulation)를 사용하였다. HILS 구성은 Fig.
영상기반 실시간 비행체 위치 보정은 영상이미지,영상감지기의 고각(Elevation Angle)/방위각(Azimuth Angle), 비행체 자세 및 표적기준점 좌표 등을 포함한 공선방정식(Collinearity Equation)[28]을 사용하여 계산된다.
성능/효과
GPS 시뮬레이터를 활용한 지상시험에서는 GPS 두절 및 기만 BIT가 적절하게 작동하는 것을 확인하였고, 영상감지기의 시선각, 수치지도 및 비행체 자세 정보 등을 활용한 공선방정식의 비행체 위치 보정 기능도 검증하였으며, 데이터링크 연속성을 위한 GPS 시간 동기화의 1PPS 정확도도 확인하였다.
본 연구결과를 통해 전술급 무인항공기의 GPS 신호간섭 및 재밍 공격 시 위치항법해의 취약성을 보완한 영상정보 기반 실시간 비행체 위치보정 시스템의 기능 및 성능을 확인하였다.
예를 들어 건물의 가운데를 기준으로 자동추적이 되면, 오차가 줄어드는 경향을 보이며 건물의 중심에서 조금 벗어난 상태로 자동추적이 되면 오차가 증가하는 경향을 보인다. 하지만 평균적 오차로 보았을 때 무인항공기 조종사가 비행체 위치를 정확하게 식별하여 조종이 가능한 정도이며, 데이터링크 자동추적도 문제없음이 확인되었다
후속연구
단, 영상감지기 조종사가 임무지역에서의 지형정보가 익숙지 않아 사전에 설정한 위치보정점과 영상감지기로 탐지한 지역이 불일치할 경우 비행체 위치보정이 적절하게 이루어지지 않을 수 있다. 이러한 제약성을 해결하고 실시간 비행체 위치 보정 시스템의 성능을 최대화하기 위해 영상감지기 조종사의 임무지형 및 탐지물 숙달 훈련이 필요할 것으로 판단한다.
향후에는 비행상태에서 획득한 위치보정점 영상 이미지 빅데이터를 활용하여 머신러닝과 같은 인공 지능 기법을 적용하고 학습시킨 자동위치보정 탐지 시스템을 개발하여 영상감지기 조종사가 수동으로 위치보정점을 계속 찾는 것이 아니라 자동으로 위치 보정점을 탐지 및 인지할 수 있도록 향상된 기술의 연구가 필요할 것으로 보인다.
질의응답
핵심어
질문
논문에서 추출한 답변
전술급 무인항공기란?
본 연구에서의 전술급 무인항공기(KUS-FT)는 주/야간 감시정찰을 목적으로 개발된 시스템으로 신뢰성 향상을 위한 주요장비 이중화, 한국형 산악지대에서의 자동착륙과 비행영역보호/재형상 제어 등의 고등기술 및 생존 향상을 위한 낙하산 비상회수/공중재시동 기술이 들어간 첨단 무인항공기[1,2]이다.
무인항공기를 통상 전략급 무인항공기와 전술급 무인항공기로 나누는 기준은?
현재 군에서 사용하는 무인항공기는 통상 전략급(Strategy) 무인항공기와 전술급(Tactical) 무인항공기로 나눌 수 있는데, 그 구분은 운용군의 규모 및 운용 범위(거리) 등을 기준으로 한다. 전술급 무인항공기는 군단급 이하의 부대 규모에서 운용하는 것으로 현실적으로 부대위치 및 시설(활주로 혹은 이착륙장)을 고려하여 주로 육군에서 운용하고 있다.
실시간 비행체 위치정보시스템 검증을 위해 실시한 비행체 위치 좌표와 GPS Raw 데이터(SBAS)를 비교하여 계산한 값이 위치보정점마다 오차가 다른 이유는?
일부 위치보정점의 경우 비교적 좋은 성능을 나타냈지만, 일부 위치보정점의 경우는 오차가 조금 큰 것으로 나왔다. 각 보정점마다 오차가 서로 다른 이유 중에 하나는 위치보정점의 건물 및 구조물을 탐색한 후 자동추적을 수행할 때 정확하게 가운데로 추적하느냐 혹은 주변으로 추적하느냐에 따라 오차 가 다르게 나올 수 있다. 예를 들어 건물의 가운데를 기준으로 자동추적이 되면, 오차가 줄어드는 경향을 보이며 건물의 중심에서 조금 벗어난 상태로 자동추적이 되면 오차가 증가하는 경향을 보인다.
참고문헌 (29)
Choi, S. K., Moon, J. H. and Ko, J. S., "Airworthiness Case Study for the Tactical UAV's Flight Control System," Journal of the Korea Institute of Military Science and Technology, Vol. 17, No. 4, 2014, pp. 430-435.
Choi, S. K., Moon, J. H., Cho, S. J. and Lee, S. H., "Flight Control System Design and Flight Test of the Tactical Unmanned Aircraft System," Proceeding of The Society for Aerospace System Engineering Fall Conference, October 2014, pp. 427-432.
Kim, K. Y., "Analysis of Anti-Jamming Techniques for Satellite Navigation Systems," Journal of Korean Institute of Communications and Information Sciences, Vol. 38C No. 12, 2013, pp. 1216-1227.
Golden, J. P., "Terrain contour matching (TERCOM): A cruise missile guidance aid," In Proceedings of SPIE Image Processing for Missile Guidance, Vol. 38, July-August 1980, pp. 10-18.
Rodriguez, J. J. and Aggarwal, J. K., "Matching aerial images to 3-D terrain maps," IEEE Transactions on Pattern Analysis and Machine Intelligence, No. 12, December 1990, pp. 1138-1149.
Mok, S. H., Bang, H. C. and Yu, M. J., "Performance Analysis of Vision-Based Terrain Referenced Navigation," Journal of Institute of Control, Robotics and Systems, Vol. 23, No. 4, 2017, pp. 294-299.
Bosse, M., Karl, W. C., Castanon, D. A. and DeBitetto, P., "A vision augmented navigation system," Proceedings of the IEEE Conference on Intelligent Transportation Systems, November 9-12, 1997, pp. 1028-1033.
Li, H. and Yang, S. X., "A Behavior-based Mobile Robot with a Visual Landmark-recognition System," IEEE/ASME Transactions on Mechatronics, Vol. 8, No. 3, 2003, pp. 390-400.
Herisse, B., Hamel, T., Mahony, R. and Russotto, F., "Landing a VTOL Unmanned Aerial Vehicle on a Moving Platform Using Optical Flow," IEEE Transactions on Robotics, Vol. 28, No. 1, 2012, pp. 77-89.
Maier, J. and Humenberger, M., "Movement Detection Based on Dense Optical Flow for Unmanned Aerial Vehicles," International Journal of Advanced Robotic Systems, Vol. 10, No. 2, 2013, p. 146.
Cho, D. M., Tsiotras, P., Zhang, G. and Holzinger, M., "Robust Feature Detection, Acquisition and Tracking for Relative Navigation in Space with a Known Target," Proceeding of AIAA Guidance, Navigation, and Control (GNC) Conference, Boston, MA, August 19-22, 2013.
Nourani-Vatani, N., Borges, P. V. K., Roberts, J. M. and Srinivasan, M. V., "On the Use of Optical Flow for Scene Change Detection and Description," Journal of Intelligent and Robotic Systems, Vol. 74, Issues 3-4, 2014, p. 817.
DeSouza, G. N. and Kak, A. C., "Vision for Mobile Robot Navigation: A Survey," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 24, No. 2, February 2002.
Sim, D G., Park, R. H., Kim, R. C., Lee, S. U. and Kim, I. C., "Integrated position estimation using aerial image sequences," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 24, Issue 1, January 2002, pp. 1-18.
Fournier, J., Ricard, B. and Laurendeau, D., "Mapping and Exploration of Complex Environments Using Persistent 3D Model," Proceeding of Fourth Canadian Conference on Computer and Robot Vision, IEEE, Montreal, Canada, May 28-30, 2007.
Gutmann, J., Fukuchi, M. and Fujita, M., "3D Perception and Environment Map Generation for Humanoid Robot Navigation," The International Journal of Robotics Research, Vol. 27, No. 10, 2008, pp. 1117-1134.
Dryanovski, I., Morris, W. and Xiao, J., "Multi-Volume Occupancy Grids: An Efficient Probabilistic 3D Mapping Model for Micro Aerial Vehicles," Proceeding of IEEE/RSJ International Conference on Intelligent Robots and Systems, Taipei, China, October 18-22 2010.
Zhang, J., Liu, W. and Wu, Y., "Novel Technique for Vision-Based UAV Navigation," IEEE Transactions on Aerospace and Electronic Systems, Vol. 47, Issue 4, October 2011.
Hornung, A., Wurm, K. M., Bennewitz, M., Stachniss, C. and Burgard, W., "OctoMap: An Efficient Probabilistic 3D Mapping Framework Based on Octrees," Autonomous Robotics, Vol. 34, No. 3, 2013, pp. 189-206.
Davison, A. J., "Real-Time Simultaneous Localisation and Mapping with a Single Camera," Proceeding of Ninth IEEE International Conference on Computer Vision, Nice, France, October 13-16 2003.
Mahon, I., Williams, S. B., Pizarro, O. and Johnson-Roberson, M., "Efficient View-based SLAM Using Visual Loop Closures," IEEE Transactions on Robotics, Vol. 24, No. 5, 2008, pp. 1002-1014.
Engel, J., Schops, T. and Cremers, D. "LSD-SLAM: Large-scale Direct Monocular SLAM," Proceeding of European Conference on Computer Vision, Zurich, Switzerland, September 6-12 2014, pp. 834-849.
Harmat, A., Trentini, M. and Sharf, I., "Multi-camera Tracking and Mapping for Unmanned Aerial Vehicles in Unstructured Environments," Journal of Intelligent and Robotic Systems, Vol. 78, No. 2, 2015, pp. 291-317.
Forster, C., Faessler, M., Fontana, F., Werlberger, M. and Scaramuzza, D., "Continuous on-board monocular-vision-based elevation mapping applied to autonomous landing of micro aerial vehicles," Proceeding of IEEE International Conference on Robotics and Automation (ICRA), Seattle, USA, May 26-30 2015.
Ranftl, R., Vineet, V., Chen, Q. and Koltun, V., "Dense Monocular Depth Estimation in Complex Dynamic Scenes," Proceeding of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, USA, June 27-30 2016.
Habib, A., Asmamaw, A., Kelley, D. and May, M., "Linear feature in photogrammetry," Geodetic science and surveying, 2000, pp. 21-36.
SimGEN Software User Manual, Spirent Communication plc, November 2015.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.