$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

MMS로부터 취득된 LiDAR 점군데이터의 반사강도 영상과 UAV 영상의 정합을 위한 특징점 기반 매칭 기법 연구

Feature-based Matching Algorithms for Registration between LiDAR Point Cloud Intensity Data Acquired from MMS and Image Data from UAV

한국측량학회지 = Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, v.37 no.6, 2019년, pp.453 - 464  

최윤조 (School of Civil and Environmental Engineering, Yonsei University) ,  (School of Civil and Environmental Engineering, Yonsei University) ,  홍승환 (Stryx Inc.) ,  손홍규 (School of Civil and Environmental Engineering, Yonsei University)

초록
AI-Helper 아이콘AI-Helper

최근 3차원 공간정보에 대한 수요가 증가함에 따라 신속하고 정확한 데이터 구축의 중요성이 증대되어 왔다. 정밀한 3차원 데이터 구축이 가능한 LiDAR (Light Detection and Ranging) 데이터를 기준으로 UAV (Unmanned Aerial Vehicle) 영상을 정합하기 위한 연구가 다수 수행되어 왔으나, MMS (Mobile Mapping System)로부터 취득된 LiDAR 점군데이터의 반사강도 영상을 활용한 연구는 미흡한 실정이다. 따라서 본 연구에서는 MMS로부터 취득된 LiDAR 점군데이터를 반사영상으로 변환한 데이터와 UAV 영상 데이터의 정합을 위해 9가지의 특징점 기반매칭 기법을 비교·분석하였다. 분석 결과 SIFT (Scale Invariant Feature Transform) 기법을 적용하였을 때 안정적으로 높은 매칭 정확도를 확보할 수 있었으며, 다양한 도로 환경에서도 충분한 정합점을 추출할 수 있었다. 정합 정확도 분석 결과 SIFT 알고리즘을 적용한 경우 중복도가 낮으며 동일한 패턴이 반복되는 경우를 제외하고는 약 10픽셀 수준으로 정확도를 확보할 수 있었으며, UAV 영상 촬영 당시 UAV 자세에 따른 왜곡이 포함되어 있음을 감안할 때 합리적인 결과라고 할 수 있다. 따라서 본 연구의 분석 결과는 향후 LiDAR 점군데이터와 UAV 영상의 3차원 정합을 위한 기초연구로 활용될 수 있을 것으로 기대된다.

Abstract AI-Helper 아이콘AI-Helper

Recently, as the demand for 3D geospatial information increases, the importance of rapid and accurate data construction has increased. Although many studies have been conducted to register UAV (Unmanned Aerial Vehicle) imagery based on LiDAR (Light Detection and Ranging) data, which is capable of pr...

주제어

표/그림 (12)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 1과 같다. MMS로부터 취득된 3차원 LiDAR 데이터와 UAV 영상을 정합하기 위한 정합점을 추출하기 위해 본 연구에서는 3차원 점군데이터로 구성된 LiDAR 데이터를 평면시점 영상으로 변환하여 매칭 기법을 적용하였다. 이후 잘못된 정합쌍을 제거하기 위해 RANSAC (RANdom SAmple Consensus) 알고리즘을 적용하였으며, 최종적으로 추출된 정합쌍을 이용하여 변환계수를 추정하였다.
  • 따라서 본 연구에서는 MMS로부터 취득한 3차원 LiDAR 점군데이터를 정사영상과 같은 평면시점(top view)에서 바라본 2차원 반사영상으로 변환한 후, UAV 영상과 LiDAR 반사영상데이터의 정합 가능성을 검증하고자 하였다. LiDAR 반사영상과 UAV 영상의 정합을 위한 특징점 기반의 매칭 기법을 상호비교·분석하고자 하였으며, 매칭 정확도와 정합 정확도의 두 가지 방법을 이용하여 정확도를 평가하였다.
  • 본 연구에서 사용한 원 LiDAR 점군데이터는 약 5cm 간격으로 구성되어 있으며, 이에 따라 2차원 영상을 구성하기 위하여 5cm 격자영상을 구성하였다. 또한 본 연구에서는 도로 노면으로부터 정합점을 추출하고자 하였으며, 도로의 경우 지물 중에서도 가장 낮은 곳에 위치할 가능성이 높다. 따라서 이와 같이 구성된 5cm×5cm의 격자에 해당되는 반사강도를 할당하기 위하여 각 격자에 해당하는 점군데이터 중 표고 Z값이 가장 낮은 점의 반사강도 값을 적용하였다.
  • 본 연구에서는 MMS로부터 취득된 LiDAR 점군데이터와 UAV 영상을 사용하여 정합점을 추출하고자 하였으며, 신촌동 및 연희동 일대를 촬영한 데이터를 사용하였다. 분석에 사용된 영상 데이터는 Table 2와 같으며, 총 3가지 케이스로 구분하여 분석을 수행하였다.
  • 본 연구에서는 MMS로부터 취득된 LiDAR 점군데이터와 UAV 영상을 이용하여 정합점을 추출하고자 하였다. LiDAR 장비를 통해 취득되는 데이터는 레이저 광 펄스가 물체에 반사되어 돌아오는 정보를 이용하여 3차원 모델을 구성하며, Fig.
  • MMS로부터 취득한 LiDAR 데이터는 도로에서 먼 외부 지역 또는 일부 도로 지역에서 반사정보를 취득하지 못할 수 있으며, 이로 인해 5cm×5cm 격자 내에 반사강도가 없는 빈 격자가 존재할 수 있다. 본 연구에서는 도로 노면 표시로부터 특징점을 검출하고자 하였으며, 도로 상에 이러한 빈 격자가 존재할 경우 현저한 값을 가지는 빈 격자가 특징점으로 검출될 수 있다. 이는 결국 데이터 내에 빈 격자가 다수 존재할 경우 특징점 기반의 매칭 결과에 영향을 미칠 수 있다는 것을 의미한다.
  • 이는 결국 데이터 내에 빈 격자가 다수 존재할 경우 특징점 기반의 매칭 결과에 영향을 미칠 수 있다는 것을 의미한다. 이러한 문제를 해결하기 위해 각 픽셀이 포함하고 있는 반사강도의 통계값을 이용하고자 하였다.
  • 최근 정밀한 공간정보 데이터에 대한 요구가 증가함에 따라 다양한 공간정보 데이터를 융합하여 활용하기 위한 연구가 활발하게 진행되고 있다. 항공에서 촬영하는 UAV 영상의 경우 촬영지역에 따라 정확한 위치정보를 취득하기 어려울 수 있으며, 이에 따라 본 연구에서는 MMS로부터 취득된 LiDAR 데이터와 UAV 영상의 정합을 위한 정합쌍을 추출하기 위한 연구를수행하였다. 주요 결과는 다음과 같다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
MMS의 주요 구성 요소 중 하나는? 최근 3차원 공간정보에 대한 수요가 증가하고 있으며, 이러한 공간정보가 실생활과 연계됨에 따라 실제 공간상의 변화를 반영할 수 있는 신속하고 정확한 데이터 구축의 중요성이 증대되고 있다. 또한 이동수단에 내비게이션 센서를 포함한 다중센서를 탑재하여 데이터를 취득하는 MMS (Mobile Mapping System)의 활용성이 증가하는 추세에 있으며, 레이저 관측 및 항법 센서의 정확도가 향상됨에 따라 이동식 레이저 스캐너는 모든 MMS의 주요 구성요소 중 하나가 되었다(Hong et al., 2017).
LiDAR란? LiDAR (Light Detection and Ranging)는 고출력의 펄스레이저를 이용하여 물체에 반사되어 돌아오는 레이저 빔의 시간을 측정하여 거리정보를 취득하는 기술이다(COMPA, 2017). LiDAR에 의해 취득된 점군데이터는 반사점으로부터 정확한 3차원 데이터를 취득할 수 있으나, 차량에 탑재된 센서에 의해 데이터를 취득하기 때문에 다른 물체에 의해 시야가 가려지거나 건물 지붕과 같은 경우에는 데이터 취득에 어려움이 있다.
MMS로부터 취득된 LiDAR 점군데이터를 반사영상으로 변환한 데이터와 UAV 영상 데이터의 정합을 위해 9가지의 특징점 기반매칭 기법을 분석한 결과는? 따라서 본 연구에서는 MMS로부터 취득된 LiDAR 점군데이터를 반사영상으로 변환한 데이터와 UAV 영상 데이터의 정합을 위해 9가지의 특징점 기반매칭 기법을 비교·분석하였다. 분석 결과 SIFT (Scale Invariant Feature Transform) 기법을 적용하였을 때 안정적으로 높은 매칭 정확도를 확보할 수 있었으며, 다양한 도로 환경에서도 충분한 정합점을 추출할 수 있었다. 정합 정확도 분석 결과 SIFT 알고리즘을 적용한 경우 중복도가 낮으며 동일한 패턴이 반복되는 경우를 제외하고는 약 10픽셀 수준으로 정확도를 확보할 수 있었으며, UAV 영상 촬영 당시 UAV 자세에 따른 왜곡이 포함되어 있음을 감안할 때 합리적인 결과라고 할 수 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (37)

  1. Abayowa, B.O., Yilmaz, A., and Hardie, R.C. (2015), Automatic registration of optical aerial imagery to a LiDAR point cloud for generation of city models, ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 106, pp. 68-81. 

  2. Abedini, A., Hahn, M., and Samadzadegan, F. (2008), An investigation into the registration of LiDAR intensity data and aerial images using the SIFT approach, In International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVII, pp. 169-176. 

  3. Alcantarilla, P.F., Bartoli, A., and Davison, A.J. (2012), KAZE features, In European Conference on Computer Vision, Springer, Berlin, Heidelberg, pp. 214-227. 

  4. Bohm, J. and Becker, S. (2007), Automatic marker-free registration of terrestrial laser scans using reflectance, In Proceedings of the 8th Conference on Optical 3D Measurement Techniques, Zurich, Switzerland, pp. 9-12. 

  5. Commercializations Promotion Agency for R&D Outcomes (COMPA), (2017), LiDAR Technology and Market Trends, S&T Market Report, Vol. 54, 16p. (in Korean) 

  6. Conte, G. and Doherty, P. (2008), An integrated UAV navigation system based on aerial image matching, In 2008 IEEE Aerospace Conference, IEEE, pp. 1-10. 

  7. Fernandez, J.C., Singhania, A., Caceres, J., Slatton, K.C., Starek, M., and Kumar, R. (2007), An Overview of Lidar Point Cloud Processing Software, GEM Center Report No. Rep_2007-12-001, University of Florida, 27p. 

  8. Fischler, M.A. and Bolles, R.C. (1981), Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography, Communications of the ACM, Vol. 24, No. 6, pp. 381-395. 

  9. Guan, H., Li, J., Yu, Y., Wang, C., Chapman, M., and Yang, B. (2014). Using mobile laser scanning data for automated extraction of road markings, ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 87, pp. 93-107. 

  10. Harris, C.G. and Stephens, M. (1988), A combined corner and edge detector. In Alvey Vision Conference, Vol. 15, No. 50, pp. 10-5244. 

  11. Hong, S., Park, I., Lee, J., Lim, K., Choi, Y., and Sohn, H.G. (2017), Utilization of a terrestrial laser scanner for the calibration of mobile mapping systems, Sensors, Vol. 17, No. 3, 24p. 

  12. Kim, T. and Im, Y.J. (2003), Automatic satellite image registration by combination of matching and random sample consensus, IEEE transactions on geoscience and remote sensing, Vol. 41, No. 5, pp. 1111-1117. 

  13. Kim, M. (2005), The Study on Road Extraction Using LiDAR Data, Master's thesis, Inha University, Incheon, Korea, 62p. (in Korean with English abstract) 

  14. Kim, S., Yoo, H., and Sohn, K. (2012), FAST and BRIEF based real-time feature matching algorithms, In Proceedings of the Korean Society of Broadcast Engineers Conference, pp. 1-4. (in Korean) 

  15. Li, Q., Wang, G., Liu, J., and Chen, S. (2009), Robust scaleinvariant feature matching for remote sensing image registration, IEEE Geoscience and Remote Sensing Letters, Vol. 6, No. 2, pp. 287-291. 

  16. Lindeberg, T. (2015), Image matching using generalized scalespace interest points, Journal of Mathematical Imaging and Vision, Vol. 52, No. 1, pp. 3-36. 

  17. Liu, S., Tong, X., Chen, J., Liu, X., Sun, W., Xie, H., Chen, P., Jin, Y., and Ye, Z. (2016), A linear feature-based approach for the registration of unmanned aerial vehicle remotely-sensed images and airborne LiDAR data, Remote Sensing, Vol. 8, No. 2, 15p. 

  18. Lowe, D. (2004), Distinctive image features from scaleinvariant keypoints, International Journal of Computer Vision, Vol. 60, No. 2, pp. 91-110. 

  19. Matas, J., Chum, O., Urban, M., and Pajdla, T. (2004), Robust wide-baseline stereo from maximally stable extremal regions, Image and Vision Computing, Vol. 22, pp. 761-767. 

  20. Mikolajczyk, K. and Schmid, C. (2005), A performance evaluation of local descriptors, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 27, pp. 1615-1630. 

  21. Mikolajczyk, K., Tuytelaars, T., Schmid, C., Zisserman, A., Matas, J., Schaffalitzky, F., Kadir, T., and Van Gool, L. (2005), A Comparison of Affine Region Detectors, International Journal of Computer Vision, Vol. 65, pp. 43-72. 

  22. Miksik, O. and Mikolajczyk, K. (2012), Evaluation of local detectors and descriptors for fast feature matching, In Proceedings of the 21st International Conference on Pattern Recognition (ICPR2012), IEEE, pp. 2681-2684. 

  23. Moravec, H. (1980), Obstacle Avoidance and Navigation in the Real World by a Seeing Robot Rover, No. STAN-CS-80-813, Stanford University, California, USA. 

  24. Nho, H. (2018), Fast Geocoding Processing for Low-cost Unmanned Aerial Vehicle Imagery, Master's thesis, Yonsei University, Seoul, Korea, 69p. 

  25. Palenichka, R.M. and Zaremba, M.B. (2010), Automatic extraction of control points for the registration of optical satellite and LiDAR images, IEEE Transactions on Geoscience and Remote sensing, Vol. 48, No. 7, pp. 2864-2879. 

  26. Park, S., Kim, J., and Yoo, J. (2015), Fast stitching algorithm by using feature tracking, Journal of Broadcast Engineering, Vol. 20, No. 5, pp. 728-737. (in Korean with English abstract) 

  27. Park, J., Kim, P., Cho, Y.K., and Kang, J. (2019), Framework for automated registration of UAV and UGV point clouds using local features in images, Automation in Construction, Vol. 98, pp. 175-182. 

  28. Peng, W.H., Lee, M.Y., Li, T.H., Huang, C.H., and Lin, P.C. (2016), Performance comparison of image keypoint detection, description, and matching methods, In 2016 IEEE 5th Global Conference on Consumer Electronics, IEEE, pp. 1-2. 

  29. Persad, R.A. and Armenakis, C. (2016), Co-registration of DSMs generated by UAV and terrestrial laser scanning systems, The International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XLI-B1, pp. 985-990. 

  30. Rosten, E. and Drummond, T. (2006), Machine learning for high speed corner detection, In 9th Euproean Conference on Computer Vision, Vol. 1, pp. 430-443. 

  31. Schmind, C., Mohr, R., and Bauckhage, C. (2000), Evaluation of interest point detectors, International Journal of Computer Vision, Vol. 37, No. 2, pp. 151-172. 

  32. Shi, J. and Tomasi, C. (1994), Good Features to Track, CVPR. 

  33. Tareen, S.A.K. and Saleem, Z. (2018), A comparative analysis of sift, surf, kaze, akaze, orb, and brisk, In 2018 International Conference on Computing, Mathematics and Engineering Technologies (iCoMET), IEEE, pp. 1-10. 

  34. Tsai, C.H. and Lin, Y.C. (2017), An accelerated image matching technique for UAV orthoimage registration, ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 128, pp. 130-145. 

  35. Vedaldi, A. and Fulkerson, B. (2010), VLfeat: An open and portable library of computer vision algorithms, In Proceedings of the 18th ACM international conference on Multimedia, Firenze, Italy, pp. 25-29. 

  36. Verma, S.B. and Chandran, S. (2016), Comparative Study of FAST MSER and Harris for Palmprint Verification System, International Journal of Scientific & Engineering Research, Vol. 7, No. 12, pp. 855-858. 

  37. Yang, B. and Chen, C. (2015), Automatic registration of UAVborne sequent images and LiDAR data, ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 101, pp. 262-274. 

저자의 다른 논문 :

LOADING...
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트