자연재해로 인해 댐, 교량, 제방 등 수변구조물에 피해가 발생할 경우, 빠른 복구를 위해 정확한 피해정보를 분석하는 일은 매우 중요하다. 본 연구에서는 최근 활용이 확산되고 있는 UAV(Unmanned aerial vehicle)영상을 활용하여 효과적으로 피해를 분석하는 방안을 제시하고 정확도 평가를 수행하였다. UAV영상은 수변구조물 일대를 촬영한 영상들을 이용하였고, 피해를 분석하는 핵심 방법론으로 영상정합과 변화탐지 기법을 활용하였다. 영상정합을 통해 생성된 점군 데이터(point cloud)는 2차원 영상으로 3차원 형상을 재현하며, 사전에 구축된 레퍼런스 데이터와의 높이 값 비교를 통해 피해영역을 추출할 수 있다. 피해영역으로 추출된 결과는 정확도를 평가하기 위해 항공라이다로 구축된 정확한 데이터와 비교하여 절대위치 오차를 비교하였다. 실험 결과 EOP(외부표정요소)가 매우 정확한 UAV 영상을 사용하면 제안된 방법론으로 평균 10~20cm 오차 범위 내의 정확도를 확보할 수 있음을 알 수 있었고, 이는 제안한 방법이 비교적 큰 규모인 수변구조물에서 발생하는 피해 분석에 매우 유용하게 활용될 수 있음을 보여주었다. 하지만 복잡도가 높은 구조물들은 매칭 기술을 적용하기 어려우며, 이러한 구조물들의 피해를 추출하기 위해서는 별도의 방법론이 필요하다.
자연재해로 인해 댐, 교량, 제방 등 수변구조물에 피해가 발생할 경우, 빠른 복구를 위해 정확한 피해정보를 분석하는 일은 매우 중요하다. 본 연구에서는 최근 활용이 확산되고 있는 UAV(Unmanned aerial vehicle)영상을 활용하여 효과적으로 피해를 분석하는 방안을 제시하고 정확도 평가를 수행하였다. UAV영상은 수변구조물 일대를 촬영한 영상들을 이용하였고, 피해를 분석하는 핵심 방법론으로 영상정합과 변화탐지 기법을 활용하였다. 영상정합을 통해 생성된 점군 데이터(point cloud)는 2차원 영상으로 3차원 형상을 재현하며, 사전에 구축된 레퍼런스 데이터와의 높이 값 비교를 통해 피해영역을 추출할 수 있다. 피해영역으로 추출된 결과는 정확도를 평가하기 위해 항공라이다로 구축된 정확한 데이터와 비교하여 절대위치 오차를 비교하였다. 실험 결과 EOP(외부표정요소)가 매우 정확한 UAV 영상을 사용하면 제안된 방법론으로 평균 10~20cm 오차 범위 내의 정확도를 확보할 수 있음을 알 수 있었고, 이는 제안한 방법이 비교적 큰 규모인 수변구조물에서 발생하는 피해 분석에 매우 유용하게 활용될 수 있음을 보여주었다. 하지만 복잡도가 높은 구조물들은 매칭 기술을 적용하기 어려우며, 이러한 구조물들의 피해를 추출하기 위해서는 별도의 방법론이 필요하다.
It is important to analyze the exact damage information for fast recovery when natural disasters cause damage on river-side facilities such as dams, bridges, embankments etc. In this study, we shows the method to effectively damage analysis plan using UAV(Unmanned aerial vehicle) images and accuracy...
It is important to analyze the exact damage information for fast recovery when natural disasters cause damage on river-side facilities such as dams, bridges, embankments etc. In this study, we shows the method to effectively damage analysis plan using UAV(Unmanned aerial vehicle) images and accuracy assessment of it. The UAV images are captured on area near the river-side facilities and the core methodology for damage analysis are image matching and change detection algorithm. The result(point cloud) from image matching is to construct 3-dimensional data using by 2-dimensional images, it extracts damage areas by comparing the height values on same area with reference data. The results are tested absolute locational precision compared by post-processed aerial LiDAR data named reference data. The assessment analysis test shows our matching results 10-20 centimeter level precision if external orientation parameters are very accurate. This study shows suggested method is very useful for damage analysis in a large size structure like river-side facilities. But the complexity building can't apply this method, it need to the other method for damage analysis.
It is important to analyze the exact damage information for fast recovery when natural disasters cause damage on river-side facilities such as dams, bridges, embankments etc. In this study, we shows the method to effectively damage analysis plan using UAV(Unmanned aerial vehicle) images and accuracy assessment of it. The UAV images are captured on area near the river-side facilities and the core methodology for damage analysis are image matching and change detection algorithm. The result(point cloud) from image matching is to construct 3-dimensional data using by 2-dimensional images, it extracts damage areas by comparing the height values on same area with reference data. The results are tested absolute locational precision compared by post-processed aerial LiDAR data named reference data. The assessment analysis test shows our matching results 10-20 centimeter level precision if external orientation parameters are very accurate. This study shows suggested method is very useful for damage analysis in a large size structure like river-side facilities. But the complexity building can't apply this method, it need to the other method for damage analysis.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 연구에서는 수변구조물에서 발생하는 피해를 탐지하기 위해 UAV 영상을 이용하여 3차원 점군 데이터를 추출하고, 이를 통해 피해분석이 가능한지 평가하기 위하여 정확도 분석을 수행하였다. 정밀하게 보정된 UAV영상은 영상정합 결과가 실제 레퍼런스와 10cm 전후의 매우 정확한 위치오차 결과를 보였다.
제안 방법
본 연구에서 사용하는 방법론의 핵심 기술 중 하나는 2차원 영상들을 영상정합 기법을 적용하여 피해영역의 3차원 정보를 추출하는 것이다. 추출되는 피해 영역의 정보는 피해의 길이나 넓이 정보에 추가적으로 부피(volume) 값까지 정확히 추출할 수 있다.
본 연구에서는 태풍이나 집중호우 시 불어난 강물로 인해 피해가 빈번하게 발생하는 수변구조물을 연구대상으로 하였다. 특히 교량과 제방 등에 빈번하게 발생하는 시설물의 파손, 유실 피해를 가정하여 본 연구에서 제안하는 방법론으로 정량적인 피해분석이 가능할 것인지 테스트하였다. 이를 위해 실제 수변구조물들을 대상으로 UAV영상을 비롯한 공간정보 DB들을 확보하였으며, 공간정보 DB는 피해 발생 시 획득되는 UAV영상 DB와 피해탐지를 위한 레퍼런스 데이터 크게 두 가지로 나누어진다.
피해분석은 UAV영상 정합기법 결과와 그 결과를 레퍼런스와 비교하여 피해지역을 산출하는 방법을 사용하며, 산출된 피해가 적절한 것인지 검증하기 위하여 정합결과의 정확도를 분석하였다. 영상정합 기법은 2차원 형태인 UAV영상들에서 3차원 형태인 점군 데이터를 추출한다.
하지만 촬영 당시 카메라의 정확한 위치와 자세정보를 나타내는 외부표정요소의 부정확한 값은 영상정합 결과와 실세계 위치와의 오차를 유발한다. 피해정보의 정확한 정량적 분석을 위해서는 영상정합 결과의 정확한 위치정확도가 확보되어야 하므로, 다음은 이를 위한 정합결과의 위치정확도 검증을 수행하였다.
대상 데이터
UAV촬영 영상은 총 63장의 연속 중복영상이며, 좌표계는 TM 동부원점, 타원체는 GRS80 타원체를 사용하였다. Fig.
위치정확도 분석은 UAV 영상정합 결과와 지상좌표계와의 위치오차를 측정하기 위해 수행되었으며, 추출되는 정합결과(점군 데이터)를 사전 취득된 레퍼런스 데이터와 비교하였다. 레퍼런스 데이터는 2014년 12월에 취득한 대상지역의 항공라이다(Aerial LiDAR) 취득성과이며, 이는 후처리가 완료되어 정확도가 확보된 데이터이다(높이 기준 평균 RMSE : 1.5cm). 실험 지역은 낙동강 유역의 강정고령보와 인근 제방으로 아래 Fig.
본 연구에서는 낙동강 유역의 수변구조물인 강정고령보 일대를 대상으로 시설물과 제방이 포함된 영역의 UAV영상을 취득하였다. 연구지역 촬영에 사용된 UAV 기체는 독일 마이크로드론사의 MD4-1000이며, 100m 고도에서 촬영하였다.
본 연구에서는 태풍이나 집중호우 시 불어난 강물로 인해 피해가 빈번하게 발생하는 수변구조물을 연구대상으로 하였다. 특히 교량과 제방 등에 빈번하게 발생하는 시설물의 파손, 유실 피해를 가정하여 본 연구에서 제안하는 방법론으로 정량적인 피해분석이 가능할 것인지 테스트하였다.
연구지역 촬영에 사용된 UAV 기체는 독일 마이크로드론사의 MD4-1000이며, 100m 고도에서 촬영하였다. 사용된 카메라는 SONY사의 DSLR ILCE -7M2이며, 카메라와 촬영 영상의 제원은 Table 1 and 2와 같다.
수변구조물의 피해를 분석하기 위하여 본 연구에서는 기본적으로 현 시점에 촬영된 UAV 영상과 과거에 구축한 동일지역의 레퍼런스 데이터를 활용한다. 촬영된 UAV 영상은 사용한 카메라의 보정된 정보와 촬영 당시의 위치 및 자세정보를 알 수 있는 각 영상들의 외부표정요소 정보를 모두 포함한 DB 형태로 입력된다.
본 연구에서는 낙동강 유역의 수변구조물인 강정고령보 일대를 대상으로 시설물과 제방이 포함된 영역의 UAV영상을 취득하였다. 연구지역 촬영에 사용된 UAV 기체는 독일 마이크로드론사의 MD4-1000이며, 100m 고도에서 촬영하였다. 사용된 카메라는 SONY사의 DSLR ILCE -7M2이며, 카메라와 촬영 영상의 제원은 Table 1 and 2와 같다.
특히 교량과 제방 등에 빈번하게 발생하는 시설물의 파손, 유실 피해를 가정하여 본 연구에서 제안하는 방법론으로 정량적인 피해분석이 가능할 것인지 테스트하였다. 이를 위해 실제 수변구조물들을 대상으로 UAV영상을 비롯한 공간정보 DB들을 확보하였으며, 공간정보 DB는 피해 발생 시 획득되는 UAV영상 DB와 피해탐지를 위한 레퍼런스 데이터 크게 두 가지로 나누어진다.
데이터처리
먼저 GCP 없이 지오레퍼런싱을 수행한 외부표정요소를 가진 영상정합 결과를 레퍼런스 데이터와 비교하였다(Fig. 9).
영상정합은 가장 많이 활용되고 있는 상용 소프트웨어인 Agisoft사의 PhotoScan을 이용하였으며, 각각 생성된 정합결과는 사전에 구축된 기준 데이터와 비교하여 정확도를 분석하였다.
위치정확도 분석은 UAV 영상정합 결과와 지상좌표계와의 위치오차를 측정하기 위해 수행되었으며, 추출되는 정합결과(점군 데이터)를 사전 취득된 레퍼런스 데이터와 비교하였다. 레퍼런스 데이터는 2014년 12월에 취득한 대상지역의 항공라이다(Aerial LiDAR) 취득성과이며, 이는 후처리가 완료되어 정확도가 확보된 데이터이다(높이 기준 평균 RMSE : 1.
다음은 외부표정요소가 매우 정확한 UAV 영상을 사용하는 경우, 피해분석에 활용할 수 있는지 평가하였다. 이를 위해 GCP를 이용하여 외부표정요소를 보정한 UAV영상을 사용하여 영상정합을 수행하였으며, 레퍼런스 데이터와의 비교를 수행하였다.
피해로 판별된 데이터의 정확도는 영상정합 결과 정확도에 비례하므로, 영상정합의 결과로 피해정보의 정확도를 평가할 수 있다. 정확도 분석은 사전에 구축한 항공 라이다 데이터를 레퍼런스로 비교하였다.
이론/모형
Photoscan은 영상정합을 수행하기 위해 가장 효과적인 알고리즘들을 적용하여 개발되었다. 먼저 영상들 간의 정합을 위해 SIFT(Scale Invariant Feature Transform)을 이용하여 각 영상들에서 중복되는 영역이라고 판단되는 특징점(Key point)과 형상을 추출한다. SIFT는 영상의 회전과 크기에 불변하는 서술자를 이용하여 우수한 매칭 성능을 보여준다(David, 2004).
이 방식은 영상에서 특정 형상들이 포함된 영역만을 추출하여 상대적 위치를 보정하므로 매우 빠른 결과를 보여준다. 본 연구에서는 Feature based 방식으로 정합을 수행하는 Agisoft사의 PhotoScan을 사용하였다.
이후 Feature들의 3차원 형태를 재현하기 위하여 촬영된 카메라의 정보와 영상들 간의 상대적 위치를 결정하는 Bundler 알고리즘으로 대략적인(spares) 점 데이터를 추출한다. 이 점 데이터는 보다 정밀하고 조밀한 (dense) 형상 포인트들을 추출하기 위한 PMVS2 (Patch-based Multi-View Stereo software ver.
성능/효과
Fig. 10의 결과에서는 GCP를 사용하여 미세 조정된 정확한 외부표정요소를 사용하면 정합결과와 레퍼런스 데이터의 위치 오차를 육안으로도 식별할 수 없을 정도로 작은 것을 확인할 수 있다. 각 지점의 수평 및 수직 위치정확도 비교 결과는 Table 6과 같다.
11에서 형상이나 윤곽이 없는 물(river) 포함 영역이나 복잡도 높은 일부지점을 제외하면 모든 지점의 높이 차이는 10-20cm 이내이다. 영상정합 결과와 레퍼런스 데이터의 높이 차이가 매우 작다는 것은 이 두 데이터의 높이 차 변화가 피해 여부를 판별하는데 매우 확실하고 간편한 그리고 효과적인 요소라는 것을 알 수 있다.
정밀하게 보정된 UAV영상은 영상정합 결과가 실제 레퍼런스와 10cm 전후의 매우 정확한 위치오차 결과를 보였다. 외부표정 요소가 매우 정확하면 영상정합은 실세계와 유사한 3차원 결과물을 만드는 매우 효과적인 기술임을 보여주었다. 교량이나 보와 같은 규모가 큰 수변구조물에서 시설물의 파손, 제방의 유실 등 최소 1m급 이상의 피해가 예상되는 피해 특성을 고려하면 본 연구에서 영상 정합을 수행한 결과물은 피해영역을 탐지하기에 충분히 활용할만한 결과를 보여준다고 할 수 있다.
본 연구에서는 수변구조물에서 발생하는 피해를 탐지하기 위해 UAV 영상을 이용하여 3차원 점군 데이터를 추출하고, 이를 통해 피해분석이 가능한지 평가하기 위하여 정확도 분석을 수행하였다. 정밀하게 보정된 UAV영상은 영상정합 결과가 실제 레퍼런스와 10cm 전후의 매우 정확한 위치오차 결과를 보였다. 외부표정 요소가 매우 정확하면 영상정합은 실세계와 유사한 3차원 결과물을 만드는 매우 효과적인 기술임을 보여주었다.
후속연구
외부표정 요소가 매우 정확하면 영상정합은 실세계와 유사한 3차원 결과물을 만드는 매우 효과적인 기술임을 보여주었다. 교량이나 보와 같은 규모가 큰 수변구조물에서 시설물의 파손, 제방의 유실 등 최소 1m급 이상의 피해가 예상되는 피해 특성을 고려하면 본 연구에서 영상 정합을 수행한 결과물은 피해영역을 탐지하기에 충분히 활용할만한 결과를 보여준다고 할 수 있다. 비행 운용 비용 대비 경제성이 높은 UAV영상을 이용하여 피해를 탐지하는 본 연구의 방법론은 매우 유용하다고 판단되나, 가벼운 UAV 기체 특성 상 외부표정요소가 정확히 취득되지 않는 촬영 환경을 해결하고 촬영 직후 외부표정요소를 빠르게 보정하는 연구들이 더 필요하다.
비행 운용 비용 대비 경제성이 높은 UAV영상을 이용하여 피해를 탐지하는 본 연구의 방법론은 매우 유용하다고 판단되나, 가벼운 UAV 기체 특성 상 외부표정요소가 정확히 취득되지 않는 촬영 환경을 해결하고 촬영 직후 외부표정요소를 빠르게 보정하는 연구들이 더 필요하다. 동시에 비교적 정확한 결과를 보장하는 GCP 데이터를 사전에 구축하여 피해지역의 신속한 분석에 활용하는 방안도 고려해 볼 필요가 있다. 또한 복잡도가 매우 높은 구조물은 영상정합 기술로 재현하는 것이 매우 어려우므로, 이러한 피해를 탐지하기 위한 새로운 방법론을 개발하는 연구도 필요하다.
동시에 비교적 정확한 결과를 보장하는 GCP 데이터를 사전에 구축하여 피해지역의 신속한 분석에 활용하는 방안도 고려해 볼 필요가 있다. 또한 복잡도가 매우 높은 구조물은 영상정합 기술로 재현하는 것이 매우 어려우므로, 이러한 피해를 탐지하기 위한 새로운 방법론을 개발하는 연구도 필요하다.
교량이나 보와 같은 규모가 큰 수변구조물에서 시설물의 파손, 제방의 유실 등 최소 1m급 이상의 피해가 예상되는 피해 특성을 고려하면 본 연구에서 영상 정합을 수행한 결과물은 피해영역을 탐지하기에 충분히 활용할만한 결과를 보여준다고 할 수 있다. 비행 운용 비용 대비 경제성이 높은 UAV영상을 이용하여 피해를 탐지하는 본 연구의 방법론은 매우 유용하다고 판단되나, 가벼운 UAV 기체 특성 상 외부표정요소가 정확히 취득되지 않는 촬영 환경을 해결하고 촬영 직후 외부표정요소를 빠르게 보정하는 연구들이 더 필요하다. 동시에 비교적 정확한 결과를 보장하는 GCP 데이터를 사전에 구축하여 피해지역의 신속한 분석에 활용하는 방안도 고려해 볼 필요가 있다.
질의응답
핵심어
질문
논문에서 추출한 답변
UAV 영상 DB의 특징은 무엇인가?
UAV 영상 DB는 피해지역을 실시간으로 촬영한 UAV 중복영상들과 개별 영상의 외부표정요소(Exterior Orientation Parameters, EOPs)로 구성되며, 외부표정 요소는 GPS/INS 센서에서 획득되는 촬영 당시의 센서 위치를 나타내며 정확한 측량을 위해 반드시 필요한 정보이다(Rhee et al., 2015).
영상정합은 무엇인가?
영상정합은 연속으로 촬영되거나 구축한 영상이나 비디오 자료들을 이용하여 3D 형상을 재현하는 핵심기술이며, 일반적으로 Correlation based 방식과 Feature based 방식 두 가지 접근방법이 주로 사용되고 있다. Correlation based 방식은 영상의 모든 영역이나 픽셀을 대상으로 영상정합을 수행하므로 연산량이 매우 많은 단점을 가지고 있다.
Correlation based 방식과 Feature based 방식의 차이점은 무엇인가?
영상정합은 연속으로 촬영되거나 구축한 영상이나 비디오 자료들을 이용하여 3D 형상을 재현하는 핵심기술이며, 일반적으로 Correlation based 방식과 Feature based 방식 두 가지 접근방법이 주로 사용되고 있다. Correlation based 방식은 영상의 모든 영역이나 픽셀을 대상으로 영상정합을 수행하므로 연산량이 매우 많은 단점을 가지고 있다. 반면 Feature based 방식은 영상 내의 에지(edges), 코너(corners)와 같은 고유 형상 들을 추출하여 정합을 수행하는 방식이다. 이 방식은 영상에서 특정 형상들이 포함된 영역만을 추출하여 상대적 위치를 보정하므로 매우 빠른 결과를 보여준다. 본 연구에서는 Feature based 방식으로 정합을 수행하는 Agisoft사의 PhotoScan을 사용하였다.
참고문헌 (7)
Kim, M. J., Park, J. T., Han, W. S., Kim, Y. M., Kim, M. C., Choi, J. R. and Chun, J. Y., 2013, Study on construction of flood monitoring system for citizen-centered based on geospatial bigdata, Ministry of Land, Infrastructure, and Transport, pp. 12-13.
Kim, T. H., Kim, K. H., Nam, G. B., Shim, J. H., Choi, W. J. and Cho, M. H., 2010, Development of natural disaster damage investigation system using high resolution spatial images, Korean Journal of Spatial Information Society, Vol. 12, No. 1, pp. 57-65.
Rhee, S. A., Kim, T. J., Kim, J. I., Kim, M. C. and Chang, H. J., 2015, DSM generation and accuracy analysis from UAV images on river-side facilities, Korean Journal of Remote Sensing, Vol. 31, No. 2, pp. 183-191.
Noah, S., Steven, M. S. and Richard, S., 2006, Photo tourism: exploring photo collections in 3d, ACM Transactions on Graphics, Vol. 25, No. 3, pp. 835-846.
Yasutaka, F. and Jean, P., 2010, Accurate, dense, and robust multi-view stereopsis, Pattern Analysis and Machine Intelligence, IEEE Transactions, Vol. 32, Issue 8, pp. 1362-1376.
Park, H. G., 2014, Reservoir disaster monitoring using unmanned aerial photogrammetry, Journal of the Korean society for geo-spatial information system, Vol. 22, Issue 4, pp. 143-149.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.