최근 unmanned aerial vehicle(UAV)를 이용하여 영상을 취득하고 지도제작 및 3차원 형상을 구축하는 연구들이 활발히 이루어지고 있다. 본 연구에서는 영상정합(image matching) 기술을 이용하여 3차원 형상을 재현하고, 형상 변화가 있을 경우 이를 탐지하여 면적 및 부피를 계산하는 방법론을 제시하는 실험으로 측정 정확도를 평가하였다. 이를 위해 모의 구조물을 구축하여 형상변화 전 후의 UAV 영상을 취득하고, 영상정합 결과물인 포인트 데이터의 비교를 위해 변화 전 데이터는 격자 형태로 변환하여 높이 값을 비교하였다. 실험 결과, 제안된 방법은 가로 세로 30cm 이상의 형상변화는 매우 높은 정확도로 면적 및 부피를 계산하였으나, 그 이하의 형상변화는 아직 영상정합기술의 한계에 기인하여 적용이 어려운 것으로 검증되었다. 하지만 제안한 방법론은 불법건축물 판별, 구조물의 일정규모 이상 피해의 정량적 분석 및 관리 등에 충분히 활용 가능할 것으로 생각된다.
최근 unmanned aerial vehicle(UAV)를 이용하여 영상을 취득하고 지도제작 및 3차원 형상을 구축하는 연구들이 활발히 이루어지고 있다. 본 연구에서는 영상정합(image matching) 기술을 이용하여 3차원 형상을 재현하고, 형상 변화가 있을 경우 이를 탐지하여 면적 및 부피를 계산하는 방법론을 제시하는 실험으로 측정 정확도를 평가하였다. 이를 위해 모의 구조물을 구축하여 형상변화 전 후의 UAV 영상을 취득하고, 영상정합 결과물인 포인트 데이터의 비교를 위해 변화 전 데이터는 격자 형태로 변환하여 높이 값을 비교하였다. 실험 결과, 제안된 방법은 가로 세로 30cm 이상의 형상변화는 매우 높은 정확도로 면적 및 부피를 계산하였으나, 그 이하의 형상변화는 아직 영상정합기술의 한계에 기인하여 적용이 어려운 것으로 검증되었다. 하지만 제안한 방법론은 불법건축물 판별, 구조물의 일정규모 이상 피해의 정량적 분석 및 관리 등에 충분히 활용 가능할 것으로 생각된다.
Recently, there are many studies related aerial mapping project and 3 dimensional shape and model reconstruction using UAV(unmanned aerial vehicle) system and images. In this study, we create 3D reconstruction point data using image matching technology of the UAV overlap images, detect shape change ...
Recently, there are many studies related aerial mapping project and 3 dimensional shape and model reconstruction using UAV(unmanned aerial vehicle) system and images. In this study, we create 3D reconstruction point data using image matching technology of the UAV overlap images, detect shape change of structure and perform accuracy assessment of area($m^2$) and volume($m^3$) value. First, we build the test structure model data and capturing its images of shape change Before and After. Second, for post-processing the Before dataset is convert the form of raster format image to ensure the compare with all 3D point clouds of the After dataset. The result shows high accuracy in the shape change of more than 30 centimeters, but less is still it becomes difficult to apply because of image matching technology has its own limits. But proposed methodology seems very useful to detect illegal any structures and the quantitative analysis of the structure's a certain amount of damage and management.
Recently, there are many studies related aerial mapping project and 3 dimensional shape and model reconstruction using UAV(unmanned aerial vehicle) system and images. In this study, we create 3D reconstruction point data using image matching technology of the UAV overlap images, detect shape change of structure and perform accuracy assessment of area($m^2$) and volume($m^3$) value. First, we build the test structure model data and capturing its images of shape change Before and After. Second, for post-processing the Before dataset is convert the form of raster format image to ensure the compare with all 3D point clouds of the After dataset. The result shows high accuracy in the shape change of more than 30 centimeters, but less is still it becomes difficult to apply because of image matching technology has its own limits. But proposed methodology seems very useful to detect illegal any structures and the quantitative analysis of the structure's a certain amount of damage and management.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 연구에서는 구조물의 외형 변화를 탐지․관리하기 위하여 UAV 영상정합 기술을 이용하여 3차원 포인트 데이터를 생성하고, 결과의 정량적 분석을 수행하였다. 이를 위해 형상의 변화가 있는 구조물의 포인트 데이터에 형상 변화 이전의 구조물 포인트를 영상으로 변환하여 비교하였으며, 동일 영역의 높이 값 차를 계산하였다.
탐지된 형상변화 영역을 대상으로, 변화된 영역의 정량적 값을 측정하기 위한 실험을 진행하였다. 실험 데이터는 앞서 설명하였듯이 크기를 정확히 알고 있는 규격화된 사전 정의된 크기의 변화를 대상으로 하였으며, 구조물에 적용한 형상변화 영역 분포는 Fig.
제안 방법
제안된 방법의 적용을 위해 모의구조물을 제작하였으며, 형상 변화 전후 데이터를 UAV영상과 지상기준 점을 이용하여 정밀하게 제작하였다. 3차원 포인트 데이터는 면적과 부피 계산을 위해 TIN 기반의 알고리즘을 개발하여 적용하였다.
촬영된 UAV영상과 영상들의 외부표정요소(external orientation parameters)를 입력하고, 지상기준점을 입력하여 지오레퍼런싱과 형상 재현의 정확도를 확보하였다. Align photo 기능으로 촬영한 구조물의 전체적인 대략적인 형상을 재현하였으며, Build Dense point cloud 기능을 수행하여 조밀하게 제작된 3차원 형상을 재현하였다. 이는 Photoscan에서 제공하는 일반적인 작업절차이며, 본 연구에서 촬영한 UAV 영상을 이용하여 3차원 형상을 재현하는 작업 절차와 후처리 결과들은 아래 Fig.
형상변화 전․후의 데이터는 동일 영역에서의 높이 값 비교를 통해 변화지역을 판별하게 되며, 이러한 중첩 비교와 높이 값 차이 탐지 실험을 위해 별도의 프로그램을 구현하였다. 개발된 프로그램은 높이차가 10cm이상이 생기는 영역의 데이터를 찾도록 설계하였으며, 육안 판독의 용이함을 위해 생성된 포인트 데이터를 메쉬(mesh) 형태로 모델링하여 표출하였다. 전체적인 형상변화 탐지 결과는 Fig.
(2)에서의 Z값으로 적용된다. 결국 형상변화 영역의 개별 TIN은 삼각기둥 형태로 만들어지며, 개별 삼각기둥의 부피 값을 모두 합산하여 포인트 데이터의 부피 값을 계산하였다.
본 연구에서는 사용한 변환된 영상 데이터는 래스터 형식으로 1cm 해상도의 tif 포맷으로 각 픽셀은 보간된 높이 값을 가지고 있으며, 보간법은 최근린보간법(Nearest neighbor interpolation) 을 사용하였다. 결국 형상변화 후의 영상정합 결과물은 3차원 포인트 데이터로, 형상변화 전 영상정합 결과물은 래스터 영상 데이터로 변화탐지를 수행한다.
계산된 면적 수치는 형상변화 전·후 구조물 데이터 변화 영역의 총 면적으로 간주하여 정량적 분석을 수행 한다.
UAV 영상정합 기술을 이용한 3차원 형상 재현에 관한 연구는 아직 초기 단계라고 할 수 있으며, 관련 연구 방향은 크게 정확한 3차원 데이터의 정밀한 구축 그리고 그 데이터의 활용방안 두 가지로 나누어진다. 본 연구에서는 UAV로 취득한 영상에 영상정합 기술을 적용하여 3차원 형상 데이터를 생성하고, 한 단계 더 나아가 포인트 데이터 기반의 수식연산 알고리즘을 적용하여 변화영역의 면적과 부피가 얼마나 정확히 분석되는지 정량적인 측정을 실시하였다.
본 연구에서는 이러한 문제를 해결하기 위하여 형상 변화 전·후 두 데이터 중 하나의 데이터는 일정크기로 나누어진 격자(grid)에 높이 값을 갖는 래스터(raster) 형식의 영상 데이터로 변환하여 불규칙 포인트 데이터들의 모든 값이 비교 가능하도록 대응되는 픽셀 값을 갖도록 하였다(Fig. 3).
생성된 고밀도 포인트 데이터는 상호 중첩을 통해 변화영역을 측정하였으며, 앞서 언급했듯이 누락 없이 모든 영역에서의 비교를 위하여 형상 변화 전 데이터는 래스터 형태인 tiff 형식(1cm 해상도)으로 변환하였다. 형상변화 전․후의 데이터는 동일 영역에서의 높이 값 비교를 통해 변화지역을 판별하게 되며, 이러한 중첩 비교와 높이 값 차이 탐지 실험을 위해 별도의 프로그램을 구현하였다.
8과 같이 모의구조물에 적용하였다. 여기서 구축된 모의 구조물은 형상변화 이전의 데이터를 취득하기 위한 목적으로 UAV 영상을 취득하였으며, 형상변화 이후 구조물을 위하여 건설 장비들을 이용하여 구조물을 일부 파괴하였다.
영상매칭 결과물의 실세계 좌표화 작업을 위해 지오 레퍼런싱에 필요한 지상기준점 매설 및 GPS 측량/후처리 작업을 수행하였으며, Fig. 11은 지상기준점 배치를 나타낸다.
본 연구에서는 구조물의 외형 변화를 탐지․관리하기 위하여 UAV 영상정합 기술을 이용하여 3차원 포인트 데이터를 생성하고, 결과의 정량적 분석을 수행하였다. 이를 위해 형상의 변화가 있는 구조물의 포인트 데이터에 형상 변화 이전의 구조물 포인트를 영상으로 변환하여 비교하였으며, 동일 영역의 높이 값 차를 계산하였다. 제안된 방법의 적용을 위해 모의구조물을 제작하였으며, 형상 변화 전후 데이터를 UAV영상과 지상기준 점을 이용하여 정밀하게 제작하였다.
이를 위해 형상의 변화가 있는 구조물의 포인트 데이터에 형상 변화 이전의 구조물 포인트를 영상으로 변환하여 비교하였으며, 동일 영역의 높이 값 차를 계산하였다. 제안된 방법의 적용을 위해 모의구조물을 제작하였으며, 형상 변화 전후 데이터를 UAV영상과 지상기준 점을 이용하여 정밀하게 제작하였다. 3차원 포인트 데이터는 면적과 부피 계산을 위해 TIN 기반의 알고리즘을 개발하여 적용하였다.
촬영된 영상의 3차원 형상 재현을 위한 후처리는 PhotoScan을 사용하였다. 촬영된 UAV영상과 영상들의 외부표정요소(external orientation parameters)를 입력하고, 지상기준점을 입력하여 지오레퍼런싱과 형상 재현의 정확도를 확보하였다. Align photo 기능으로 촬영한 구조물의 전체적인 대략적인 형상을 재현하였으며, Build Dense point cloud 기능을 수행하여 조밀하게 제작된 3차원 형상을 재현하였다.
촬영된 영상의 3차원 형상 재현을 위한 후처리는 PhotoScan을 사용하였다. 촬영된 UAV영상과 영상들의 외부표정요소(external orientation parameters)를 입력하고, 지상기준점을 입력하여 지오레퍼런싱과 형상 재현의 정확도를 확보하였다.
생성된 고밀도 포인트 데이터는 상호 중첩을 통해 변화영역을 측정하였으며, 앞서 언급했듯이 누락 없이 모든 영역에서의 비교를 위하여 형상 변화 전 데이터는 래스터 형태인 tiff 형식(1cm 해상도)으로 변환하였다. 형상변화 전․후의 데이터는 동일 영역에서의 높이 값 비교를 통해 변화지역을 판별하게 되며, 이러한 중첩 비교와 높이 값 차이 탐지 실험을 위해 별도의 프로그램을 구현하였다. 개발된 프로그램은 높이차가 10cm이상이 생기는 영역의 데이터를 찾도록 설계하였으며, 육안 판독의 용이함을 위해 생성된 포인트 데이터를 메쉬(mesh) 형태로 모델링하여 표출하였다.
형상변화의 추출 및 분석을 위해 Fig. 7에서 제작한 모의구조물에 두 가지 형태의 형상변화를 적용하였다. 첫째는 규격화된 크기의 형상변화 영역이며, 이는 형상 변화 영역의 면적과 부피를 정확하게 정량적으로 측정 가능한지 테스트하기 위한 것이다.
대상 데이터
UAV 영상은 총 16장의 중복영상이며, 좌표계는 TM 중부원점, GRS80 타원체를 사용하였다. 촬영 영역의 전체 면적은 가로 30m, 세로 10m이며, 영상의 지상표 본거리(GSD, ground sample distance)는 0.
본 연구에서는 국토교통부/국토교통과학기술진흥원 건설기술연구사업의 지원으로 구축한 모의 구조물을 대상으로 실험을 진행하였다. 모의구조물은 수변구조물 중 하나인 교량의 형태이며, 가로 15m, 세로 3m, 두 께 30cm 크기로 제작하였다. 이 구조물은 실제와 최대한 유사한 형태로 제작하기 위하여 실제 구조물과 같이 철근과 콘크리트를 사용하였다(Fig.
본 연구에서는 국토교통부/국토교통과학기술진흥원 건설기술연구사업의 지원으로 구축한 모의 구조물을 대상으로 실험을 진행하였다. 모의구조물은 수변구조물 중 하나인 교량의 형태이며, 가로 15m, 세로 3m, 두 께 30cm 크기로 제작하였다.
탐지된 형상변화 영역을 대상으로, 변화된 영역의 정량적 값을 측정하기 위한 실험을 진행하였다. 실험 데이터는 앞서 설명하였듯이 크기를 정확히 알고 있는 규격화된 사전 정의된 크기의 변화를 대상으로 하였으며, 구조물에 적용한 형상변화 영역 분포는 Fig. 15와 같다.
16은 구조물 실험데이터의 변화영역의 면적 및 부피를 측정하기 위해 변화영역을 탐지한 실험 결과이다. 실험은 가장 큰 크기의 변화영역인가로․세로 50cm 부터 크기 순서로 실험하였다.
모의구조물은 수변구조물 중 하나인 교량의 형태이며, 가로 15m, 세로 3m, 두 께 30cm 크기로 제작하였다. 이 구조물은 실제와 최대한 유사한 형태로 제작하기 위하여 실제 구조물과 같이 철근과 콘크리트를 사용하였다(Fig. 7).
형상변화 전·후의 구조물은 UAV를 이용하여 영상을 취득하였으며, 촬영에 사용된 비행체는 회전익 UAV이다.
데이터처리
(2)에서 개별 TIN의 면적은 헤론의 공식 (Heron’s formula)을 이용하여 계산하며, 부피 계산을 위한 높이 값은 Fig. 6과 같이 TIN을 구성하는 세 점의 높이 평균값을 기준 값으로 사용한다.
이론/모형
본 연구에서는 사용한 변환된 영상 데이터는 래스터 형식으로 1cm 해상도의 tif 포맷으로 각 픽셀은 보간된 높이 값을 가지고 있으며, 보간법은 최근린보간법(Nearest neighbor interpolation) 을 사용하였다.
동일 영역의 높이 값 비교를 통해 변화영역으로 탐지 된 부분은 해당 영역의 데이터를 추출하여 포인트 데이터 기반으로 면적과 부피를 계산한다. 이는 개별 포인트 데이터에 내재된 기하학적 특성인 xyz좌표 값과 포인트 데이터의 후처리를 통해 생성한 불규칙삼각망(TIN, triangulated irregular network)을 기반으로 면적 계산 알고리즘과 3차원 기반 부피 계산 알고리즘을 적용한다.
성능/효과
가로․세로 40cm와 30cm도 각각 8.75%, 4.44%로 비교적 정확한 결과를 보여주었으나, 20cm 크기인 D영역에서는 47.5%로 매우 큰 오차가 발생되었다.
부피측정에서도 면적과 마찬가지로 B영역의 경우, 그림자로 인한 영상매칭 일부오류로 C영역보다 다소 높은 오차율을 보인다. 결과적으로 영상매칭을 통해 생성된 3D 포인트 데이터가 20cm 이하에서는 정량적 분석이 어려우며, 30cm 이상의 변화 영역은 제안된 방법으로 변화 영역을 탐지하거나 정량적 분석이 가능함을 보여준다.
구조물 전체의 형상변화 탐지결과, 총 10개의 형상변화 영역에서 총 8개의 형상변화 영역을 탐지하였으며, 탐지되지 않은 두 개의 영역은 불규칙적인 형상변화 영역으로 10cm로 설정한 높이차이 이상으로 형상이 변화되지 않았거나, 영상매칭 과정에서 오류가 생긴 영역 이었다.
실험결과, 제안된 방법론은 다양한 형태의 형상변화를 3차원 기반으로 적절히 탐지하였으며, 더 나아가 정량적인 측정도 가능함을 보여주었다. 규칙적인 형상변화 실험을 통해 가로․세로 50cm 크기 영역은 면적오차 1.6%, 부피오차 6.0% 정도로 정확한 결과를 보여주었으나, 변화 영역의 크기가 20cm 이하일 경우에는 탐지는 가능하되 정량 계산은 어려운 것으로 판명되었다. 제안한 방법론은 실제 구조물이나 사회기반 시설물의 크기가 수십 미터에서 수백 미터의 크기임을 고려하면, 불법건축물 판독 및 일정 크기 이상의 구조물 형상 변화를 탐지․계산하는데 충분히 활용 가능할 것으로 생 각된다.
매칭을 통한 정량적 측정 및 분석은 작은 크기의 변화를 탐지하기에는 다소 어려워 보인다. 또한 본 연구에서 제안한 포인트 데이터의 면적 및 부피 계산 알고리즘 자체에서 발생하는 오차가 있을 것으로 생각되나, 이는 A영역의 측정 결과로 볼 때 매칭 결과의 오류와 비교하면 무시할만한 요소라 판단된다.
5%로 매우 큰 오차가 발생되었다. 변화영역이 클수록 대체로 오차율이 작은 경향성을 가지나, B영역의 경우는 크기가 작은 C영역 보다 오차율이 크게 나와 경향성을 벗어났다. 이는 Fig.
실험결과, 제안된 방법론은 다양한 형태의 형상변화를 3차원 기반으로 적절히 탐지하였으며, 더 나아가 정량적인 측정도 가능함을 보여주었다. 규칙적인 형상변화 실험을 통해 가로․세로 50cm 크기 영역은 면적오차 1.
실험에서 발생한 오차의 가장 큰 원인으로는 UAV 영상 매칭에서 생성되는 불규칙 형태의 3D 포인트 데이터 결과물의 특성이 가장 큰 영향을 미치는 것으로 파악되었다. 매칭을 통한 정량적 측정 및 분석은 작은 크기의 변화를 탐지하기에는 다소 어려워 보인다.
UAV 영상은 총 16장의 중복영상이며, 좌표계는 TM 중부원점, GRS80 타원체를 사용하였다. 촬영 영역의 전체 면적은 가로 30m, 세로 10m이며, 영상의 지상표 본거리(GSD, ground sample distance)는 0.7cm/pixel, 촬영 중복도는 평균 약 75%로 분석되었다. Table 3은 사용한 UAV영상에 대한 설명이며, Fig.
후속연구
하지만 정량적 계산에 오차를 유발하는 영상정합 기술의 한계와 UAV영상에 내재된 그림자, 폐색영역 등 오류 유발 인자들의 분석이 필요하다. 또한 사용된 데이터들의 범위를 확장하여 다양한 촬영조건과 해상도의 영상을 실험하고, 포인트 데이터의 기하학적 특성인 불규칙함을 보완하는 방안은 추가적으로 연구가 필요한 부분이다.
0% 정도로 정확한 결과를 보여주었으나, 변화 영역의 크기가 20cm 이하일 경우에는 탐지는 가능하되 정량 계산은 어려운 것으로 판명되었다. 제안한 방법론은 실제 구조물이나 사회기반 시설물의 크기가 수십 미터에서 수백 미터의 크기임을 고려하면, 불법건축물 판독 및 일정 크기 이상의 구조물 형상 변화를 탐지․계산하는데 충분히 활용 가능할 것으로 생 각된다. 특히 기존 항공측량 시스템에 비해 상대적으로 저비용인 UAV를 통한 영상취득은 매우 효율적이고 경제성 높은 방법이라 할 수 있다.
질의응답
핵심어
질문
논문에서 추출한 답변
번들조정이란 무엇인가?
많은 연구들과 상용 소프트웨어에서는 주로 영상 크기와 회전에 불변하는 강력한 알고리즘인 David(2004)가 제안한 SIFT를 사용하고 있다. 다음 단계에서는 영상들의 카메라위치와 자세정보를 이용하여 영상들 간의 상대적 위치를 결정하는 번들조정(bundle adjustment)을 통해 대략적인(sparse) 형상을 추출한다. 추출된 대략적인 형상은 조밀한 점군 데이터(point cloud) 구성을 통해 보다 세밀한 3D 형상을 재현한다(Yasutaka and Jean, 2010).
형상 변화탐지는 어떤 방법을 통해 분석되는가?
형상 변화탐지는 구조물의 형상 변화 전․후의 데이터 를 대상으로 동일한 수평위치(XY)의 높이 값(Z)이 차이가 있는지 비교하는 방법을 통해 분석된다. 하지만 포인트 데이터의 경우, 고유의 불규칙한(irregular) 특성에 기인하여 동일 위치의 단순 수치 비교가 불가능하 다(Fig.
UAV 영상을 3차원 형태의 객체 형상으로 재현하려면 어떤 기법을 적용해야 하는가?
일반적으로 UAV 영상은 2차원 형태로 취득되나, 동일 영역이나 객체를 중복적으로 촬영한 연속 영상들을 사용하여 3차원 형태의 객체 형상을 재현할 수 있다. 이는 취득된 영상들에 영상정합이라는 기법을 적용하여 수행되며, 영상정합을 통해 수행되는 프로세스는 아래 Fig. 1과 같이 다수의 중복영상에서 하나의 3차원 구조물 데이터를 생성한다.
참고문헌 (7)
Agisoft, 2015, Photoscan professional version, Agisoft, http://www.agisoft.com
David, G. L., 2004, Distinctive image features from scale-invariant keypoints, International Journal of Computer Vision, Vol. 60, No. 2, pp. 91-110.
Fernandez, G., Kerle, N. and Gerke, M., 2015, UAV-based urban structural damage assessment using object-based image analysis and semantic reasoning, Natural Hazards and Earth System Sciences Discussions, Vol. 15, Issue 6, pp. 1087-1101.
Harwin, S. and Lucieer, A., 2012, Assessing the accuracy of georeferenced point clouds produced via multi-view stereosis from unmanned aerial vehicle(UAV) imagery, Remote Sensing, Vol. 4, Issue 6, pp. 1573-1599.
Haala, N. and Rothermel, M., 2012, Dense multiple stereo matching of highly overlapping UAV imagery, Proc. of the XXII ISPRS Congress 2012, International Society for Photogrammetry and Remote Sensing, Melbourne, Australia, pp. 387-392.
Lee, Y. C., 2015, Assessing the positioning accuracy of high density point clouds produced from rotary wing quadrocopter unmanned aerial system based imagery, Journal of the Korean Society for Geospatial Information Science, Vol. 23, No. 2, pp. 39-48.
Yasutaka, F. and Jean, P., 2010, Accurate, dense, and robust multi-view stereopsis, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 32, Issue 8, pp. 1362-1376.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.