[국내논문]DLT와 부가변수에 의한 광속조정법을 활용한 근접사진측량의 3차원 위치정확도 분석 Accuracy Analysis of 3D Position of Close-range Photogrammetry Using Direct Linear Transformation and Self-calibration Bundle Adjustment with Additional Parameters원문보기
본 연구에서는 근접사진측량의 DLT와 부가변수에 의한 광속조정법을 활용하여 타겟에 대한 3차원 위치좌표를 산출하고, 결과의 정확도에 대한 분석을 수행하였다. 이를 위하여 다수의 타겟이 부착된 실험환경을 구성하고, 토탈스테이션을 활용한 기준점측량을 수행하여 각 영상에 대한 카메라 캘리브레이션과 표정결과를 산출하였다. 정확도 분석을 위하여 스테레오 영상에서 동일하게 선점된 타겟에 대한 3차원 위치좌표 성과를 산출하고, 그 결과를 토탈스테이션으로 측정된 기준좌표와 비교하였다. 스테레오 영상에 대한 사진좌표 측정 시, 원형타겟에 대한 중심점을 측정하기 위한 타원 fitting 과정을 수행하고, 그 결과를 타겟에 대한 사진좌표로 활용하였다. 연구의 결과, 스테레오 영상 기반의 근접사진측량 방법으로 계산된 위치좌표는 약 1cm 미만의 최대 오차범위 내에서 평균 4mm 미만의 편차로 산출됨을 확인할 수 있었다. 이러한 결과를 통해 정밀한 정확도가 요구되는 다양한 근접사진측량 분야에 본 연구의 결과를 활용할 수 있을 것이라 판단된다.
본 연구에서는 근접사진측량의 DLT와 부가변수에 의한 광속조정법을 활용하여 타겟에 대한 3차원 위치좌표를 산출하고, 결과의 정확도에 대한 분석을 수행하였다. 이를 위하여 다수의 타겟이 부착된 실험환경을 구성하고, 토탈스테이션을 활용한 기준점측량을 수행하여 각 영상에 대한 카메라 캘리브레이션과 표정결과를 산출하였다. 정확도 분석을 위하여 스테레오 영상에서 동일하게 선점된 타겟에 대한 3차원 위치좌표 성과를 산출하고, 그 결과를 토탈스테이션으로 측정된 기준좌표와 비교하였다. 스테레오 영상에 대한 사진좌표 측정 시, 원형타겟에 대한 중심점을 측정하기 위한 타원 fitting 과정을 수행하고, 그 결과를 타겟에 대한 사진좌표로 활용하였다. 연구의 결과, 스테레오 영상 기반의 근접사진측량 방법으로 계산된 위치좌표는 약 1cm 미만의 최대 오차범위 내에서 평균 4mm 미만의 편차로 산출됨을 확인할 수 있었다. 이러한 결과를 통해 정밀한 정확도가 요구되는 다양한 근접사진측량 분야에 본 연구의 결과를 활용할 수 있을 것이라 판단된다.
In this study, the 3D position coordinates were calculated for the targets using DLT and self-calibration bundle adjustment with additional parameters in close-range photogrammetry. And then, the accuracy of the results were analysed. For this purpose, the results of camera calibration and orientati...
In this study, the 3D position coordinates were calculated for the targets using DLT and self-calibration bundle adjustment with additional parameters in close-range photogrammetry. And then, the accuracy of the results were analysed. For this purpose, the results of camera calibration and orientation parameters were calculated for each images by performing reference surveying using total station though the composition of experimental conditions attached numerous targets. To analyze the accuracy, 3D position coordinates were calculated for targets that has been identically selected and compared with the reference coordinates obtained from a total station. For the image coordinate measurement of the stereo images, we performed the ellipse fitting procedure for measuring the center point of the circular target. And then, the results were utilized for the image coordinate for targets. As a results from experiments, position coordinates calculated by the stereo images-based photogrammetry have resulted out the deviation of less than an average 4mm within the maximum error range of less than about 1cm. From this result, it is expected that the stereo images-based photogrammetry would be used to field of various close-range photogrammetry required for precise accuracy.
In this study, the 3D position coordinates were calculated for the targets using DLT and self-calibration bundle adjustment with additional parameters in close-range photogrammetry. And then, the accuracy of the results were analysed. For this purpose, the results of camera calibration and orientation parameters were calculated for each images by performing reference surveying using total station though the composition of experimental conditions attached numerous targets. To analyze the accuracy, 3D position coordinates were calculated for targets that has been identically selected and compared with the reference coordinates obtained from a total station. For the image coordinate measurement of the stereo images, we performed the ellipse fitting procedure for measuring the center point of the circular target. And then, the results were utilized for the image coordinate for targets. As a results from experiments, position coordinates calculated by the stereo images-based photogrammetry have resulted out the deviation of less than an average 4mm within the maximum error range of less than about 1cm. From this result, it is expected that the stereo images-based photogrammetry would be used to field of various close-range photogrammetry required for precise accuracy.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
또한, 본 연구에서는 DLT방법과 광속조정 계산을 통해 스테레오 영상에 대한 내·외부표정결과를 산출하고, 그 결과를 활용하여 타겟에 대한 정밀한 3차원 위치좌표를 계산하는 과정을 구현하고자 하였다.
본 연구에서는 DLT 모델을 활용하여 산출된 카메라 내·외부표정결과를 광속조정 계산을 위한 초기값으로 활용하여 보다 정밀한 카메라 표정 요소 결과를 계산하고자 하였다.
이와 더불어, 광속조정법을 통해 최종적으로 산출된 내·외부표정 요소 결과를 활용하여 타겟의 3차원 위치좌표를 계산하기 위한 종합적인 알고리즘을 제시하고자 하였다.
정확도 분석을 위하여 산출된 3차원 위치좌표와 토탈스테이션 측정값을 비교·분석하고, 정밀한 위치정확도 성과가 요구되는 근접사진측량 분야에서 본 연구의 활용가능성을 검토하고자 하였다.
이때, 측정자의 주관적 판단에 따라 원형타겟의 중심점을 측정하게 될 경우, 측정결과에 따른 신뢰도를 담보할 수 없다. 따라서, 본 연구에서는 영상에서 타겟에 대한 중심점을 측정하기 위한 타원 fitting 과정을 수행하고, 그 중심점 결과를 타겟에 대한 사진좌표로 활용하고자 하였다.
본 연구에서는 DLT 모델을 활용하여 산출된 카메라 내·외부표정결과를 광속조정 계산을 위한 초기값으로 활용하여 보다 정밀한 카메라 표정 요소 결과를 계산하고자 하였다. 이와 더불어, 3km 이내의 범위에서 가장 정확한 좌표측정을 수행할 수 있는 측량장비인 토탈스테이션을 이용하여 기준점 측량을 수행한 후, 이를 검사점으로 활용하여 본 연구결과의 정확도를 검증하고자 하였다.
이번 장에서는 스테레오 영상에서 광속조정 계산을 통해 산출된 카메라 내·외부 표정요소 결과를 활용하여 대상좌표계 상의 타겟에 대한 3차원 위치좌표를 계산하기 위한 연구방법을 설명하고 있다.
본 연구에서는 다수의 타겟을 부착한 실험장소를 카메라로 촬영하여, 근접사진측량 이론을 활용한 카메라 캘리브레이션과 외부표정요소의 계산을 수행하고자 하였다. 다수의 타겟을 대상으로 촬영된 스테레오 영상은 Fig.
본 연구에서도 총 10회의 광속조정 반복계산으로 산출된 Table 3 ∼ Table 5의 표정결과가 각 영상에 대한 최종적인 내·외부 표정요소임을 증명하기 위하여, DLT 방법으로 산출한 초기값의 광속조정 반복계산에 따른 수렴 경향을 파악하고자 하였다.
9는 DLT방법으로 산출된 (XL, YL, ZL) 초기값이 광속조정 계산 반복횟수에 따라 최종 표정결과값으로 수렴하는 경향을 나타내고 있다. Table 5에서 산출된 표정결과 중 편차의 절대량이 가장 큰 (XL, YL, ZL) 초기값의 광속조정에 따른 수렴 경향을 파악하고자 하였다. Table 3 ~ Table 5의 결과는 각 영상에 대하여 총 10회의 동일한 반복횟수의 광속조정 계산을 통해 산출된 결과이며, 광속조정에 사용된 초기값과 영상의 구분에 따른 수렴속도를 파악하는데 한계가 있다.
3의 각 영상에 대한 최종적인 내·외부 표정요소를 산출하였다. 본 연구에서는 산출된 각 영상의 표정결과를 활용하여 스테레오 영상에 대한 3차원 위치좌표 성과를 산출하고, 그 결과의 정확도를 분석하고자 하였다.
제안 방법
본 연구에서는 별도의 근접사진측량 상용프로그램을 활용하지 않고, 각 사진의 외부표정요소 뿐만 아니라 주점거리, 주점위치변위, 렌즈의 방사왜곡과 접선왜곡 등에 관련된 내부표정요소를 동시에 미지수로 조정하는 부가변수에 의한 광속조정법을 활용하여 각 사진에 대한 정밀한 내·외부표정요소를 산출하였다.
근접사진측량에서 타겟에 대한 사진좌표의 측정은 후속되는 표정 및 위치성과 산출과 분석에 큰 영향을 미치는 요소이다. 본 연구에서는 원형타겟을 활용하여 사진좌표 측정을 수행하였다. 이때, 측정자의 주관적 판단에 따라 원형타겟의 중심점을 측정하게 될 경우, 측정결과에 따른 신뢰도를 담보할 수 없다.
Seo and Lee(2003)와 Kim et al.(2011) 등은 RolleiMetric CDW 프로그램에서 자동적으로 검출 및 상호표정 되는 원형표지를 타겟으로 이용하여 카메라 표정을 수행한 반면, 본 연구에서는 표정작업 시 측정 결과에 대한 신뢰도를 확보하기 위하여 타원 fitting 과정을 수행하여 타겟에 대한 중심점을 정밀하게 측정하고, 그 결과를 타겟에 대한 사진좌표로 활용하였다.
는 접선왜곡 계수를 의미한다. 본 연구에서는 방사왜곡량과 접선왜곡량을 고려한 왜곡보정을 수행하였으며, 방사왜곡 계수 K1, K2, K3와 접선왜곡 계수 P1,P2를 고려하였다.
상기와 같은 과정을 통해 산출된 각 영상에서의 내·외부 표정요소 성과를 활용하여 Fig. 3의 타겟에 대한 3차원 위치좌표를 계산하였다.
카메라 캘리브레이션을 수행하기 위하여 Fig. 3과 같이 구성된 타겟에 대한 사진좌표를 취득하고, 토탈스테이션을 활용한 기준점측량을 수행하였다. 토탈스테이션을 활용하여 측정된 기준점측량 성과는 카메라 캘리브레이션을 위한 기준좌표로 활용되며, 캘리브레이션이 완료된 후 타겟들의 좌표를 재계산하였을 때, 그 차이가 얼마나 되는지 정확도 평가를 위한 기준좌표로 활용된다(Park and Choi, 2012).
3에서 획득된 스테레오 영상에서, 첫 번째 영상에 분포된 타겟에 대한 총 80점의 사진좌표와 기준점좌표를 획득하였고, 두 번째 영상에 분포된 타겟에 대한 총 79점의 사진좌표와 기준점좌표를 획득하였다. 상기와 같은 과정으로 획득된 각 영상의 사진좌표와 기준점좌표를 활용하여, DLT방법에 의한 카메라 캘리브레이션 계산을 수행하고, 산출된 표정결과를 광속조정 계산을 위한 초기값으로 활용하였다. 이때, DLT방법으로 산출된 표정결과를 초기값으로 활용한 광속조정 계산 과정에서도 첫 번째 영상에 대한 총 80점의 사진좌표 및 기준점좌표 성과와 두 번째 영상에 대한 총 79점의 사진좌표 및 기준점좌표 성과를 사용하였다.
5에서 표시된 두 평면이 접하는 모서리 부근에 부착된 타겟을 공액점으로 선정하였다. 위치변동이 상대적으로 급변하는 지점에 부착된 타겟을 공액점으로 선정하여 3차원 위치좌표 성과를 산출하고, 그 결과의 정확도를 분석하고자 하였다. 이때, 정확도 분석은 스테레오 영상의 공액점에 대한 3차원 위치좌표 성과와 기존 토탈스테이션 측량으로 획득된 동일점에 대한 3차원 기준점좌표를 비교하는 과정으로 수행되었다.
위치변동이 상대적으로 급변하는 지점에 부착된 타겟을 공액점으로 선정하여 3차원 위치좌표 성과를 산출하고, 그 결과의 정확도를 분석하고자 하였다. 이때, 정확도 분석은 스테레오 영상의 공액점에 대한 3차원 위치좌표 성과와 기존 토탈스테이션 측량으로 획득된 동일점에 대한 3차원 기준점좌표를 비교하는 과정으로 수행되었다.
DLT방법으로 산출한 스테레오 영상에 대한 카메라 내·외부 표정요소 결과를 초기값으로 활용하여 광속조정 계산을 수행하였다.
이를 위해 비선형의 공선조건식을 타일러 급수를 통해 선형화한 후, Jacobian 행렬과 관측행렬을 구성하여 최소제곱법으로 표정요소를 반복적으로 계산하는 과정을 수행함으로써, 내·외부 표정요소에 대한 수렴값을 산출하였다.
타겟에 대한 사진 및 기준점좌표의 측정은 후속되는 표정 및 위치성과 분석과 결과에 큰 영향을 미치는 요소이다. 본 연구에서는 Fig. 6과 같이 원형타겟을 제작하여 사진 및 기준점좌표를 측정하였다. 토탈스테이션을 활용한 기준점 측량 시, Fig.
6과 같이 원형타겟을 제작하여 사진 및 기준점좌표를 측정하였다. 토탈스테이션을 활용한 기준점 측량 시, Fig. 6의 원형타겟에 대한 십자선 중심을 시준하여 정확하게 타겟에 대한 3차원좌표 측정을 수행하였다.
6의 타겟은 원형 또는 타원형으로 촬영됨을 확인할 수 있다. 이때, 측정자의 주관적 판단에 따라 원형타겟의 중심점을 측정하게 될 경우, 측정 결과에 따른 신뢰도를 담보할 수 없으므로 본 연구에서는 영상에서 타겟에 대한 중심점을 측정하기 위한 타원 fitting 과정을 수행하여 타겟에 대한 사진좌표로 활용하였다. 타원 fitting은 영상을 구성하는 각 화소들의 값들 중에서 중심점의 경계를 나타내는 값을 결정하고, 경계화소들의 사진좌표를 사용하여 최소제곱조정을 수행하는 방법이다.
상기 과정으로 추정된 타원의 기하학적인 중심점 좌표를 해당 타겟의 사진좌표로 사용하였으며, 그 결과는 Fig. 7과 같다.
본 연구에서는 이러한 표정요소들의 초기값을 DLT방법을 활용하여 산출하였다. 2.3에서 설명된 DLT방법을 활용하여 카메라의 방향각, 투영중심의 위치와 같은 외부표정요소와 카메라 초점거리와 주점의 위치가 포함된 내부표정요소를 산출하였다. DLT방법을 통해 산출된 스테레오 영상의 카메라 표정결과 중 외부표정요소의 결과는 Table 2와 같다.
스테레오 영상을 활용한 3차원 위치좌표 성과의 정확도를 분석하기 위하여, 2.4에서 설명된 바와 같이, 광속조정 계산을 통해 산출된 스테레오 영상의 내·외부 표정요소 결과를 활용하여 Fig. 5에서 선점한 15점의 공액점에 대한 3차원 위치좌표를 계산하였다.
이때, DLT 방법으로 산출된 표정결과를 광속조정 계산을 위한 초기값으로 활용하고, 광속조정 반복계산에 따라 수렴되는 각 표정요소를 영상에 대한 최종적인 내·외부 표정요소 결과값으로 활용하였다.
본 연구에서는 스테레오 영상 기반의 근접사진측량 방법을 활용하여 타겟에 대한 3차원 위치좌표를 산출하고, 그 결과의 정확도를 비교·분석하였다.
5에서 선점한 15점의 공액점에 대한 3차원 위치좌표를 계산하였다. 이를 위해 Fig. 5에서 공액점으로 선점한 타겟에 대한 사진좌표와 각 영상의 표정결과를 공선조건식에 대입하여, 총 4개의 공선조건식을 구성하고, 타겟에 대한 3차원 위치좌표를 최소제곱법을 통해 산출하였다.
본 연구에서는 스테레오 영상 기반의 근접사진측량 방법을 활용하여 타겟에 대한 3차원 위치좌표를 산출하고, 그 결과의 정확도를 비교·분석하였다. 이를 위해 다수의 원형타겟이 부착된 실험환경을 구성하고, 토탈스테이션을 활용한 기준점측량을 수행하여 각 영상에 대한 카메라 캘리브레이션 및 표정결과를 산출하였다. 이때, DLT 방법으로 산출된 표정결과를 광속조정 계산을 위한 초기값으로 활용하고, 광속조정 반복계산에 따라 수렴되는 각 표정요소를 영상에 대한 최종적인 내·외부 표정요소 결과값으로 활용하였다.
이때, DLT 방법으로 산출된 표정결과를 광속조정 계산을 위한 초기값으로 활용하고, 광속조정 반복계산에 따라 수렴되는 각 표정요소를 영상에 대한 최종적인 내·외부 표정요소 결과값으로 활용하였다. 정확도 분석을 위하여 동일하게 선점된 타겟에 대한 사진좌표와 최종 계산된 표정결과를 활용하여 스테레오 영상 기반의 3차원 위치좌표 성과를 산출하고, 그 결과를 토탈스테이션으로 측정된 기준점좌표와 비교하였다. 스테레오 영상에 대한 사진좌표 측정 시, 원형타겟에 대한 중심점을 측정하기 위한 타원 fitting 과정을 수행하여 타겟에 대한 사진좌표로 활용하였다.
정확도 분석을 위하여 동일하게 선점된 타겟에 대한 사진좌표와 최종 계산된 표정결과를 활용하여 스테레오 영상 기반의 3차원 위치좌표 성과를 산출하고, 그 결과를 토탈스테이션으로 측정된 기준점좌표와 비교하였다. 스테레오 영상에 대한 사진좌표 측정 시, 원형타겟에 대한 중심점을 측정하기 위한 타원 fitting 과정을 수행하여 타겟에 대한 사진좌표로 활용하였다. 타원 fitting 과정은 영상을 구성하는 각 화소들의 값들 중에서 중심점의 경계를 나타내는 값을 결정하고, 경계화소들의 사진좌표들을 사용하여 최소제곱조정을 수행하는 과정으로 계산되었다.
대상 데이터
Fig. 3과 같은 스테레오 영상을 획득하기 위하여 Arecont Vision사의 IP 카메라 (모델명 : AV5105DN) 2대를 사용하였다. 연구에 사용된 카메라는 Fig.
Fig. 3에서 획득된 스테레오 영상에서, 첫 번째 영상에 분포된 타겟에 대한 총 80점의 사진좌표와 기준점좌표를 획득하였고, 두 번째 영상에 분포된 타겟에 대한 총 79점의 사진좌표와 기준점좌표를 획득하였다. 상기와 같은 과정으로 획득된 각 영상의 사진좌표와 기준점좌표를 활용하여, DLT방법에 의한 카메라 캘리브레이션 계산을 수행하고, 산출된 표정결과를 광속조정 계산을 위한 초기값으로 활용하였다.
상기와 같은 과정으로 획득된 각 영상의 사진좌표와 기준점좌표를 활용하여, DLT방법에 의한 카메라 캘리브레이션 계산을 수행하고, 산출된 표정결과를 광속조정 계산을 위한 초기값으로 활용하였다. 이때, DLT방법으로 산출된 표정결과를 초기값으로 활용한 광속조정 계산 과정에서도 첫 번째 영상에 대한 총 80점의 사진좌표 및 기준점좌표 성과와 두 번째 영상에 대한 총 79점의 사진좌표 및 기준점좌표 성과를 사용하였다. 상기와 같은 과정을 통해 산출된 각 영상에서의 내·외부 표정요소 성과를 활용하여 Fig.
Fig. 5에서 표시된 두 평면이 접하는 모서리 부근에 부착된 타겟을 공액점으로 선정하였다. 위치변동이 상대적으로 급변하는 지점에 부착된 타겟을 공액점으로 선정하여 3차원 위치좌표 성과를 산출하고, 그 결과의 정확도를 분석하고자 하였다.
이론/모형
본 연구에서는 스테레오 영상에 대한 정밀한 표정결과를 산출하기 위하여 DLT(Direct Linear Transformation) 방법으로 산출된 표정결과를 광속조정 계산을 위한 초기값으로 활용하였다. DLT방법은 변환 파라미터에 대한 해를 산출하는 방법으로써, 비측량 카메라 기반의 근접사진측량 방법에 적합한 알고리즘이다(Abel-Aziz and Karara, 1971).
공선조건식을 활용한 광속조정 계산과정에서는 카메라 내·외부 표정요소들의 초기값을 결정하는 문제가 중요하다. 본 연구에서는 이러한 표정요소들의 초기값을 DLT방법을 활용하여 산출하였다. 2.
성능/효과
본 연구에서 사용된 토탈스테이션 장비는 Trimble사의 S8 Total Station이며, 실험장소에 부착된 타겟에 대한 측량시 standard 모드에서는 ± (2+2ppm × D)mm의 정확도 및 오차범위를 지니며, tracking 모드에서는 ± (4+2ppm × D)mm의 정확도와 오차범위를 보이고 있다.
이를 위해 비선형의 공선조건식을 타일러 급수를 통해 선형화한 후, Jacobian 행렬과 관측행렬을 구성하여 최소제곱법으로 표정요소를 반복적으로 계산하는 과정을 수행함으로써, 내·외부 표정요소에 대한 수렴값을 산출하였다. 상기와 같은 스테레오 영상에서의 광속조정 계산은 두 영상 모두 동일하게 총 10회의 반복횟수로 수행되었다. 광속조정 계산을 통해 산출된 카메라 표정결과 중 외부표정요소 결과는 Table 3과 같고, 내부표정요소 결과는 Table 4에서 제시하였다.
461mm의 정확도로 산출됨을 확인할 수 있다. 또한, 각 축에 대한 최대편차를 살펴보면 X축 방향에 대하여 최대 2.408mm, Y축 방향에 대하여 최대 9.749mm, Z축 방향에 대하여 최대 1.344mm로 각각 나타났다. 따라서 본 연구에서 제시한 스테레오 영상 기반의 근접사진측량 방법을 사용하여 타겟에 대한 3차원 위치좌표를 측정하는 경우 약 1cm 미만의 최대 오차범위 내에서 평균 4mm 미만의 편차로 위치를 측정할 수 있을 것으로 판단된다.
344mm로 각각 나타났다. 따라서 본 연구에서 제시한 스테레오 영상 기반의 근접사진측량 방법을 사용하여 타겟에 대한 3차원 위치좌표를 측정하는 경우 약 1cm 미만의 최대 오차범위 내에서 평균 4mm 미만의 편차로 위치를 측정할 수 있을 것으로 판단된다.
본 연구에서 제시한 스테레오 영상 기반의 근접사진 측량 방법을 사용하여 타겟에 대한 3차원 위치좌표를 측정하는 경우 약 1cm 미만의 최대 오차범위 내에서 평균 4mm 미만의 편차로 위치를 측정할 수 있음을 확인할 수 있다. 이러한 결과를 통해 정밀한 위치정확도 성과가 요구되는 다양한 근접사진측량분야에 본 연구의 결과를 활용할 수 있을 것이라 판단된다.
후속연구
본 연구에서 제시한 스테레오 영상 기반의 근접사진 측량 방법을 사용하여 타겟에 대한 3차원 위치좌표를 측정하는 경우 약 1cm 미만의 최대 오차범위 내에서 평균 4mm 미만의 편차로 위치를 측정할 수 있음을 확인할 수 있다. 이러한 결과를 통해 정밀한 위치정확도 성과가 요구되는 다양한 근접사진측량분야에 본 연구의 결과를 활용할 수 있을 것이라 판단된다.
하지만, 본 연구에서 제시한 정확도 관련 수치들은 모두 이상적인 환경 하에서 실험을 수행하여 얻어진 값으로써, 카메라 촬영환경에 많은 영향을 받는 근접사진 측량방법의 특성을 고려하면 제시된 수치들을 절대적인 정확도로 간주하기는 어렵다. 스테레오 영상 기반의 근접사진측량을 활용한 3차원 위치좌표 산출에 대한 보다 일반적이고, 엄밀한 정확도 기준이 제시되기 위해서는 실제현장의 촬영조건, 촬영 기선거리 및 기타의 데이터처리 방법 등을 고려한 추가적인 연구와 실험이 필요할 것으로 판단된다.
하지만, 본 연구에서 제시한 정확도 관련 수치들은 모두 이상적인 환경 하에서 실험을 수행하여 얻어진 값으로써, 카메라 촬영환경에 많은 영향을 받는 근접사진 측량방법의 특성을 고려하면 제시된 수치들을 절대적인 정확도로 간주하기는 어렵다. 스테레오 영상 기반의 근접사진측량을 활용한 3차원 위치좌표 산출에 대한 보다 일반적이고, 엄밀한 정확도 기준이 제시되기 위해서는 실제현장의 촬영조건, 촬영 기선거리 및 기타의 데이터처리 방법 등을 고려한 추가적인 연구와 실험이 필요할 것으로 판단된다.
질의응답
핵심어
질문
논문에서 추출한 답변
근접사진측량에서 후속되는 표정 및 위치성과 산출과 분석에 큰 영향을 미치는 요소는 무엇인가?
근접사진측량에서 타겟에 대한 사진좌표의 측정은 후속되는 표정 및 위치성과 산출과 분석에 큰 영향을 미치는 요소이다. 본 연구에서는 원형타겟을 활용하여 사진좌표 측정을 수행하였다.
DLT방법은 무엇인가?
본 연구에서는 스테레오 영상에 대한 정밀한 표정결과를 산출하기 위하여 DLT(Direct Linear Transformation) 방법으로 산출된 표정결과를 광속조정 계산을 위한 초기값으로 활용하였다. DLT방법은 변환 파라미터에 대한 해를 산출하는 방법으로써, 비측량 카메라 기반의 근접사진측량 방법에 적합한 알고리즘이다(Abel-Aziz and Karara, 1971). 이때, 공선조건식으로부터 획득된 DLT의 수학적인 모델은 사진좌표와 객체공간 좌표간의 직접적인 선형관계를 통해 구축된다.
원형타겟을 활용하여 사진좌표 측정을 수행할 경우 발생하는 단점은 무엇인가?
본 연구에서는 원형타겟을 활용하여 사진좌표 측정을 수행하였다. 이때, 측정자의 주관적 판단에 따라 원형타겟의 중심점을 측정하게 될 경우, 측정결과에 따른 신뢰도를 담보할 수 없다. 따라서, 본 연구에서는 영상에서 타겟에 대한 중심점을 측정하기 위한 타원 fitting 과정을 수행하고, 그 중심점 결과를 타겟에 대한 사진좌표로 활용하고자 하였다.
참고문헌 (17)
Abel-Aziz, Y. I. and Karara, H. M., 1971, Direct linear transformation from comparator coordinates into object space coordinates, Proceedings of the ASP Symposium on Close-range Photogrammetry, ASP, pp. 1-18.
Fraser, C. S., 1997, Digital camera self-calibration, ISPRS Journal of Photogrammetry and Remote Sensing, Vol. 52, Issue. 4, pp. 149-159.
Fitzgibbon, A., Pilu, M. and Fisher, R. B., 1999, Direct least square fitting of ellipses, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 21, No. 5, pp. 476-480.
Grussenmeyer, P. and Al Khalil, O., 2002, Solutions for exterior orientation in photogrammetry: a review, The photogrammetric record, Vol. 17, Issue. 100, pp. 615-634.
Han, M. and Kanade, T., 2001, Multiple motion scene reconstruction from uncalibrated views, Proceedings of the Eighth IEEE International Conference on Computer Vision, IEEE, Vol. 1, pp. 163-170.
Jiandong, Z., Liyan, Z. and Xiaoyu, D., 2009, Accurate 3D target positioning in close range photogrammetry with implicit image correction, Chinese Journal of Aeronautics, Vol. 22, No. 6, pp. 649-657.
Jang, H. S., Seo, D. J. and Lee, J. C., 2003, Three-dimensional analysis of cultural heritages using non-metric digital video camera, Journal of the Korean Society for GeoSpatial Information System, Vol. 11, No. 4, pp. 13-19.
Jeong, S., Lee, C. N. and Oh, J. H., 2005, Determination of physical camera parameters from DLT parameters, Journal of the Korean Society for GeoSpatial Information System, Vol. 13, No. 2, pp. 39-43.
Jung, S., 2009, The analysis of 3-dimensional shape using non-metric cameras, Journal of the Korean Society for GeoSpatial Information System, Vol. 17, No. 2, pp. 91-99.
Jung, S., 2011, Evaluation of long-term stability of interior orientation parameters of a non-metric camera, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, Vol. 29, No. 3, pp. 283-291.
Kim, H. G., Yun, H. S. and Cho, J. M., 2015, Analysis of 3D accuracy according to determination of calibration initial value in close-range digital photogrammetry using VLBI antenna and mobile phone camera, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, Vol. 33, No. 1, pp. 31-43.
Kim, J. S., Jin, C. G., Lee, S. K., Lee, S. G. and Choi, C. U., 2011, Geometric calibration and accuracy evaluation of smartphone camera, Journal of the Korean Society for GeoSpatial Information System, Vol. 19, No. 3, pp. 115-125.
Mikhail, E. M., Bethel, J. S. and McGlone, J. C., 2001, Introduction to modern photogrammetry, John Wiley & Sons Inc., New York, N.Y., pp. 251-254.
Park, K. S. and Choi, S. K., 2012, Evaluation of the quantitative practical use of smart phone stereo cameras, Journal of the Korean Society for GeoSpatial Information System, Vol. 20, No. 2, pp. 93-100.
Prakoonwit, S. and Benjamin, R., 2007, 3D surface point and wireframe reconstruction from multiview photographic images, Image and Vision Computing, Vol. 25, No. 9, pp. 1509-1518.
Seo, D. J. and Lee, J. C., 2003, Analysis of precision according to photographing position in close-range digital photogrammetry, Journal of the Korean Society for GeoSpatial Information System, Vol. 11, No. 3, pp. 3-11.
Zhang, Y., Zhang, Z. and Zhang, J., 2006, Automatic measurement of industrial sheetmetal parts with CAD data and non-metric image sequence, Computer Vision and Image Understanding, Vol. 102, No. 1, pp. 52-59.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.