최근 도시시설물의 안전과 범죄 모니터링에 대한수요가 증가하고 있으나, 사용되는 산업장비용 CCTV의 경우 고가가 대부분이다. 본 연구에서는 초 광각 렌즈인 어안렌즈와 사진측량 알고리즘을 이용하여 단일 카메라의 시야각을 증대시켜 모니터링의 효율성을 극대화 시키고자 한다. 어안렌즈를 이용한 모니터링을 위해 우선 실험실 내에서 왜곡계수 산출 실험을 실시하였는데 이는 일정 간격의 고정된 종이 타겟을 여러 방향에서 촬영한 후, 격자점을 이용하여 왜곡 계수를 추출하였다. 또한 추출된 왜곡보정 계수를 보정 및 모니터링 프로그램에 삽입하여 실시간 보정된 영상을 획득할 수 있다. 또한 보정된 영상에 대한 검증을 위해, 타겟을 스캐닝하여 왜곡 보정된 영상과 비교한 결과 RMSE가 3.2pixel로 나타났다.
최근 도시시설물의 안전과 범죄 모니터링에 대한수요가 증가하고 있으나, 사용되는 산업장비용 CCTV의 경우 고가가 대부분이다. 본 연구에서는 초 광각 렌즈인 어안렌즈와 사진측량 알고리즘을 이용하여 단일 카메라의 시야각을 증대시켜 모니터링의 효율성을 극대화 시키고자 한다. 어안렌즈를 이용한 모니터링을 위해 우선 실험실 내에서 왜곡계수 산출 실험을 실시하였는데 이는 일정 간격의 고정된 종이 타겟을 여러 방향에서 촬영한 후, 격자점을 이용하여 왜곡 계수를 추출하였다. 또한 추출된 왜곡보정 계수를 보정 및 모니터링 프로그램에 삽입하여 실시간 보정된 영상을 획득할 수 있다. 또한 보정된 영상에 대한 검증을 위해, 타겟을 스캐닝하여 왜곡 보정된 영상과 비교한 결과 RMSE가 3.2pixel로 나타났다.
The demand that we are monitoring security and crime of the urban facilities is increasing recently, but the using CCTV devices are expensive. In this research, we enlarge the angle of view using the Fish-eye Lens and the Photogrammetry, the efficiency of monitoring enhance. First, we carry out the ...
The demand that we are monitoring security and crime of the urban facilities is increasing recently, but the using CCTV devices are expensive. In this research, we enlarge the angle of view using the Fish-eye Lens and the Photogrammetry, the efficiency of monitoring enhance. First, we carry out the calibration of the Fish-eye Lens indoors, we calculate the correction parameters, and then covert the original image-point to new image-point correcting distortion. Second, the correction program with the correction parameters can obtain the real-time correcting image. Lastly, for authorization the developed program we compare correcting-image with scanning-imge, it is showed the RMSE is 3.2pixel.
The demand that we are monitoring security and crime of the urban facilities is increasing recently, but the using CCTV devices are expensive. In this research, we enlarge the angle of view using the Fish-eye Lens and the Photogrammetry, the efficiency of monitoring enhance. First, we carry out the calibration of the Fish-eye Lens indoors, we calculate the correction parameters, and then covert the original image-point to new image-point correcting distortion. Second, the correction program with the correction parameters can obtain the real-time correcting image. Lastly, for authorization the developed program we compare correcting-image with scanning-imge, it is showed the RMSE is 3.2pixel.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
사용하였다. 고가의 카메라의 경우 화질과 해상도가 높은 대신 비용문제가 발생하기 때문에, 본 논문에서는 비용문제 뿐만 아니라 화각까지 넓혀 모니터링에 효율을 극대화할 수 있는 기술을 제안하였다.
본 연구에서는 도시 시설물 관리 분야에서 최소 가격으로 영상정보를 활용할 수 있는 기반 연구로. 유효대상 공간 최대화 할 수 있는 어안렌즈를 제한하였다.
본 연구에서는 방사왜곡(Radial distortion)과 비중 심 왜곡(Decentering distortion), 접선왜곡(Tangential distortion)을 어안렌즈 왜곡보정을 위해 해결해야 할 주요 해결 과제로 보았다. 일반적으로 접선 왜곡은 방사왜곡과 비중 심 왜곡에 비하여 아주 미미하기 때문에 왜곡의 보정을 위해서는 주로 방사왜곡과 비중심왜곡만을 보정하는데, 방사왜곡을 보정하고도 보정이 되지 않은 방사성 분과접선 성분 등을 합하여 비중심왜곡으로 취급한다.
본 연구에서는 보정 계수 추출과 보정 계수를 이용한 실시간 모니터링 프로그램을 구현하였다. 보정 계수 추출 시, 실내 조건에서 카메라의 위치 및 자세를 정확하게 할 수 있으며, 다양한 위치에서 촬영한 영상을 여러 개 사용할 경우 훨씬 더 정확한 결과를 얻을 수 있다(정동훈, 2004).
본 연구에서는 왜곡보정에 정확도를 검증하기 위해타겟 스캐닝 영상과 격자 간격의 거리에 대한 RMSE를 구하였다. 2D RMSE가 3.
제안 방법
개발된 프로그램의 검증을 위하여 한국건설기술연구원 내에 Test Lab에서 화각에 따른 변화 실험과 왜곡 보정 실험을 실시하였다. 촬영 거리 7.
그러므로 본 연구에서는 렌즈 중 왜곡이 가장 심한 150° 렌즈를 사용하여, 그림 8과 같이 9개 방향의 영상을 취득하여 왜곡보정 계수 추출에 사용하였다. 또한 렌즈 화각에 따른 보정 계수를 비교하기 위하여 표 2와 같이 90°, 120°, 150° 렌즈에 대해 9방향의 영상을 획득한 후 왜곡 계수를 산출하였다.
또한 렌즈 왜곡의 분포와 형태를 시각적으로 보여 주기 위하여 렌즈보정 전후 영상에서 격자점을 추출하여 그래프로 표현하였다. 그림 13의 사각형 점은 보정 전 영상의 격자점으로 중심에서 외곽으로 갈수로 간격이 좁아지는 Barrel distortion0] 나타나는 것을 확인할 수 있다.
취득하여 왜곡보정 계수 추출에 사용하였다. 또한 렌즈 화각에 따른 보정 계수를 비교하기 위하여 표 2와 같이 90°, 120°, 150° 렌즈에 대해 9방향의 영상을 획득한 후 왜곡 계수를 산출하였다. 그 결과 표 2와 같이 화각이넓 어질수록 초점거리를 짧아지고 kl, k2, k3 계수에 의한 방사왜곡이 증가되는 것을 볼 수 있다.
자동화를 위해 격자점 타겟을 사용하였으며, 이를 이용하여 왜곡보정 계수를 추출하였다. 또한 어안렌즈 영상에 왜곡보정량을 실시간 제거하여 모니터 링 할 수 있는 프로그램을 구현하였다.
계산된 계수로 왜곡 되지 않는 영상 획득하는 단계 순으로 실행하게 된다. 또한 왜곡보정 영상이 본 영상보다 커지는 현상이 발생하기 때문에 그림 5와 같이 그 부분까지 보여줄 수 있는 Full Distortion 항목도 구현하였다.
본 연구에서 개발 된 기술들을 적용하기 위해서 Test Lab에서 실험을 하였다. Test Lab에는 아스팔트 도로, 가드레일, 보도블럭, 가로등, 함체, 운영실, 수로관 등 도로 및 주변 시설물 위주로 촬영하여 왜곡을 보정한 결과 그림 14와 같이 어안 렌즈 보정 전후 영상을 비교할 수 있다.
본 연구에서는 어안렌즈의 화각의 특성을 비교하기 위해 90°, 120°, 150° 의 렌즈를 사용하여 영상을 비교 검증하였다. 실험을 위해 Test Lab에 지상에 설치되어 있는 길이 30m의 PC 암거(공동구) 옆면을 촬영하고, 그 길이를 측정하여 화각에 대한 시야 범위를 비교 하였다.
본 연구에서는 저가격의 초 광각 렌즈인 어안렌즈와 사진 측량 알고리즘을 이용하여 단일의 CCTV 및 웹 카메라에서 시야각 (Held of view) 을 증대시켜 유효대상 공간을 최대한 넓혀줌으로써 모니터링의 효율성을 극대화 할 수 있는 알고리즘과 활용 프로그램을 개발하였으며, 이를 활용한 실험을 통해 결과를 검증하였다.
실험을 위해 Test Lab에 지상에 설치되어 있는 길이 30m의 PC 암거(공동구) 옆면을 촬영하고, 그 길이를 측정하여 화각에 대한 시야 범위를 비교 하였다.
이 부분을 보여주기 위하여 그림 5와 같이 왜곡보정 프로그램에 Full Distortion 기능을 구현하였다. 이를 적용한 영상은 그림 14의 아래에 포함되어 있다.
실내 타겟촬영 실험의 경우 촬영거리가 30cm내외로 촬영되기 때문에 검증하기가 어렵다. 이를 검증하기 위해 그림 11과같이 정면 영상을 왜곡보정하고, 그림 12와 같이 종이타겟을 스캐닝하여 영상을 획득한 후, 두 영상의 직선화 정도를 비교·분석하였다.
이를 보정하기 위하여 보정 모델을 제한하고, 프로그램을 구현하였다. 자동화를 위해 격자점 타겟을 사용하였으며, 이를 이용하여 왜곡보정 계수를 추출하였다.
이를 위하여 그림 10과 같이 타겟점 번호를 만들고, 점 1을 기준으로 가로를 X 방향, 세로를 Y 방향이라고 정의한 후, 보정 영상과 스캐닝 영상에서 X, Y 방향으로 격자와 격자 사이 거리를 계산하여 비교하였다. 이 때두 영상 사이에 크기를 맞추어 주기 위하여 스케일 벡터를 사용하였다.
그러나 3차원 타겟은 제작이 어렵고 타겟의위치를 실측해야하며 자동 추출에 문제가 많다는 단점이 있다. 이를 해결하기 위하여 본 연구에서는 그림 2와 같은 2차원 타겟을 일반 A4 용지에 출력하여 고정시 킨 후 촬영하였다. 또한 추출이 용이하도록 일정한 크기와 반복적인 색이 교차하는 타겟을 사용하였다.
구현하였다. 자동화를 위해 격자점 타겟을 사용하였으며, 이를 이용하여 왜곡보정 계수를 추출하였다. 또한 어안렌즈 영상에 왜곡보정량을 실시간 제거하여 모니터 링 할 수 있는 프로그램을 구현하였다.
직선화의 보다 정량적인 분석을 위해 이격거리를 산출하고 RMSE를 구하는 방법을 사용하였다. 실내 타겟촬영 실험의 경우 촬영거리가 30cm내외로 촬영되기 때문에 검증하기가 어렵다.
효율적 인 추출을 위해 Search Window는 5 X 5의 크기 로 만들고, 두 가지 패턴을 보이면 격자로 인식하는 방법을 사용하였다. 첫 번째는 대각선 방향의 격자 패턴이 같은지를 분석하고, 두 번째로 대각선 방향 패턴이 같은지를 분석하여, 만약 같지 않다면 격자점으로 인식하게 되는 기법을 적용하였다(강진아, 2008). 즉 격자점은 대각선 방향 ④⑤⑥⑦)의 패턴이 같아야 하고, 양쪽대 각선 방향의 패턴은 달라야 한다.
또한 추출이 용이하도록 일정한 크기와 반복적인 색이 교차하는 타겟을 사용하였다. 타겟에서일정한 거리를 유지한 채로 여러 방향에서 타겟을 촬영한 후 타겟 좌표를 영상에서 취득하여 이를 가지고 렌즈 왜곡계수를 산출하였다.
이를 ex, cy라 부른다. 표 2에서 나온 ex, cy와 검증을 위해 일정한 위치에 타겟을 놓고 카메라의 위치를 고정한 후 카메라를 90°, 180°, 270° 회전하여 영상을 취득한 그 중심점과 비교하게 된다.
그림 4와 같이 구현하였다. 프로그램은 격자의 크기 및 개수를 설정하는 타겟 모양 설정 단계, 영상 추가 및 삭제 단계, 선택된 영상의 추출된 격자점으로부터 왜곡 보정 계수를 추출하는 왜곡보정 단계. 계산된 계수로 왜곡 되지 않는 영상 획득하는 단계 순으로 실행하게 된다.
효율적 인 추출을 위해 Search Window는 5 X 5의 크기 로 만들고, 두 가지 패턴을 보이면 격자로 인식하는 방법을 사용하였다. 첫 번째는 대각선 방향의 격자 패턴이 같은지를 분석하고, 두 번째로 대각선 방향 패턴이 같은지를 분석하여, 만약 같지 않다면 격자점으로 인식하게 되는 기법을 적용하였다(강진아, 2008).
대상 데이터
이를 해결하기 위하여 본 연구에서는 그림 2와 같은 2차원 타겟을 일반 A4 용지에 출력하여 고정시 킨 후 촬영하였다. 또한 추출이 용이하도록 일정한 크기와 반복적인 색이 교차하는 타겟을 사용하였다. 타겟에서일정한 거리를 유지한 채로 여러 방향에서 타겟을 촬영한 후 타겟 좌표를 영상에서 취득하여 이를 가지고 렌즈 왜곡계수를 산출하였다.
본 논문에서 사용한 카메라는 정확도가 높지 않아도 시설물을 모니터링 할 수 있는 16만 화소의 저가형 웹 카메라를 사용하였다. 고가의 카메라의 경우 화질과 해상도가 높은 대신 비용문제가 발생하기 때문에, 본 논문에서는 비용문제 뿐만 아니라 화각까지 넓혀 모니터링에 효율을 극대화할 수 있는 기술을 제안하였다.
본 연구에서 개발한 기술의 실험 및 검증은 그림 7과같이 한국건설기술연구원에 위치한 Test Lab에서 수행하였다.
본 연구에서는 150° 렌즈를 그림 15와 같이 회전하여 영상을 취득하였다. 또한 검증용 ex, cy를 추출하기 위하여 동일점에 대해 표 4와 같이 좌표를 추출하고 그 중심점을 구하면 X=194.
본 연구에서는 표 1과 같은 사양의 VM32- B36 카메라를 조립하여 사용하였다. 해당 사양은 렌즈를 쉽게 교체 할 수 있고 설치가 용이하기 때문에 본 연구에 적용하기가 적합하다.
성능/효과
또한 렌즈 화각에 따른 보정 계수를 비교하기 위하여 표 2와 같이 90°, 120°, 150° 렌즈에 대해 9방향의 영상을 획득한 후 왜곡 계수를 산출하였다. 그 결과 표 2와 같이 화각이넓 어질수록 초점거리를 짧아지고 kl, k2, k3 계수에 의한 방사왜곡이 증가되는 것을 볼 수 있다.
유효대상 공간 최대화 할 수 있는 어안렌즈를 제한하였다. 그러나 어안렌즈는 일반렌즈에 비해 초점 거리가 짧고, 영상 중심으로부터 멀어짐으로써 방사왜곡이 매우 커지는 것을 볼 수 있었다.
후속연구
현재 시설물의 모니터링뿐만 아니라 이기종 센서들의 정보를 전송하고, 취득 및 통합하여 시설물 관리를 할 수 있는 장소로 이용되고 있다. 따라서 추후, 본 연구 장비뿐만 아니라 다른 이기종 센서에 대한 통합 실험을 할 수 있다.
설치해야 하기 때문에 비용문제가 발생한다. 본 연구에서는 저가격 보드 카메라 타입의 어안렌즈를 시설물 관리에 사용함으로서, 시설물의 효율적인 모니터링과 동시에 비용절감에도 많은 효과를 얻을 수 있으리라 예상된다.
일반 렌즈의 경우 화각이 90° 보다 작기 때문에 시야각 거리는 2 배 차이로 일반 카메라 2대의 효과를 가져다 줄 수 있다. 즉 본 연구의 개발 기술을 기반으로 도시 시설물의 모니터링 분야의 모니터링 효율성과 경제성 부분을 어안렌즈를 통해 일정 부분 해결할 수 있을 것으로 기대된다.
참고문헌 (8)
강진아, 박재민, 김병국 (2008), 사진측량 기법을 사용한 광각렌즈 왜곡보정에 관한 연구, 한국측량학회지, 한국측량학회, 제 26권, 제 2호, pp. 1-8
김백석, 김기홍, 원상영, 홍성창 (2008), 어안렌즈 영상을 이용한 터널영상 영상정보 취득, 대한토목학회 정기학술대회, 대한토목학회, pp 3983-3986
신주홍, 남동환, 권기준, 정준기 (2005), ellipsoid를 이용한 어안렌즈의 Non-metric 접근 왜곡 보정기법, HCI 학술대회논문집, 한국HCI학회, 제 14권, 제 1호, pp. 83-89
정동훈 (2004), 차량측량시스템을 위한 카메라 검교정 및 3차원 위치결정에 관한 연구, 박사학위논문, 인하대학교, pp 175
최준호, 문철홍 (1998), 렌즈에 의해 왜곡된 원영상의 교정, 대한전자공학회 발표논문집, 제21권, 제1호, pp. 721-724
한국정보사회진흥원 (2008), u-City IT 인프라 구축 가이드라인 V1.0, pp. 71-73
Garcia. C. (1999), Fully vision-based callibration of a hand-eye robot. Autonomous Robots. vol. 6, pp. 223-238
Wolf, P. R., and Dewitt, B. A. (2000), Elements of photogrammetry with application in GIS, 3th Editin, McGraw-Hill, pp. 608
※ AI-Helper는 부적절한 답변을 할 수 있습니다.