본 논문은 가상공간 제작을 위해 다수의 카메라로 영상을 촬영했을 때, 영상 특성 차이를 감소시키는 방법을 제안하였다. 각각 8 개의 본체와 렌즈를 교차 장착하여 64 개의 영상을 사용하였다. 영상 분석은 히스토그램과 픽셀 분포 값의 표준 편차를 분석 비교하였다. 분석결과, 동일 기종의 카메라임에도 불구하고, 렌즈 혹은 이미지 센서에 따라 각각 다른 영상 특성을 보여주었다. 본 논문에서는 이러한 차이를 보정하기 위해 영상의 전체 밝기 값의 분포를 조절하였다. 시뮬레이션 결과, 평균 편차가 최대 (실내 : 6.89, 실외 : 24.23) 이었으나, 시뮬레이션 진행 후 편차가 거의(실내 : 최대 0.42, 실외 : 최대 : 2.73) 없는 영상을 얻었다. 추후에는 영상 밝기 분포보다 정밀한 영상 분석 방법을 연구하고 적용할 것이다.
본 논문은 가상공간 제작을 위해 다수의 카메라로 영상을 촬영했을 때, 영상 특성 차이를 감소시키는 방법을 제안하였다. 각각 8 개의 본체와 렌즈를 교차 장착하여 64 개의 영상을 사용하였다. 영상 분석은 히스토그램과 픽셀 분포 값의 표준 편차를 분석 비교하였다. 분석결과, 동일 기종의 카메라임에도 불구하고, 렌즈 혹은 이미지 센서에 따라 각각 다른 영상 특성을 보여주었다. 본 논문에서는 이러한 차이를 보정하기 위해 영상의 전체 밝기 값의 분포를 조절하였다. 시뮬레이션 결과, 평균 편차가 최대 (실내 : 6.89, 실외 : 24.23) 이었으나, 시뮬레이션 진행 후 편차가 거의(실내 : 최대 0.42, 실외 : 최대 : 2.73) 없는 영상을 얻었다. 추후에는 영상 밝기 분포보다 정밀한 영상 분석 방법을 연구하고 적용할 것이다.
In this paper, we propose a method to reduce the difference in image characteristics when multiple camera images are captured for virtual space production. Sixty-four images were used by cross-mounting eight bodies and lenses, respectively. Image analysis compares and analyzes the standard deviation...
In this paper, we propose a method to reduce the difference in image characteristics when multiple camera images are captured for virtual space production. Sixty-four images were used by cross-mounting eight bodies and lenses, respectively. Image analysis compares and analyzes the standard deviation of the histogram and pixel distribution values. As a result of the analysis, it shows different image characteristics depending on the lens or image sensor, though it is a camera of the same model. In this paper, we have adjusted the distribution of the overall brightness value of the image to compensate for this difference. As a result, the average deviation was the maximum of (Indoor: 6.89, outdoor: 24.23), we obtained images with almost no deviation (Indoor: maximum 0.42, outdoor: maximum: 2.73). In the future, we will study and apply more accurate image analysis methods than image brightness distribution.
In this paper, we propose a method to reduce the difference in image characteristics when multiple camera images are captured for virtual space production. Sixty-four images were used by cross-mounting eight bodies and lenses, respectively. Image analysis compares and analyzes the standard deviation of the histogram and pixel distribution values. As a result of the analysis, it shows different image characteristics depending on the lens or image sensor, though it is a camera of the same model. In this paper, we have adjusted the distribution of the overall brightness value of the image to compensate for this difference. As a result, the average deviation was the maximum of (Indoor: 6.89, outdoor: 24.23), we obtained images with almost no deviation (Indoor: maximum 0.42, outdoor: maximum: 2.73). In the future, we will study and apply more accurate image analysis methods than image brightness distribution.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
카메라는 동일 제품으로서 본체 8개, 렌즈 8개를 각각 준비하여 렌즈와 본체를 교차라는 방식으로 64장의 영상을 촬영하여, 히스토그램 특징을 분석하였다. 논문은 본론에서 카메라 렌즈와 이미지 센서의 특징과 영상 분석을 위한 히스토그램 알고리즘에 대하여 알아보고, 시뮬레이션을 진행하여 영상을 분석하였다. 그리고 히스토그램 명시화를 진행하여 거의 동일한 특징을 가지도록 하였다.
본 논문은 어떤 특정 목적을 위해 동일 제품 다수를 사용할 때 출력되는 영상의 특징이 모두 동일 혹은 비슷한 특징을 갖는지 분석하였다. 카메라는 동일 제품으로서 본체 8개, 렌즈 8개를 각각 준비하여 렌즈와 본체를 교차라는 방식으로 64장의 영상을 촬영하여, 히스토그램 특징을 분석하였다.
제안 방법
다수 카메라(동일 제품)를 사용할 경우 이것은 큰 문제를 발생한다. 그러한 문제점을 해결하기 위해 히스토그램 명시화(Histogram Specification)를 수행하였다. 히스토그램 명시화를 통해 192개의 영상 모두 평균 근사치로 변경되었다.
논문은 본론에서 카메라 렌즈와 이미지 센서의 특징과 영상 분석을 위한 히스토그램 알고리즘에 대하여 알아보고, 시뮬레이션을 진행하여 영상을 분석하였다. 그리고 히스토그램 명시화를 진행하여 거의 동일한 특징을 가지도록 하였다.
본 논문은 어떤 특정 목적을 위해 동일 제품 다수를 사용할 때 출력되는 영상의 특징이 모두 동일 혹은 비슷한 특징을 갖는지 분석하였다. 카메라는 동일 제품으로서 본체 8개, 렌즈 8개를 각각 준비하여 렌즈와 본체를 교차라는 방식으로 64장의 영상을 촬영하여, 히스토그램 특징을 분석하였다. 논문은 본론에서 카메라 렌즈와 이미지 센서의 특징과 영상 분석을 위한 히스토그램 알고리즘에 대하여 알아보고, 시뮬레이션을 진행하여 영상을 분석하였다.
대상 데이터
본 논문은 동일 모델 카메라(삼성 NX300M) 8대를 사용하여 실내, 실외에서 각각 영상을 촬영하여 영상을 분석했다. 각각 카메라 본체 8개와 렌즈 8개를 번갈아 가면서 하나의 데이터 셋을 총 64장으로 총 3세트의 데이터 세트를 만들었다. [Fig 1]은 영상 획득을 위해 사용된 카메라이다.
본 논문은 동일 기종 카메라 본체 8대와 렌즈 8개를 사용하여, 얻어진 64개 영상의 특성을 분석하였다. 데이터 세트는 3개이며, 192장의 영상을 분석하였다. 실험 결과 렌즈 혹은 카메라에 따라서 영상의 밝기 값이 다르게 분포 되는 것을 확인 하였다.
단일 카메라를 사용하는 경우도 있지만, 한곳에 다수의 카메라를 사용하는 경우도 있다. 본 논문은 동일 기종 카메라 본체 8대와 렌즈 8개를 사용하여, 얻어진 64개 영상의 특성을 분석하였다. 데이터 세트는 3개이며, 192장의 영상을 분석하였다.
본 논문은 동일 모델 카메라(삼성 NX300M) 8대를 사용하여 실내, 실외에서 각각 영상을 촬영하여 영상을 분석했다. 각각 카메라 본체 8개와 렌즈 8개를 번갈아 가면서 하나의 데이터 셋을 총 64장으로 총 3세트의 데이터 세트를 만들었다.
촬영된 영상은 총 192장으로서 실내 128, 실외 64을 촬영하였다. 실내의 경우 카메라 환경((F1.
성능/효과
데이터 세트는 3개이며, 192장의 영상을 분석하였다. 실험 결과 렌즈 혹은 카메라에 따라서 영상의 밝기 값이 다르게 분포 되는 것을 확인 하였다. 동일 카메라 혹은 동일 렌즈를 사용하더라도 각각의 카메라 혹은 렌즈마다 특성이 다르다는 것이다.
그러한 문제점을 해결하기 위해 히스토그램 명시화(Histogram Specification)를 수행하였다. 히스토그램 명시화를 통해 192개의 영상 모두 평균 근사치로 변경되었다. 특히, 실내 영상은 편차가 거의 없다고 할 수 있었다.
후속연구
다수의 카메라를 사용하는 환경에서 동일한 결과를 얻기 위한다면 카메라의 특성을 분석하여 전처리 과정에서 동일한 특성을 만드는 기술이 반드시 필요하다고 할 수 있다. 추후에는 카메라 개수에 따른 적응형 알고리즘과 동영상을 기반으로 한 연구를 진행할 것이다.
질의응답
핵심어
질문
논문에서 추출한 답변
증강 현실이란?
증강 현실은 현실의 이미지나 배경에 3차원 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술이다. 증강 현실은 또한 혼합현실(Mixed Reality, MR)이라고도 하는데, 비행기 제조사인 ‘보잉’ 사에서 1990년경 비행기 조립 과정에 가상의 이미지를 첨가하면서 ‘증강현실’이 처음으로 세상에 소개됐다.
가상현실은 어떤 분야에서 적용되고 있는가?
최근 이슈가 되고 있는 기술은 매우 다양하겠지만, 그 중에서도 가상현실(Virtual Reality, VR), 증강현실(Augmented Reality, AR) 그리고 자율 주행 자동차 일 것이다. 가상현실은 군사, 오락, 의료, 학습, 영화, 건축설계, 관광 등 다양한 분야에 활용되면서 공상과학 소설이나 영화에서 묘사되는 상상적 단계를 벗어나 점차 현실화되고 있다[1].
Augmented Reality의 가장 중요한 요소는 무엇인가?
이러한 이슈가 되고 있는 기술들은 공통적으로 영상 관련 기술이 포함되어 있다. 증강 현실 같은 경우 현실 세계를 촬영하여 가상 물체를 결합하는 것으로 현실 세계를 얼마나 정확하게 인지하고 저장하는 할 수 있느냐가 중요하다. 또한 자율 주행 자동차 역시 영상 획득이 중요한 관건이 된다.
참고문헌 (23)
J. H. LEE, "Multimedia", Communicatiobooks, ch7, 2013
http://navercast.naver.com
http://navercast.naver.com
R. C. Gonzalez, "Digital Image Processing", 2nd Edition, Prentice Hall, pp. 75-146, 2002
R. Crane, "A Simplified Approach to Image Processing", Prentice Hall, pp. 42-66, 1997.
K. N. Platanioits, "Color Image Processing and Application", Springer, pp. 209-229, 2000.
Berndjahne, "Digital Video Processing", Springer-Verlag, pp. 77-94, 1993.
F. G. Stremler, "Introduction to Communication Systems", Addison-Wesley, pp. 459-486, 1993.
Y. T. Kim, et al., "Contrast Enhancement Using Brightness Preserving Bi-Histogram Equalization", IEEE Trans. On Consumer Electronics, Vol. 43, No.1, pp. 1-8, Feb. 1997.
Qiyuan Tian and Jiang Duan, "Local Histogram Modification Based Contrast Enhancement", Audio, Language and Image Processing (ICALIP), 2012 International Conference on, pp. 1-6, 2012
J. Y. Kim, et al., "An Advanced Contrast Enhancement Using Partially Overlapped Sub-Block Histogram Equalization", IEEE Trans. on Circuit and Systems, Vol. 11, No. 4, pp. 475-484, 2005.
S. D. Chen, and A. R. Ramli, "Contrast Enhancement using Recursive Mean-Separate Histogram Equalization for Scalable Brightness preservation", IEEE Transactions on Consumer Electronics, Vol. 49, No. 4, pp. 1301-1309, 2003.
R. Bala, et al., "Gamut Mapping to Preserve Spatial Luminance Variations", Journal of Image Science and Technology, Vol. 45, No. 5, pp. 436-443, September/ October 2001.
C. S. Lee, et al., "Gamut Mapping Algorithm Using Lightness Mapping and Multiple Anchor Points for Linear Tone and Maximum Chroma Reproduction", Journal of Image Science and Technology, Vol. 45, No. 3, pp. 209-223, May/June 2001.
G. H. Park, et al, "A Contrast Enhancement Method using Dynamic Range Separate Histogram Equalization", IEEE Trans on Consumer Electronic, Vol. 54, No. 4, pp. 1981-1987 , 2008
Y. S. HO, "Camera Adjustment and Image Alignment Technique for Multi - view 3D Images.", IBroadcasting and Technology, Vol. 213, pp. 160-165 , 2013
S. C. Lim, et al, "A Calibration Method for Multimodal dual Camera Environment", Journal of the Korea Institute of Information and Communication Engineering, Vol. 19 No. 9, pp. 2138-2144 , 2015
K. I. Kim, et al, "Calibration of Radial Distortion and Synthesis of Panoramic Image from Multi-directional Camera Images", Journal of the Korea Institute of Next Generation Computin, Vol. 9, No. 6, pp. 56-65 , 2008
M. K. Oh, et al, "Long Distance Vehicle License Plate Region Detection Using Low Resolution Feature of License Plate Region in Road View Images", Journal of digital Convergence , Vol. 15, No. 1, pp. 239-245, 2017.
W. S. Hwang, et al, "Convergence research of low-light image enhancement method and vehicle recorder", Journal of the Korea Convergence Society, Vol. 7. No. 6, pp. 1-6, 2016.
S. H. Kim, "Development of the 3D Hair Style Simulator using Augmented Realityd", Journal of the Korea Convergence Society, Vol. 6, No. 6, pp. 249-255, 2015.
B. S. Kang, et al, "Fire Alarm Solutions Through the Convergence of Image Processing Technology and M2M", Journal of the Korea Convergence Society, Vol. 7 No. 1, pp. 37-42, 2016.
J. S. Han, "Color and Brightness Calibration Convergence Technology for 5D Virtual Reality Attractions", Journal of the Korea Convergence Society, Vol. 7 No. 1, pp. 25-30, 2016.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.