최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기電子工學會論文誌. Journal of the Institute of Electronics Engineers of Korea. SP, 신호처리, v.48 no.3 = no.339, 2011년, pp.13 - 18
In this paper, we explain capturing, postprocessing, and depth generation methods using multiple color and depth cameras. Although the time-of-flight (TOF) depth camera measures the scene's depth in real-time, there are noises and lens distortion in the output depth images. The correlation between t...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
다시점 디스플레이에는 몇 개 이상의 시점 영상이 필요한가? | 이러한 3DTV와 같은 입체 디스플레이 장치를 이용 하여 장면을 입체로 보기 위해서는 동일한 장면을 두 시점 이상에서 촬영한 영상이 필요하다. 특히 다시점 디스플레이의 경우는 3개 이상의 시점에서의 영상을 필요로 한다. 카메라의 개수 및 크기의 제약으로 인해 카메라 간격을 조밀하게 하여 많은 시점의 영상을 촬영하는 것은 불가능하지만, 다시점 영상과 장면의 깊이 영상을 이용하여 중간 시점에서의 영상을 합성하면 다시점 입체영상 콘텐츠를 생성할 수 있다. | |
장면의 깊이 정보를 얻는 방법 두 가지는 무엇인가? | 따라서 촬영하는 장면에 대한 정확한 깊이 정보를 얻는 것은 입체영상 콘텐츠 제작에 있어서 무엇보다 중요 하다. 일반적으로 장면의 깊이 정보를 얻는 방법은 크게 두 가지로 나눌 수 있는데, 수동 센서 방식과 능동 센서 방식이 그것이다. 수동 센서 방식은 촬영된 영상을 기반으로 하여 깊이 정보를 예측한다. | |
촬영하는 장면에 대한 정확한 깊이 정보가 입체 영상 콘텐츠 제작에서 중요한 이유는? | 특히 다시점 디스플레이의 경우는 3개 이상의 시점에서의 영상을 필요로 한다. 카메라의 개수 및 크기의 제약으로 인해 카메라 간격을 조밀하게 하여 많은 시점의 영상을 촬영하는 것은 불가능하지만, 다시점 영상과 장면의 깊이 영상을 이용하여 중간 시점에서의 영상을 합성하면 다시점 입체영상 콘텐츠를 생성할 수 있다. |
A. Smolic and P. Kauff, "Interactive 3D Video Representation and Coding Technologies," Proceedings of the IEEE, Spatial Issue on Advances in Video Coding and Delivery, vol. 93, no. 1, pp. 99-110, Jan. 2005.
J. Zhu, L. Wang, R. Yang, and J. Davis, "Fusion of Time-of-Flight Depth and Stereo for High Accuracy Depth Maps," Proc. of IEEE Conference on Computer Vision and Pattern Recognition, pp. 231-236, June 2008.
B. Bartczak and R. Koch, "Dense Depth Maps from Low Resolution Time-of-Flight Depth and High Resolution Color Views," Proc. of 5th International Symposium on Visual Computing, pp. 1-12, Nov. 2009.
http://www.vision.caltech.edu/bouguetj, Camera Calibration Toolbox for MATLAB.
Y.S. Kang and Y.S. Ho, "Geometrical Compensation for Multi-view Video in Multiple Camera Array," Proc. of Int'l Symposium on Electronics and Marine, pp. 83-86, Sept. 2008.
A. Ilie and G. Welch, "Ensuring color consistency across multiple cameras," Proc. of IEEE international Conference on Computer Vision, pp. II: 1268-1275, Oct. 2005.
A. Wang, T. Qiu, and L. Shao, "A Simple Method of Radial Distortion Correction with Centre of Distortion Estimation," Journal of Mathematical Imaging and Vision, vol. 35, no. 3, pp. 165-172, July 2009.
G. Gilboa, N. Sochen, and Y.Y. Zeevi, "Regularized Shock Filters and Complex Diffusion", ECCV 2002, LNCS 2350, pp. 399-313, May 2002.
Y.S. Ho and Y.S. Kang, "Multi-view Depth Generation using Multi-Depth Camera System," Proc. of International Conference on 3D Systems and Application (3DSA), pp. 1-4, May 2010.
P.F. Felzenszwalb and D.P. Huttenlocher, "Efficient Belief Propagation for Early Vision," International Journal of Computer Vision, vol. 70, no. 1, pp. 41-54, Oct. 2006.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.