최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기방송과 미디어 = Broadcasting and media magazine, v.25 no.1, 2020년, pp.20 - 27
김원준 (건국대학교)
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
다양한 최적화 기법을 이용한 조명 성분 예측 방법은 어떠한 한계가 있는가? | 전자의 경우, 영상 내 픽셀 값은 조명(Illumination) 성분과 반사(Reflectance) 성분의 곱으로 표현 가능하다는 Retinex 이론[1]을 기반으로 조명 성분을 추정하고자 노력하였다. 그러나 한 장의 영상만을 이용하여 조명과 반사 성분을 완벽하게 분리하기 매우 어려우며, 화질 개선 과정에서 색상 변형(Color Distortion) 및 예기치 못한 잡음이 발생되기도 한다. 한편, 영상 인식 분야에서 뛰어난 성과를 보여준 심층신경망(Deep Neural Network)을 영상 화질 개선에 적용하고자 하는 연구가 몇몇 연구자들에 의해 시작되고 있다. | |
영상 화질 개선 방법은 무엇들로 나뉘는가? | 영상 화질 개선 방법은 다양한 최적화 기법을 이용한 조명 성분 예측 방법과 심층학습을 이용한 화질 개선 영상 생성 방법으로 크게 나눌 수 있다. 전자의 경우, 영상 내 픽셀 값은 조명(Illumination) 성분과 반사(Reflectance) 성분의 곱으로 표현 가능하다는 Retinex 이론[1]을 기반으로 조명 성분을 추정하고자 노력하였다. | |
생성 모델(Generative Model) 기반의 방법은 어떠한 단점이 있는가? | 이러한 생성 모델(Generative Model) 기반의 방법은 컬러 영상을 입력으로 하여 해당 화질 개선 영상을 출력하는 기본 구조를 가지고 있으며, 다양한 조명 조건을 대용량 학습을 통해 성공적으로 모델링 할 수 있다. 그러나, 영상 촬영 당시 조명 조건에 대한 개선 환경이 주어지지 않으며, 화질 개선 버전을 구축하기 위해서 현재는 전문가의 재조정(Re-touch)에 의존하고 있어 특정 개인의 주관적 화질 평가가 학습에 반영될 수 있는 문제점이 있다. 또한, 데이터셋 구축에 전문 인력과 많은 시간이 소요되기 때문에 큰 비용이 필요하며, 새로운 조명 환경이 추가될 때마다 리터치(Re-touch) 과정이 다시 수행되어야 하는 한계가 있다. 그럼에도 불구하고 뛰어난 정확도 및 확장성으로 인해 많은 연구자들이 다양한 심층신경망 구조를 기반으로 한 영상 화질 개선 연구를 진행하고 있다. |
E. H. Land, ''The Retinex theory of color vision,'' Sci. Amer., vol. 237, no. 6, pp. 108-128, Dec. 1977.
S. Wang, J. Zheng, H.-M. Hu, and B. Li, ''Naturalness preserved enhancement algorithm for non-uniform illumination images,'' IEEE Trans. Image Process., vol. 22, no. 9, pp. 3538-3548, Sep. 2013.
X. Fu, D. Zeng, Y. Huang, X.-P. Zhang, and X. Ding, "A weighted variational model for simultaneous reflectance and illumination estimation," in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., Jun. 2016, pp. 2782-2790.
X. Guo, Y. Li, and H. Ling, ''LIME: Low-light image enhancement via illumination map estimation,'' IEEE Trans. Image Process., vol. 26, no. 2, pp. 982-993, Feb. 2017.
W. Kim, ''Image enhancement using patch-based principal energy analysis,'' IEEE Access, vol. 6, pp. 72620- 72628, 2018.
W. Kim, R. Lee, M. Park, and S-H. Lee, "Low-light image enhancement based on maximal diffusion values," IEEE Access, vol. 7, pp. 129150-129163, Dec. 2019.
K. He, X. Zhang, S. Ren, and J. Sun, "Deep residual learning for image recognition," in Proc. IEEE Int'l. Conf. Comput. Vis. Patt. Recognit., Jun. 2016, pp. 770-778.
R. Wang, Q. Zhang, C-W. Fu, X. Shen, W-S. Zheng, and J. Jia, "Underexposed photo enhancement using deep illumination estimation," in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., Jun. 2019, pp. 6849-6857.
A. Ignatov, N. Kobyshev, K. Vanhoey, R. Timofte, and L. Van Gool, "DSLR-quality photos on mobile devices with deep convolutional networks," in Proc. IEEE Int. Conf. Comput. Vis., Oct. 2017, pp. 3297-3305.
J. Park, J-Y. Lee, D. Yoo, and I. S. Kweon "Distort-and-recover: color enhancement using deep reinfoecement learning," in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recognit., Jun. 2018, pp. 5928-5936.
Y-S. Chen, Y-C. Wang, M-H. Kao, and Y-Y. Chuang, "Deep photo enhancer: unpaired learning for image enhancement from photographs wit GANs," in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recognit., Jun. 2018, pp. 6306-6314.
I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, and Y. Bengio, "Generative adversarial nets," in Proc. Neural Inf. Process. Syst., Dec. 2014, pp. 1-9.
V. Bychkovsky, S. Paris, E. Chan, and F. Durand, "Learning photographic global tonal adjustment with a database of input / output image pairs," in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recognit., Jun. 2011, pp. 97-104.
Retinex Theory of Color Vision, NASA, Washington, DC, USA, 2001.
P. Sen, N. K. Kalantari, M. Yaesoubi, S. Darabi, D. B. Goldman, and E. Shechtman, ''Robust patch-based HDR reconstruction of dynamic scenes,'' ACM Trans. Graph., vol. 31, no. 6, 2012, Art. no. 203.
A. Mittal, R. Soundararajan, and A. C. Bovik, "Making a "completely blind'' image quality analyzer," IEEE Signal Process. Lett., vol. 20, no. 3, pp. 209-212, Mar. 2013.
K. Gu, S. Wang, G. Zhai, S. Ma, X. Yang, W. Lin, W. Zhang, and W. Gao, "Blind quality assessment of tone-mapped images via analysis of information, naturalness, and structure," IEEE Trans. Multimedia, vol. 18, no. 3, pp. 432-443, Mar. 2016.
K. Gu, W. Lin, G. Zhai, X. Yang, W. Zhang, and C. W. Chen, "No-reference quality metric of contrast-distorted images based on information maximization," IEEE Trans. Cybern., vol. 47, no. 12, pp. 4559-4565, Dec. 2017.
K. Gu, D. Tao, J.-F. Qiao, and W. Lin, "Learning a no-reference quality assessment model of enhanced images with big data," IEEE Trans. Neural Netw. Learn. Syst., vol. 29, no. 4, pp. 1301-1313, Apr. 2018.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.