$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

추정된 시공간 배경 정보를 이용한 홀채움 방식
Hole-Filling Method Using Extrapolated Spatio-temporal Background Information 원문보기

Journal of the Institute of Electronics and Information Engineers = 전자공학회논문지, v.54 no.8 = no.477, 2017년, pp.67 - 80  

김범수 (숭실대학교 전자정보공학부) ,  응웬띠 엔닷 (숭실대학교 전자정보공학부) ,  홍민철 (숭실대학교 전자정보공학부)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 추정된 시공간 배경 정보를 이용하여 자유 시점에서 합성영상을 생성하기 위한 홀채움 방식을 제안한다. 시간적 배경 정보를 추정하기 위해 비겹침 패치 기반의 배경 코드북을 이용한 새로운 시간적 배경 모델을 소개한다. 더불어, 공간적 배경 후보의 하한 및 상한 값의 제약 조건을 설정하는 깊이영상 기반 공간적 국부 배경 예측 방식에 대해 제안한다. 추정된 시간적 배경 정보와 공간적 배경 정보의 유사도를 비교하여 가려짐 배경 영역의 홀채움 과정을 수행한다. 또한 3-D 워핑 후 발생하는 컬러영상과 깊이영상간의 불일치 문제를 해결하기 위해 깊이영상 기반의 고스트 제거 필터를 기술한다. 마지막으로 잔여 홀을 채우기 위해 새로운 깊이 항을 포함한 우선순위 함수를 이용하여 인페인팅 방식이 적용된다. 실험 결과를 통해 기존의 홀채움 방식들과 비교하여 제안하는 방식의 객관적, 주관적 성능의 우수성을 확인할 수 있었다.

Abstract AI-Helper 아이콘AI-Helper

This paper presents a hole-filling method using extrapolated spatio-temporal background information to obtain a synthesized view. A new temporal background model using non-overlapped patch based background codebook is introduced to extrapolate temporal background information In addition, a depth-map...

주제어

질의응답

핵심어 질문 논문에서 추출한 답변
인페이팅 기법의 한계는? 인페인팅(inpainting) 기법은 영상 내에서 알려지지 않은 영역과 이웃한 알려진 영역이 유사한 통계적 속성 또는 기하학적 구조를 공유한다는 특성을 이용하여 홀채움에 활용되어 왔다[7~9]. 인페이팅 기법은 배경 영역과 전경 영역을 구분할 수 있는 깊이 정보와 결합하여 효과적으로 홀채움이 가능함이 입증되었으나[10~13] 가려짐 영역에서 배경 영역과 전경 영역에 대한 정보가 제한적인 경우 홀채움 성능에 한계가 존재한다[14~16]. 그러므로 가상 시점에서 만족스러운 합성영상을 생성하기 위해서는 가려짐 영역에서 전경과 배경 영역 분리의 정확성이 매우 중요하다.
깊이영상 기반 렌더링에는 어떤 문제점이 존재하는가? 특히, 단일 컬러 및 깊이영상을 이용하여 가상 시점에서의 합성영상을 생성하는 깊이영상 기반 렌더링(Depth Image-Based Rendering)에 대한 연구가 활발히 진행되어 왔다[1]. 그러나 DIBR은 가상 시점 영상을 생성하기 위해 사용되는 3-D 워핑(warping) 과정에서 부정확한 깊이 정보 및 가려짐 현상에 의해 홀 현상을 발생하는 문제점이 존재한다. 부정확한 깊이 정보에 의해 발생하는 홀은 작은 영역으로 나타나며, 이웃 정보를 이용하여 효과적인 홀채움(hole-filling)이 가능하다.
인페인팅 기법은 어떤 특성을 가지고 있는가? 인페인팅(inpainting) 기법은 영상 내에서 알려지지 않은 영역과 이웃한 알려진 영역이 유사한 통계적 속성 또는 기하학적 구조를 공유한다는 특성을 이용하여 홀채움에 활용되어 왔다[7~9]. 인페이팅 기법은 배경 영역과 전경 영역을 구분할 수 있는 깊이 정보와 결합하여 효과적으로 홀채움이 가능함이 입증되었으나[10~13] 가려짐 영역에서 배경 영역과 전경 영역에 대한 정보가 제한적인 경우 홀채움 성능에 한계가 존재한다[14~16].
질의응답 정보가 도움이 되었나요?

참고문헌 (24)

  1. C. Fehn, "Depth-image-based rendering (DIBR), compression, and transmission for a new approach on 3D TV," in SPIE Int. Conf. Stereoscopic Display and Virtual Reality Syst. XI, pp. 93-104, Jan. 2004, 

  2. P. Kauff, N. Atzpadin, C. Fehn, M. Muller, O. Schreer, A. Smolic, and R. Tanger, "Depth map creation and image-based rendering for advanced 3DTV services providing interoperability and scalability," Signal Process.: Image Commu., vol. 22, no. 2, pp. 217-234, Feb. 2007. 

  3. C. Zhu and S. Li, "Depth image based view synthesis: new insights and perspectives on hole generation and filling," IEEE Trans. Broadcast., vol. 62, no. 1, pp. 82-93, Mar. 2016. 

  4. L. Zhang and W. J. Tam, "Stereoscopic image generation based on depth images for 3D TV," IEEE Trans. Broadcast., vol. 51, no. 2, pp. 191-199, June 2005. 

  5. C. L. Zitnick, S. B. Kang, M. Uyttendaele, S. Winder, and R. Szeliski, "High-quality video view interpolation using a layered representation," ACM Trans. Graphics, vol. 23, no. 3, pp. 600-608, Aug. 2004. 

  6. M. Solh and G. AlRegib, "Hierarchical hole-filling for depth-based view synthesis in FTV and 3D video," IEEE. J. Selected Topic in Signal Process., vol.6, no.5, pp. 495-504, Sep. 2012. 

  7. M. Bertalmio, G. Sapiro, V. Caselles, and C. Ballester, "Image inpainting," in Proc. ACM the 27th Int. Conf. Computer Graphics and Interactive Tech. (SIGGRAPH), pp. 417-424, July 2000. 

  8. A. Criminisi, P. Perez, and K. Toyama, "Object removal by exemplarbased inpainting," in Proc. IEEE Int. Conf. Computer Vision and Pattern Recog. (CVPR), doi:10.1109/CVPR.2003.1211538, July 2003. 

  9. C. Guillemot and O. Le Meur, "Image inpainting: Overview and recent advances," IEEE Signal Process. Mag., vol. 31, no. 1, pp. 127-144, Jan. 2014. 

  10. Y. Mori, N. Fukushima, T. Fujii, and M. Tanimoto, "View generation with 3D warping using depth information for FTV," Signal Process.: Image Commu., vol. 24, no. 1-2, pp. 65-72, Jan. 2009. 

  11. K. Oh, S. Yea, and Y.-S. Ho, "Hole filling method using depth based inpainting for view synthesis in free viewpoint television and 3-D video," in Proc. Picture Coding Symp., doi:10.1109/PCS.2009.5167450, July 2009. 

  12. S. Zinger, L. Do, and P. H. N. de With, "Free-viewpoint depth image based rendering," J. Vis. Comm. Image Represent., vol. 21, no. 5-6, pp. 533-541, July 2010. 

  13. I. Daribo and H. Saito, "A novel inpainting-based layered depth video for 3DTV," IEEE Trans. Broadcast., vol. 57, no. 2, pp. 533-541, June 2011. 

  14. I. Ahn and C. Kim, "A depth-based disocclusion filling method for virtual viewpoint image synthesis," Journal of the Institute of Electronics Engineers of Korea SP, vol. 48, no. 6, pp. 48-60, Nov. 2011. 

  15. S. Choi, B. Ham, and K. Sohn, "Space-time hole filling with random walks in view extrapolation for 3D video," IEEE. Trans. Image Process., vol. 22, no. 6, pp. 2429-2441, June 2013. 

  16. S. M. Muddala, M. Sjostrom, R. Olsson, "Virtual view synthesis using layered depth image generation and depth-based inpainting for filling disocclusions and translucent disocclusion," J. Vis. Commu. Image Represent., vol. 38, pp. 351-366, July 2016. 

  17. P. Mdjiki-Nya, M. Koppel, D. Doshkov, H. Lakshman, P. Merkle, K. Muller, and T. Wiegand, "Depth image-based rendering with advanced texture synthesis for 3-D Video," IEEE Trans. Multimedia, vol. 13, no. 3, pp. 453-465, June 2011. 

  18. M. Koppel, X. Wang, D. Doshkov, T. Wiegand, and P. Ndjiki-Nya, "Consistent spatio-temporal filling of disocclusions in the multiview-video-plus-depth format," in Proc. IEEE Int. Workshop Multimedia Signal Process., pp. 25-30, Sep. 2012. 

  19. M. Xi, L.-H. Wang, Q.-Q. Yang, D.-X. Li, and M. Zhang, "Depthimage-based rendering with spatial and temporal texture synthesis for 3DTV," EURASIP J. Image and Video Process., doi:10.1186/1687-5281-2013-9, Dec. 2013. 

  20. C. Yao, T. Tillo, X. Jimin, "Depth map driven hole filling algorithm exploiting temporal correlation information," IEEE Trans. Broadcast., vol. 60, no. 2, pp. 394-404, June 2014. 

  21. K. Kim, T. H. Chalidabhongse, D. Harwood, and L. Davis, "Background modeling and subtraction by codebook construction," in IEEE Int. Conf. Image Process., pp. 3061-3064, Oct. 2004. 

  22. E. J. Fernandez-Sanchez, D. Javier, and R. Eduardo, "Background subtraction based on color and depth using active sensors," Sensors, vol. 13, no. 7, pp. 8895-8915, July 2013. 

  23. A. S. Glassner, Ed., Graphics Gems I, Academic Press, Cambridge, MA, 1990. 

  24. W. Zhou, A. C. Bovik, H. R. Sheikh, and E. P. Simoncelli, "Image quality assessment: from error visibility to structural similarity," IEEE Trans. Image Process., vol. 13, no. 4, pp. 600-612, Apr. 2004. 

저자의 다른 논문 :

LOADING...
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로