$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

전경 깊이 지도와 배경 깊이 지도의 결합을 이용한 깊이 지도 생성
Depth-Map Generation using Fusion of Foreground Depth Map and Background Depth Map 원문보기

한국방송공학회 2012년도 하계학술대회, 2012 July 05, 2012년, pp.275 - 278  

김진현 (한양대학교) ,  백열민 (한양대학교) ,  김회율 (한양대학교)

초록
AI-Helper 아이콘AI-Helper

본 논문에서 2D-3D 자동 영상 변환을 위하여 2D 상으로부터 깊이 지도(depth map)을 생성하는 방법을 제안한다. 제안하는 방법은 보다 정확한 깊이 지도 생성을 위해 영상의 전경 깊이 지도(foreground depth map)와 배경 깊이 지도(background depth map)를 각각 생성 한 후 결합함으로써 보다 정확한 깊이 지도를 생성한다. 먼저, 전경 깊이 지도를 생성하기 위해서 라플라시안 피라미드(laplacian pyramid)를 이용하여 포커스/디포커스 깊이 지도(focus/defocus depth map)를 생성한다. 그리고 블록정합(block matching)을 통해 획득한 움직임 시차(motion parallax)를 이용하여 움직임 시차 깊이 지도를 생성한다. 포커스/디포커스 깊이 지도는 평탄영역(homogeneous region)에서 깊이 정보를 추출하지 못하고, 움직임 시차 깊이 지도는 움직임 시차가 발생하지 않는 영상에서 깊이 정보를 추출하지 못한다. 이들 깊이 지도를 결합함으로써 각 깊이 지도가 가지는 문제점을 해결하였다. 선형 원근감(linear perspective)와 선 추적(line tracing) 방법을 적용하여 배경깊이 지도를 생성한다. 이렇게 생성된 전경 깊이 지도와 배경 깊이 지도를 결합하여 보다 정확한 깊이 지도를 생성한다. 실험 결과, 제안하는 방법은 기존의 방법들에 비해 더 정확한 깊이 지도를 생성하는 것을 확인할 수 있었다.

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 이 방법은 기존의 방대한 2D 콘텐츠를 3D 콘텐츠로 변환할 수 있는 적합한 방법이다. 따라서 본 논문에서는 자동적으로 2D 콘텐츠를 3D 콘텐츠로 변환하기 위해 깊이 정보들로부터 깊이 지도를 생성하는 방법을 제안한다.
  • 본 논문에서는 전경 깊이 지도와 배경 깊이 지도를 결합함으로써 2D-3D 자동 변환을 위한 깊이 지도 생성방법을 제안한다. 전경 깊이 지도를 생성하기 위해서 포커스/디포커스 깊이 지도와 움직임 시차 깊이 지도를 결합한다.
  • 깊이 지도 생성 방법은 크게 단안 깊이 단서(monocular depth cue) 방법과 양안 깊이단서(binocular depth cue) 방법으로 나누어진다. 본 논문은 자동으로 2D 영상을 3D 영상으로 변환하는 것을 목적으로 하기 때문에 단안 깊이 단서 방법에 대해서만 언급한다. 그림 1 은 단안 깊이 단서의 분류를 보여준다.

가설 설정

  • 이는 양질의 3D 콘텐츠로 얻을 수 있지만, 3D 콘텐츠를 제작하는 시간이 상당히 많이 걸리는 단점이 있다. 두 번째로, 반자동적으로 변환하는 방법은 사용자의 입력을 요구한다[1]. 이 방법은 수동으로 변환하는 방법에 비해서 시간을 줄일 수 있지만, 여전히 사람의 도움을 필요로 하는 단점이 있다.
  • 또한, 카메라의 움직임으로 발생하는 전역 움직임(global motion)을 보상하여 영상 내 객체만을 분할하는 움직임 시차 깊이 지도를 생성하기 위해, 영상 내의 객체는 영상의 중앙에 위치한다고 가정하고 그림 7 과 같이 영상 외각(음영 처리된 부분)의 움직임 벡터 히스토그램(histogram) [9]을 이용하여 전역 움직임을 추정하고, 식(2)을 이용하여 전역 움직임 벡터를 보상한다. 그림 8 은 전역 움직임 보상 후에 결과를 보여준다.
  • 선형 원근감 방법은 소실점(vanishing point)이 카메라에서 가장 먼 곳이라는 정보로부터 깊이 지도를 생성한다[3]. 상대적 높이(relative height) 방법은 영상의 아래 부분이 더 가깝다는 가정을 이용하여 깊이 지도를 생성한다[4]. 움직임 시차(motion parallax) 방법은 카메라에 움직임이 발생하였을 때 가까운 물체가 더 많은 시차를 갖는다는 가정을 기반으로 수평과 수직의 움직임 시차 양을 이용하여 깊이 지도를 생성한다[5].
  • 상대적 높이(relative height) 방법은 영상의 아래 부분이 더 가깝다는 가정을 이용하여 깊이 지도를 생성한다[4]. 움직임 시차(motion parallax) 방법은 카메라에 움직임이 발생하였을 때 가까운 물체가 더 많은 시차를 갖는다는 가정을 기반으로 수평과 수직의 움직임 시차 양을 이용하여 깊이 지도를 생성한다[5].
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
2D 영상을 3D 영상으로 변환하는 방법에는 무엇이 있는가? 또 다른 방법은 2D 영상을 3D 영상으로 변환하는 것이다. 이 방법은 수동(manual)으로 변환하는 방법, 반자동적(semi-automatic)으로 변환하는 방법, 그리고 자동적(automatic)으로 변환하는 방법으로 나누어진다. 먼저, 수동으로 변환하는 방법은 사람이 직접 2D 영상 내의 모든 화소(pixel)를 수평 방향으로 이동시킨다.
깊이 지도 생성 방법은 무엇으로 나눌 수 있는가? 2D 영상 내의 깊이 단서들로부터 깊이 지도 생성 방법은 오랜 시간 연구되어 왔다. 깊이 지도 생성 방법은 크게 단안 깊이 단서(monocular depth cue) 방법과 양안 깊이단서(binocular depth cue) 방법으로 나누어진다. 본 논문은 자동으로 2D 영상을 3D 영상으로 변환하는 것을 목적으로 하기 때문에 단안 깊이 단서 방법에 대해서만 언급한다.
포커스/디포커스(focus/defocus) 방법이 깊이 지도를 생성하는 방법은 무엇인가? 단안 깊이 단서는 화상단서(pictorial cue)와 움직임 단서(motion cue)로 분류된다. 먼저, 포커스/디포커스(focus/defocus) 방법은 가까운 객체가선명도(sharpness)가 높다는 가정을 기반으로 각 화소 또는 블록(block)의 블러(blur)된 정도를 추정하여 깊이 지도를 생성한다[2]. 선형 원근감 방법은 소실점(vanishing point)이 카메라에서 가장 먼 곳이라는 정보로부터 깊이 지도를 생성한다[3].
질의응답 정보가 도움이 되었나요?
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로