3D 영상의 획득을 위해 이용하는 깊이 지도는 영상의 깊이 정보를 가지고 있다. 그러나 일반적으로 고해상도이며 잡음이 제거된 고화질의 깊이 지도를 카메라로부터 직접 획득하는 것은 어렵다. 그래서 저해상도의 깊이 지도를 획득하고 업샘플링 및 전/후 영상처리를 통해 높은 품질의 고해상도 깊이 지도를 획득하는 기법들이 연구되고 있다. 하지만 기존의 연구는 영상의 질에 큰 변수로 작용하는 에지 부분의 효과적 업샘플링이 미흡하다. 그래서 본 논문은 에지 부분을 차별적으로 고려하는 인지적인 특성을 반영한 영상품질향상 연구에 초점을 맞춰 결합 양방향 필터의 가중치를 적응적으로 조절함으로써 깊이 지도와 합성 영상을 개선한 고해상도의 깊이 지도를 얻는 업샘플링 방법을 제안하였다. 제안 방식을 기존의 방식과 비교하였을 때 PSNR 측면과 주관적 품질에서 이득이 있음을 보였다.
3D 영상의 획득을 위해 이용하는 깊이 지도는 영상의 깊이 정보를 가지고 있다. 그러나 일반적으로 고해상도이며 잡음이 제거된 고화질의 깊이 지도를 카메라로부터 직접 획득하는 것은 어렵다. 그래서 저해상도의 깊이 지도를 획득하고 업샘플링 및 전/후 영상처리를 통해 높은 품질의 고해상도 깊이 지도를 획득하는 기법들이 연구되고 있다. 하지만 기존의 연구는 영상의 질에 큰 변수로 작용하는 에지 부분의 효과적 업샘플링이 미흡하다. 그래서 본 논문은 에지 부분을 차별적으로 고려하는 인지적인 특성을 반영한 영상품질향상 연구에 초점을 맞춰 결합 양방향 필터의 가중치를 적응적으로 조절함으로써 깊이 지도와 합성 영상을 개선한 고해상도의 깊이 지도를 얻는 업샘플링 방법을 제안하였다. 제안 방식을 기존의 방식과 비교하였을 때 PSNR 측면과 주관적 품질에서 이득이 있음을 보였다.
A depth map is an image which contains 3D distance information. Generally, it is difficult to acquire a high resolution (HD), noise-removed, good quality depth map directly from the camera. Therefore, many researches have been focused on acquisition of the high resolution and the good quality depth ...
A depth map is an image which contains 3D distance information. Generally, it is difficult to acquire a high resolution (HD), noise-removed, good quality depth map directly from the camera. Therefore, many researches have been focused on acquisition of the high resolution and the good quality depth map by up-sampling and pre/post image processing of the low resolution depth map. However, many researches are lack of effective up-sampling for the edge region which has huge impact on image perceptual-quality. In this paper, we propose an up-sampling method, based on joint bilateral filter, which improves up-sampling of the edge region and visual quality of synthetic images by adopting different weights for the edge parts that is sensitive to human perception characteristics. The proposed method has gains in terms of PSNR and subjective video quality compared to previous researches.
A depth map is an image which contains 3D distance information. Generally, it is difficult to acquire a high resolution (HD), noise-removed, good quality depth map directly from the camera. Therefore, many researches have been focused on acquisition of the high resolution and the good quality depth map by up-sampling and pre/post image processing of the low resolution depth map. However, many researches are lack of effective up-sampling for the edge region which has huge impact on image perceptual-quality. In this paper, we propose an up-sampling method, based on joint bilateral filter, which improves up-sampling of the edge region and visual quality of synthetic images by adopting different weights for the edge parts that is sensitive to human perception characteristics. The proposed method has gains in terms of PSNR and subjective video quality compared to previous researches.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
또한, 깊이 지도의 업샘플링 후 이를 이용한 합성 영상에 나타나는 오차는 깊이 지도와 컬러 프레임 간에 동일 객체가 일치되어 합성되지 못하는 이유로 생겨난다. 그래서 본 연구에서는 보간한 깊이 지도에 동적 객체 에지 가이드 영상인 가중치 지도(Weight map), 에지 가중치(Edge weight value), 개선 영역 필터(Domain filter)로 기존 결합 양방향 필터를 변경한 가중치 결합 양방향 필터를 적용하여 기존 업샘플링 방법들의 단점인 업샘플링을 수행할 때 에지가 원래 화소 분포 특성에 가깝게 잘 보존되지 않는 것과 합성 후 깊이 지도와 컬러 프레임의 경계 불일치 때문에 일어나는 경계 잡음, 계단형 잡음을 개선하고자 한다. 본 연구에서 제안하는 방법은 반복적이지 않은 한 번의 필터링으로 수행된다.
2에서 설명할 에지 가중치를 적용한다. 본 연구에서 깊이 지도는 품질 면에서 에지가 매우 중요하므로 잡음제거를 위한 평활화 시 다른 부분에 비해 차별적으로 가중치를 주는데 특히 사람이 민감한 동적 객체 에지를 원래 깊이 지도의 화소 분포 특성에 가깝게 보존하기 위해 가중치 지도를 참조하는 것이다. 가중치 지도를 참조해 에지 가중치를 동적 객체의 에지 부분에 적용하므로 가중치 지도는 에지 가이드 영상이라 할 수 있는데 이는 기존 가이드 필터에 해당하는 결합 양방향 필터가 가이드 영상인 고해상도의 컬러 프레임을 참조하듯이 저해상도 깊이 지도에 상응하는 컬러 프레임으로 획득한 에지 가이드 영상을 참조하여 깊이 지도의 동적 객체 에지 부분의 가중치를 계산함으로써 동적 객체 에지를 보존하는 업샘플링의 과정이기 때문이다.
본 연구는 고해상도, 높은 품질의 깊이 지도와 합성 영상 획득을 위해 결합 양방향 필터를 개선해 잡음 제거와 함께 동적 객체의 에지 화소 값을 보존하는 업샘플링 방법을 제안하고자 저해상도의 깊이 지도에 상응하는 고해상도의 컬러 프레임을 이용해 동적 객체의 에지를 검출하여 획득한 가중치 지도를 깊이 지도 업샘플링 시 동적 객체 에지 보존을 위한 가이드 영상으로 참조, 깊이 지도 내에서 동적 객체의 에지와 아닌 부분을 구별하여 차별적으로 가중치를 적용하였으며 경계 잡음과 계단형 잡음을 개선함으로써 합성 영상의 품질을 향상시키고자 하였다. 그 결과 기존 방법들을 적용한 깊이 지도의 평균 PSNR이 Bilinear는 38.
제안 방법
하지만 이러한 방법들은 여전히 업샘플링을 수행할 때 에지를 원래 화소 분포 특성에 가깝게 보존하는 능력이 미흡하며 사람의 인지적인 특징을 고려하지 않은 업샘플링 방법들이다. 그래서 본 연구는 깊이 지도를 보간한 뒤 결합 양방향 필터를 기반으로 정적인 배경(static background)보다 움직임이 있는 동적 객체(dynamic object)에 더욱 민감하게 반응하는 사람의 인지적인 특징[16]을 고려한 가중치 결합 양방향 필터를 적용하여 깊이 지도의 품질 향상과 중간 시점 합성 영상에 존재하는 잡음을 개선, 최종적으로 깊이 지도의 PSNR과 합성 영상의 시각적인 품질을 개선한 영상 시퀀스에 특화된 깊이 지도 업샘플링 기법을 제안한다.
그래서 본 연구에서는 보간한 깊이 지도에 동적 객체 에지 가이드 영상인 가중치 지도(Weight map), 에지 가중치(Edge weight value), 개선 영역 필터(Domain filter)로 기존 결합 양방향 필터를 변경한 가중치 결합 양방향 필터를 적용하여 기존 업샘플링 방법들의 단점인 업샘플링을 수행할 때 에지가 원래 화소 분포 특성에 가깝게 잘 보존되지 않는 것과 합성 후 깊이 지도와 컬러 프레임의 경계 불일치 때문에 일어나는 경계 잡음, 계단형 잡음을 개선하고자 한다. 본 연구에서 제안하는 방법은 반복적이지 않은 한 번의 필터링으로 수행된다. 결합 양방향 필터를 변경하여 제안하는 가중치 결합 양방향 필터의 식은 다음과 같다.
결합 양방향 필터의 범위 필터 가중치는 가우시안 분포의 특징에 따라 분자인 |C(X) - C(m)|이 작을수록 커지고 반대로 클수록 작아지는데 이는 인접 화소의 값이 현재 계산하는 화소의 값에 영향을 미치는 평활화 정도를 정한다. 이러한 성질을 이용해 본 연구에서는 가중치 지도를 참조하여 현재 계산하는 화소가 MAD 값 기준으로 동적 객체 에지일 때 인접 화소 중 에지 바깥에 있는 인접 화소가 동적 객체 에지 화소 값을 결정하는데 큰 영향을 주지 않도록 에지 가중치를 범위 필터에 적용하여 에지 바깥에 있는 인접 화소의 가중치를 작게 조정함으로써 동적 객체의 에지 화소 값이 에지 바깥에 있는 인접 화소에 의해 덜 평활화 되도록 에지를 보존한다.
2.1에서 2.2에 설명하는 내용을 종합하면 사람이 민감하게 인지하는 동적 객체의 에지를 검출한 가중치 지도를 참조하여 동적 객체의 에지 부분과 아닌 부분을 구별하고 차별적으로 가중치를 주어 잡음 제거 시 주변 화소 값에 의해 평활화되는 동적 객체의 에지 부분 화소 값이 덜 평활화 되도록 한다. 그래서 가우시안 분포 성질을 이용하여 동적 객체의 에지 부분 화소 값의 계산에 관여하는 에지 바깥에 있는 인접 화소 값들의 가중치를 작게 조정하기 위해 에지 가중치를 사용하였다.
2에 설명하는 내용을 종합하면 사람이 민감하게 인지하는 동적 객체의 에지를 검출한 가중치 지도를 참조하여 동적 객체의 에지 부분과 아닌 부분을 구별하고 차별적으로 가중치를 주어 잡음 제거 시 주변 화소 값에 의해 평활화되는 동적 객체의 에지 부분 화소 값이 덜 평활화 되도록 한다. 그래서 가우시안 분포 성질을 이용하여 동적 객체의 에지 부분 화소 값의 계산에 관여하는 에지 바깥에 있는 인접 화소 값들의 가중치를 작게 조정하기 위해 에지 가중치를 사용하였다. 즉, 기존 결합 양방향 필터는 잡음제거를 위해 에지 부분 또한 어느 정도 평활화가 진행되는 데 반해, 제안 방법은 잡음 제거를 수행하면서 동적 객체의 에지 부분에 대한 평활화를 최소화하여 원래 영상에 가까운 깊이 지도 화소 분포 특성을 보존함으로써 기존 방법을 개선하는 것이다.
그래서 가우시안 분포 성질을 이용하여 동적 객체의 에지 부분 화소 값의 계산에 관여하는 에지 바깥에 있는 인접 화소 값들의 가중치를 작게 조정하기 위해 에지 가중치를 사용하였다. 즉, 기존 결합 양방향 필터는 잡음제거를 위해 에지 부분 또한 어느 정도 평활화가 진행되는 데 반해, 제안 방법은 잡음 제거를 수행하면서 동적 객체의 에지 부분에 대한 평활화를 최소화하여 원래 영상에 가까운 깊이 지도 화소 분포 특성을 보존함으로써 기존 방법을 개선하는 것이다.
기존 결합 양방향 필터를 이용하여 합성 영상의 경계 잡음 위치에 해당하는 깊이 지도 내 객체의 에지와 접한 경계 부분 화소 값을 계산할 때, 영역 필터의 유클리디언 거리인 물리적 거리가 가중치를 결정하였으나 본 연구에서는 최근접 화소인 객체의 에지와 인접 화소(최근접 화소보다 먼)인 객체의 에지 안쪽 화소들의 가중치를 크게 받도록 조정하여 화소 값을 결정하기 위해 최근접 화소와 중앙 화소의 거리, 인접 화소와 중앙 화소 간의 거리를 유클리디언 거리보다 가깝게 조정하였다. 그럼으로써 경계 잡음 위치에 해당하는 깊이 지도 내 객체의 에지와 접한 경계 부분 화소값이 최근접 화소인 객체의 에지 화소 값, 인접 화소인 객체의 에지 안쪽 화소 값과 더 큰 공간적 상관도를 갖게 되어, 객체의 에지와 접한 경계 부분 화소 값을 결정하는데 객체의 에지와 객체의 에지 안쪽 화소가 미치는 가중치가 커진다.
Aliasing 현상을 고려하여 저역통과필터를 이용해 깊이 지도를 다운 샘플링 하였고 파라미터는 σd = 0.5, σr = 0.1, 윈도우사이즈는 5로 하였으며 각 시퀀스 당 100프레임의 YUV 시퀀스를 이용하여 실험하였다.
대상 데이터
3D video 표준 Multi view video-plus-depth 시퀀스를 사용하였다. 실험에 사용한 시퀀스는 Dancer(1920 x 1088), Lovebird(1024 x 768), Newspaper(1024 x 768), Gt_fly(1920 x 1088), Poznan_hall2(1920 x 1088)이다. Aliasing 현상을 고려하여 저역통과필터를 이용해 깊이 지도를 다운 샘플링 하였고 파라미터는 σ
이론/모형
가중치 지도는 깊이 지도에 해당하는 컬러 프레임의 MAD(Mean Absolute Difference)를 이용하여 구한다.
3D video 표준 Multi view video-plus-depth 시퀀스를 사용하였다. 실험에 사용한 시퀀스는 Dancer(1920 x 1088), Lovebird(1024 x 768), Newspaper(1024 x 768), Gt_fly(1920 x 1088), Poznan_hall2(1920 x 1088)이다.
성능/효과
이 두 필터의 가중치는 각 화소에 대해 이루어지며 위 식의 결과로써 화소 값이 정해진다. 그 결과 현재 값을 구하려는 화소와 물리적 거리가 가깝고 화소 값의 차가 작은 인접 화소는 현재 값을 구하려는 화소에 큰 가중치로 영향을 미치고 그 반대의 경우 적은 가중치로 현재 값을 구하려는 화소에 영향을 주게 된다. 이는 화소 값이 급격히 변화되는 에지와 에지가 아닌 부분, 평탄한 화소 값을 가지는 같은 객체 내 부분에 따라 에지가 보존되고 평활화로 잡음이 제거되도록 적절한 가중치가 계산되어 화소 단위로 적용되는 것이다.
여기서 기존 방법 적용 가중치, 제안 방법 적용 가중치는 각 방법의 개념에 따른 것이다. 기존 방법 적용 화소 값, 제안 방법 적용화소 값의 윈도우 중앙 흰색 칸의 값이 최종적으로 구해진 값인데 제안한 방법을 이용하여 구한 화소 값이 원 화소 값의 주변 에지와 에지 안쪽에 있는 화소 값들에 가까움을 알 수 있다(중앙 주변의 화소 값들은 중앙 화소 값을 계산하기 위해 가중치가 적용된 값일 뿐 그 자체로 화소 값을 의미하지는 않음). 이는 잡음을 제거하기 위해 평활화를 수행하되 동적 객체 에지가 평활화되어 깊이 지도의 원래 화소 분포 특성이 변경되는 것을 최소화할 수 있음을 보여준다(원래 화소값은 정수, 업샘플링에서는 올림 혹은 반올림을 통해 값이 정해짐).
기존 방법적용 가중치, 제안 방법 적용 가중치는 각 방법의 개념에 따른 것이다. 기존 방법 적용 화소 값, 제안 방법 적용 화소 값의 윈도우 가운데 흰색 칸이 최종적으로 구한 값인데 약 3 정도 기존 방법에 의해 상승하였음을 알 수 있다(중앙 주변의 화소 값들은 중앙 화소 값을 계산하기 위해 가중치가 적용된 값일 뿐 그 자체로 화소 값을 의미하지는 않음). 이는 a 주변 화소 값들이 먼저 필터링이 수행되지 않았을 경우를 계산한 결과이며 왼쪽 위부터 오른쪽으로 차례대로 적용되는 공간 필터의 특성상 그림 6의 b∼m에 먼저 제안한 방법을 적용하고, a 화소 값을 구하기 위해 가중치를 계산하면 최근접 화소인 에지와 값이 더 가까워진다.
이는 a 주변 화소 값들이 먼저 필터링이 수행되지 않았을 경우를 계산한 결과이며 왼쪽 위부터 오른쪽으로 차례대로 적용되는 공간 필터의 특성상 그림 6의 b∼m에 먼저 제안한 방법을 적용하고, a 화소 값을 구하기 위해 가중치를 계산하면 최근접 화소인 에지와 값이 더 가까워진다. 그 결과 결합 양방향 필터 및 기존 업샘플링 방법들보다 경계잡음, 계단형 잡음을 개선하는 것을 실험을 통해 알 수 있다.
Poznan_hall은 깊이 지도를 관찰해보면 Dancer, Gt_fly와는 달리 객체의 세세한 부분보다 큰 에지를 기준으로 화소 값이 평탄한 값으로 이루어진 것을 알 수 있으며 카메라와 객체가 동시에 움직이는 시퀀스이다. 이는 본 논문의 업샘플링 과정에서 동적 객체의 에지 참조를 위한 가중치 지도를 획득할 때 객체만 움직이는 영상의 가중치 지도보다 더 많은 에지가 검출되어 더 많은 동적 객체 에지에 에지 가중치가 적용됨으로써 다른 시퀀스에 비해 PSNR이 눈에 띄게 개선된 것으로 보인다.
이러한 실험 결과 외에 업샘플링 비율을 2로 하여 실험한 최신 업샘플링 연구[15]와 비교하여 시퀀스 Dancer(1920 x 1088), Lovebird1(1024 x 768), Newspaper(1024 x 768), Gt_fly(1920 x 1088)를 PSNR을 이용하여 비교했을 때 기존 업샘플링 방법 대비 약 0.2 %의 미미한 개선 효과를 보였다. 하지만 본 연구가 제안하는 방법은 업샘플링 비율이 2인 결과보다 그 이상의 비율로 업샘플링 하였을 때 더 확실한 효과를 위의 표 1에서 보인다.
실제 저해상도의 깊이 지도의 업샘플링 또한 컬러 프레임에 상응하는 해상도를 얻기 위해 2보다 더 큰 비율로 업샘플링을 수행해야 하므로 본 논문의 실험결과는 의미 있다고 할 수 있다. 제안하는 방법은 VGA, QVGA, CIF, QCIF 등의 포맷을 이용한 결과 기존 업샘플링 기법들보다 수치상으로 뛰어난 효과를 보였으며 위 표에서 다루지 않은 16배 업샘플링 그 이상에서도 효과를 보인다.
본 연구는 고해상도, 높은 품질의 깊이 지도와 합성 영상 획득을 위해 결합 양방향 필터를 개선해 잡음 제거와 함께 동적 객체의 에지 화소 값을 보존하는 업샘플링 방법을 제안하고자 저해상도의 깊이 지도에 상응하는 고해상도의 컬러 프레임을 이용해 동적 객체의 에지를 검출하여 획득한 가중치 지도를 깊이 지도 업샘플링 시 동적 객체 에지 보존을 위한 가이드 영상으로 참조, 깊이 지도 내에서 동적 객체의 에지와 아닌 부분을 구별하여 차별적으로 가중치를 적용하였으며 경계 잡음과 계단형 잡음을 개선함으로써 합성 영상의 품질을 향상시키고자 하였다. 그 결과 기존 방법들을 적용한 깊이 지도의 평균 PSNR이 Bilinear는 38.23dB, Bicubic은 38.42dB, 결합 양방향 업샘플링은 39.50dB인 것에 비교하여 제안하는 방법은 40.13dB로 개선되었다. 또한, 합성 영상의 시각적 품질 측면에서도 더욱 자연스러운 합성 영상을 얻을 수 있음을 위에서 보였다.
또한, 합성 영상의 시각적 품질 측면에서도 더욱 자연스러운 합성 영상을 얻을 수 있음을 위에서 보였다. 특히, 카메라와 객체가 동시에 움직이는 실사 프레임으로 이루어진 영상에 대한 4배 이상의 업샘플링에서 효과적이었다는 점과 반복적이지 않은 한 번의 공간 필터링으로 깊이 지도의 에지 보존과 잡음 제거, 가상시점 합성 시 잡음을 개선했다는 이점을 가진다. 이러한 결과는 사람이 인지하는 가상시점 합성 영상의 품질을 향상해 줄 것으로 기대된다.
후속연구
특히, 카메라와 객체가 동시에 움직이는 실사 프레임으로 이루어진 영상에 대한 4배 이상의 업샘플링에서 효과적이었다는 점과 반복적이지 않은 한 번의 공간 필터링으로 깊이 지도의 에지 보존과 잡음 제거, 가상시점 합성 시 잡음을 개선했다는 이점을 가진다. 이러한 결과는 사람이 인지하는 가상시점 합성 영상의 품질을 향상해 줄 것으로 기대된다. 추후 연구로 능동적, 수동적 방법으로 직접 획득한 깊이 지도에 적용하여 검증과 보완하는 연구가 필요하다.
이러한 결과는 사람이 인지하는 가상시점 합성 영상의 품질을 향상해 줄 것으로 기대된다. 추후 연구로 능동적, 수동적 방법으로 직접 획득한 깊이 지도에 적용하여 검증과 보완하는 연구가 필요하다.
질의응답
핵심어
질문
논문에서 추출한 답변
스테레오스코픽이 이제야 활발히 활용되는 이유는 무엇인가?
사람은 양안시차에 의해 눈앞의 3차원 공간에 대한 입체감을 인식하는데 이러한 양안시차의 원리를 기반으로 3D 영상을 획득하여 이용자에게 영상의 입체감을 느낄 수 있도록 하는 방법이 스테레오스코픽(stereoscopic)이다. 최초로 고안된 지 오랜 시간이 흘렀지만 이제야 활발히 활용되는 이유는 첫 번째, 이용자를 만족하게 할 3D 콘텐츠가 양적으로 부족하였고 두 번째 어지러움, 눈의 피로 현상 등 시각적 문제의 발생으로 인한 장시간 시청의 어려움, 세 번째 이용자의 기대에 미치지 못하는 낮은 해상도 문제를 들 수 있다. 그러나 이러한 문제들은 디스플레이 하드웨어와 소프트웨어의 발전, 비디오의 저장 및 전송 기술의 진보, UN 산하 전기통신에 관한 국제 표준화 기구 ITU-T(International Telecommunication Union-Telecommunication Standardization Sector, 국제 전기통신 연합-전기통신 표준화 부분)와 MPEG 계열 ISO/IEC의 최신 비디오 압축 표준 작업과 맞물려 데이터의 고해상도화, 고속전송, 고압축률의 부호화 기술, 높은 사양의 기기가 대중화되는 등의 여러 요인으로 인해 다양한 3D 콘텐츠를 실시간으로 제공할 수 있는 발판이 마련됨으로써 해결되고 있다.
스테레오스코픽(stereoscopic)은 무엇인가?
3D 영상의 원리는 사람의 좌우 눈에 투영되는 객체의 시각차인 양안시차의 원리와 같다. 사람은 양안시차에 의해 눈앞의 3차원 공간에 대한 입체감을 인식하는데 이러한 양안시차의 원리를 기반으로 3D 영상을 획득하여 이용자에게 영상의 입체감을 느낄 수 있도록 하는 방법이 스테레오스코픽(stereoscopic)이다. 최초로 고안된 지 오랜 시간이 흘렀지만 이제야 활발히 활용되는 이유는 첫 번째, 이용자를 만족하게 할 3D 콘텐츠가 양적으로 부족하였고 두 번째 어지러움, 눈의 피로 현상 등 시각적 문제의 발생으로 인한 장시간 시청의 어려움, 세 번째 이용자의 기대에 미치지 못하는 낮은 해상도 문제를 들 수 있다.
깊이 지도가 영상의 깊이정보를 가지고 있는 이유는 무엇인가?
3D 영상의 획득을 위해 이용하는 깊이 지도는 영상의 깊이 정보를 가지고 있다. 그러나 일반적으로 고해상도이며 잡음이 제거된 고화질의 깊이 지도를 카메라로부터 직접 획득하는 것은 어렵다.
참고문헌 (18)
W. S. Cheong, K. J. Yun, G. Bang, G. S. Lee, and N. H. Hur, "A trend of multiview 3DTV technologies and standardization," Etri. Electron. Telecommun. Trends, vol. 29, issue. 3, pp. 17- 26, Jun. 2014.
Y. S. Ho, "Improve quality of the depth-map upsampling technology," Broadcasting & Technol. Mag., vol. 215, pp. 158-163, Nov. 2013.
R. Cheng and K. Nahrstedt, "Empirical study of 3d video source coding for autostereoscopic displays," in Proc. ACM. Conf. Multimedia, pp. 573-576, Augsburg, Germany, Sept. 2007.
C. Fehn, "Depth-image-based rendering (DIBR), compression and transmission for a new approach on 3D-TV," in Proc. SPIE. Conf. Stereoscopic Displays and Virtual Reality Systems XI, pp. 93-104, San Jose, CA, USA, May 2004.
K. Muller, P. Merkle, and T. Wiegand, "3-D video representation using depth maps," in Proc. IEEE., vol. 99, no. 4, pp. 643-656, Apr. 2011.
S. B. Lee and Y. S. Ho, "Real-time eye contact system using a kinect depth camera for realistic telepresence," J. KICS., vol. 37C, no. 4, pp. 277-282, May 2012.
J. H. Kim, J. W. Choi, and K. H. Son, "Depth map resolution and quality enhancement based on edge preserving interpolation," in Proc. KSBE Conf., pp. 8-10, Seoul, Korea, Nov. 2011.
J. W. Choi, D. B. Min, B. S. Ham, and K. H. Sohn, "Spatial and temporal up-conversion technique for depth video," in Proc. IEEE Conf. Image Processing, pp. 3525-3528, Cairo, Egypt, Nov. 2009.
X. Zhu, X. Song, and X. Chen, "Image guided depth map upsampling using anisotropic TV-L2," IEEE Signal Process. Lett., vol. 22, pp. 318-321, Mar. 2015.
C. Tomasi and R. Manduchi, "Bilateral filtering for gray and color images," in Proc. IEEE Conf. Computer Vision, pp. 839-846, Bombay, India, Jan. 1998.
S. Paris, P. Kornprobst, J. Tumblin, and F. Durand, "Bilateral filtering : Theory and applications," Foundations and Trends in Computer Graphics and Vision, vol. 4, no. 1, 2008.
G. Petschnigg, R. Szeliski, M. Agrawala, M. Cohen, H. Hoppe, and K. Toyama, "Digital photography with flash and no-flash image pairs," ACM Trans. Graph, vol. 23, no. 3, pp. 664-672, Aug. 2004.
J. H. Kim, G. G. Jeon, and J. C. Jeong, "Joint-adaptive bilateral depth map upsampling," Elsevier, Signal Processing- Image Commun., vol. 29, no. 4, pp. 506-513, Apr. 2014.
T. W. Kim, J. H. Kim, M. W. Park, and J. T. Shin, "Hybrid down-sampling method of depth map based on moving objects," J. KICS., vol. 37A, no. 11, pp. 918-926, Nov. 2012.
M. S. Ko and J. S. Yoo, "Boundary noise removal and hole filling algorithm for virtual viewpoint image generation," J. KICS., vol. 37A, no. 8, pp. 679-688, Aug. 2012.
T. W. Bae and Y. T. Kim, "Small target detection method using bilateral filter based on surrounding statistical feature," J. Korea Multimedia Soc., vol. 16, No. 6, pp. 756-763, Jun. 2013.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.