본 논문에서는 시간적, 공간적 경계 정보를 이용한 이동 객체의 윤곽선 검출 방법을 제안한다. 일반적으로 이동 객체의 경우 객체의 윤곽선(contour)을 구성하는 경계(edge) 픽셀에서 시간 축과 공간 축을 중심으로 큰 변화량(gradient)을 가진다. 따라서 시간 축과 공간 축을 중심으로 변화량이 큰 경계 픽셀을 구하면 이동 객체의 윤곽선을 검출할 수 있다. 본 논문에서는 임의의 픽셀에 대하여 시간 축을 중심으로 한 경계 정보를 구하기 위해 Temporal Edge라는 새로운 형태의 변화량 계산 방법을 제안한다. Temporal Edge는 시간 t와, t-2에서 입력된 두 그레이 스케일 영상의 차를 시간 축을 기준으로 x방향, y방향으로 Sobel Mask를 적용하여 구한다. 검출된 Temporal Edge를 이용하여 이동 객체의 윤곽선이 존재하는 후보 영역을 검출하고, 검출된 후보 영역을 중심으로 공간적 경계 정보를 구하여 이동 객체의 대강의 윤곽선을 검출 한다. 후처리 과정에서 검출된 대강의 윤곽선으로부터 배경 경계와 노이즈 픽셀을 제거한 후 최종적으로 이동 객체의 윤곽선을 검출한다. 제안한 방법은 기존의 배경 차 방법과는 다르게 별도의 배경 영상을 만들지 않기 때문에 배경 차 방법이 가지는 문제점을 극복하였으며, 빠른 연산 속도로 실시간 적용이 가능하다. 실험을 통하여 야간에도 강인한 윤곽선을 검출할 수 있음을 확인하였고, 엔트로피 방법과의 비교를 통해 제안하는 방법의 우수성을 보였다.
본 논문에서는 시간적, 공간적 경계 정보를 이용한 이동 객체의 윤곽선 검출 방법을 제안한다. 일반적으로 이동 객체의 경우 객체의 윤곽선(contour)을 구성하는 경계(edge) 픽셀에서 시간 축과 공간 축을 중심으로 큰 변화량(gradient)을 가진다. 따라서 시간 축과 공간 축을 중심으로 변화량이 큰 경계 픽셀을 구하면 이동 객체의 윤곽선을 검출할 수 있다. 본 논문에서는 임의의 픽셀에 대하여 시간 축을 중심으로 한 경계 정보를 구하기 위해 Temporal Edge라는 새로운 형태의 변화량 계산 방법을 제안한다. Temporal Edge는 시간 t와, t-2에서 입력된 두 그레이 스케일 영상의 차를 시간 축을 기준으로 x방향, y방향으로 Sobel Mask를 적용하여 구한다. 검출된 Temporal Edge를 이용하여 이동 객체의 윤곽선이 존재하는 후보 영역을 검출하고, 검출된 후보 영역을 중심으로 공간적 경계 정보를 구하여 이동 객체의 대강의 윤곽선을 검출 한다. 후처리 과정에서 검출된 대강의 윤곽선으로부터 배경 경계와 노이즈 픽셀을 제거한 후 최종적으로 이동 객체의 윤곽선을 검출한다. 제안한 방법은 기존의 배경 차 방법과는 다르게 별도의 배경 영상을 만들지 않기 때문에 배경 차 방법이 가지는 문제점을 극복하였으며, 빠른 연산 속도로 실시간 적용이 가능하다. 실험을 통하여 야간에도 강인한 윤곽선을 검출할 수 있음을 확인하였고, 엔트로피 방법과의 비교를 통해 제안하는 방법의 우수성을 보였다.
In this paper, we propose a new method for detection moving object contour using spatial and temporal edge. In general, contour pixels of the moving object are likely present around pixels with high gradient value along the time axis and the spatial axis. Therefore, we can detect the contour of the ...
In this paper, we propose a new method for detection moving object contour using spatial and temporal edge. In general, contour pixels of the moving object are likely present around pixels with high gradient value along the time axis and the spatial axis. Therefore, we can detect the contour of the moving objects by finding pixels which have high gradient value in the time axis and spatial axis. In this paper, we introduce a new computation method, termed as temporal edge, to compute an gradient value along the time axis for any pixel on an image. The temporal edge can be computed using two input gray images at time t and t-2 using the Sobel operator. Temporal edge is utilized to detect a candidate region of the moving object contour and then the detected candidate region is used to extract spatial edge information. The final contour of the moving object is detected using the combination of these two edge information, which are temporal edge and spatial edge, and then the post processing such as a morphological operation and a background edge removing procedure are applied to remove noise regions. The complexity of the proposed method is very low because it dose not use any background scene and high complex operation, therefore it can be applied to real-time applications. Experimental results show that the proposed method outperforms the conventional contour extraction methods in term of processing effort and a ghost effect which is occurred in the case of entropy method.
In this paper, we propose a new method for detection moving object contour using spatial and temporal edge. In general, contour pixels of the moving object are likely present around pixels with high gradient value along the time axis and the spatial axis. Therefore, we can detect the contour of the moving objects by finding pixels which have high gradient value in the time axis and spatial axis. In this paper, we introduce a new computation method, termed as temporal edge, to compute an gradient value along the time axis for any pixel on an image. The temporal edge can be computed using two input gray images at time t and t-2 using the Sobel operator. Temporal edge is utilized to detect a candidate region of the moving object contour and then the detected candidate region is used to extract spatial edge information. The final contour of the moving object is detected using the combination of these two edge information, which are temporal edge and spatial edge, and then the post processing such as a morphological operation and a background edge removing procedure are applied to remove noise regions. The complexity of the proposed method is very low because it dose not use any background scene and high complex operation, therefore it can be applied to real-time applications. Experimental results show that the proposed method outperforms the conventional contour extraction methods in term of processing effort and a ghost effect which is occurred in the case of entropy method.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 논문에서는 시간적, 공간적 경계 정보를 이용한 이동 객체 윤곽선 검출 방법을 제안 하였다. 제안한 방법은 시간 t와 t-2에서 입력되는 영상을 이용하여 시간적 경계 정보를 추출하였으며, 시간 t에서 입력되는 영상에서 Canny Edge를 검출하여 공간적 경계 정보로 활용하였다.
배경 영상을 활용하는 방법과는 달리 시공간적 경계 정보만을 추출하기 때문에 별도의 배경 이미지를 만들지 않아 배경 영상법이 가지고 있는 단점을 효율적으로 극복할 수 있다. 본 논문에서는 이러한 장점을 활용하여 시공간 경계정보를 이용한 이동물체 검출 방법을 제안한다. 본 논문에서는 임의의 픽셀에 대하여 시간 축을 중심으로 한시간적 경계 정보를 구하기 위해 Temporal Edge라는 새로운 형태의 변화량 계산 방법을 제안한다.
본 논문에서는 이러한 장점을 활용하여 시공간 경계정보를 이용한 이동물체 검출 방법을 제안한다. 본 논문에서는 임의의 픽셀에 대하여 시간 축을 중심으로 한시간적 경계 정보를 구하기 위해 Temporal Edge라는 새로운 형태의 변화량 계산 방법을 제안한다. Temporal Edge는 시간 t와, t-2에서 입력된 두 그레이 스케일 영상의 차를 시간 축을 기준으로 x방향, y방향으로 Sobel Mask를 적용하여 구한다.
본 논문은 시간적 경계 정보를 검출하기 위해 새로운 변화량 계산 방법인 Temporal Edge를 제안했다는 점에서 그의의가 있다고 하겠다. 시간 t를 중심으로 한 3개의 이미지와 차 영상만으로 구성되어 연산속도가 매우 빨라 실시간 응용이 가능하다.
서론에서 우리는 배경 영상을 사용하는 기존 방법에 대해 잔상효과의 문제점을 지적 했었다. 즉, 배경 영상을 사용하는 기존 방법의 경우 아주 천천히 움직이는 객체나 오랜 시간 정지해 있는 객체는 배경으로 포함되어 모델링 되고 이후 이 객체가 다시 움직일 경우 배경 영상에 잔상으로 남아 있게 되어 이동 객체로 잘못 검출되는 문제가 있다.
시공간적 경계 정보 추출은 1989년대부터 많이 연구된 분야이야. 여기에서는 시공간적 경계 정보를 추출하는 다양한 방법들에 대해 고찰하고자 한다.
가설 설정
1에서 추출한 Temporal Edge #를 활용한다. 서론에서 우리는 이동 객체의 윤곽선을 구성하는 픽셀의 경우 시간적, 공간적 축을 중심으로 높은 변화량(gradient)을 가진다고 가정했었다. Ⅲ.
그림 6은 이동 객체에 대한 대강의 윤곽선 검출 결과이다. 서론에서 우리는, 이동 객체의 윤곽선은 공간적으로나 시간적으로 변화량이 큰 부분에 존재 한다고 가정했었다. 그림 6에서 보듯이 이동 객체에 대한 대강의 윤곽선이 Temporal Edge와 Spatial Edge가 동시에 큰 부분에서 검출 됨에 따라 이 가정이 정당함을 확인 할 수 있다.
제안 방법
Stein 기준 픽셀 (x, y, t)를 중심으로 기준 픽셀이 포함된 구형의 패치 분절(구형 패치가 일정 간격으로 나눠진 부분)내의 픽셀에 대한 (θs, θt)쌍으로 시공간적 경계정보를 표현하였다.
시간적 경계 정보를 추출하기 위해 Sobel Mask를 이용한 새로운 형태의 시간적 경계 정보 검출 방법인 Temporal Edge를 제안하였다. Temporal Edge로부터 검출된 시간적 경계 정보를 이동 객체의 윤곽선이 존재하는 후보 영역으로 사용하였으며, 공간적 경계 정보를 이용하여 최종적인 이동 객체의 윤곽선을 검출 하였다. 시간 t에서 검출한 시간적 경계 정보를 확률적으로 누적하여 배경 경계 정보를 생성하고 이를 이용하여 최종 윤곽선에 포함되어 있는 배경 경계를 제거 하였다.
따라서 배경 경계 픽셀 제거와 노이즈 픽셀 제거를 위한 후처리 과정이 필요하다. Ⅲ.4절에서 생성한 배경 경계 정보를 이용하여 대강의 윤곽선으로부터 배경 경계 픽셀에 해당하는 픽셀을 제거하여 최종적은 이동 객체의 윤곽선을 검출한다. 또한 주변에 이동 객체의 윤곽선이 존재하지 않는 점 픽셀을 노이즈 픽셀로 간주하고 이를 제거한다.
가우시안 함수의 이차 도함수를 시간 t와 t-1인 이미지에 적용하여 두값의 곱이 음수인 부분을 픽셀 변화량이 발생한 부분이라고 간주하고 이를 중심으로 시간적 경계정보를 검출하였다.
제안된 Temporal Edge는 알고리즘의 초기 단계에서 이동 객체의 윤곽선이 존재하는 후보 영역을 검출하는데 활용된다. 검출된 후보 영역에 속하는 픽셀들을 중심으로 공간적 경계 정보를 추출하고, 이로부터 이동 객체의 대강의 윤곽선을 검출한다. 그러나 이렇게 검출된 대강의 윤곽선에는 우리가 원하지 않는 배경 경계와 노이즈 성분이 포함되어 있다.
따라서 매 시간 ?에서 검출한 공간적 경계 정보 SEt상에서 동일한 위치에서 나타날 확률이 높다. 따라서 공간적 경계 정보 SEt에서 반복적으로 나타나는 경계 픽셀에 대해 연속적으로 검출되는 횟수를 누적하여 배경 경계 정보 BGSEt를 생성한다. 시간 t-1에서 SEt-1상에서의 임의의 픽셀이 공간적 경계 픽셀인 경우 시간 t에서 다시 이 픽셀이 공간적 경계로 나타나게 되면 이는 배경 경계 픽셀일 확률이 높으므로 누적 횟수를 1 증가 시키고 반대로 공간적 경계로 나타나지 않는 경우 누적 횟수를 1 감소시킨다.
그러나 이렇게 검출된 대강의 윤곽선에는 우리가 원하지 않는 배경 경계와 노이즈 성분이 포함되어 있다. 따라서 모폴로지(morphology) 연산과 배경에지 제거법과 같은 후처리 과정을 통해 노이즈를 제거한 후 최종적인 이동 객체의 윤곽선을 검출한다.
또한 시간 t에서의 엔트로피와 시간 t-1에서의 엔트로피간의 상호 관계를 크로스엔트로피 개념을 이용하여 정의한 후 이를 공간적 변화량으로 활용하였다.
배경 영상을 생성하는 기존 방법의 문제점을 극복하기 위해 배경 영상을 생성하지 않고, ft영상만으로 이동 객체의 윤곽선을 검출한다.
본 논문에서 제안하는 이동 객체 윤곽선 검출 방법은 현재 시간 t에서 입력되는 영상 ft만을 사용한다는데 그 특징이 있다. 배경 영상을 생성하는 기존 방법의 문제점을 극복하기 위해 배경 영상을 생성하지 않고, ft영상만으로 이동 객체의 윤곽선을 검출한다.
배경 영상을 생성하는 기존 방법의 문제점을 극복하기 위해 배경 영상을 생성하지 않고, ft영상만으로 이동 객체의 윤곽선을 검출한다. 본 논문에서 제안하는 이동 객체의 윤곽선 검출 방법은 크게 세 가지 부분으로 나누어진다. 첫 번째 부분은 현재 시간 t에서 입력되는 영상 ft를이용하여 이동 객체의 윤곽선이 존재하는 후보 영역을 검출하기 위해 Temporal Edge를 구하는 단계이다.
따라서 이 두 값이 동시에 높은 픽셀들을 추출하면 이동 객체의 윤곽선을 검출 할 수 있다. 본 논문에서는 Temporal Edge를 이동 객체의 윤곽선이 존재하는 후보 영역으로 삼아, Temporal Edge에 속하는 임의의 픽셀을 중심으로 그 주변(본 논문에서는 5x5 window 영역 내)에 존재하는 Spatial Edge 픽셀을 검출하여 이동 객체에 대한 대강의 윤곽선(rough contour) REt검출한다. 여기서 “대강의”라고 명시한 이유는 이 단계에서 검출된 윤곽선을 후처리 과정을 거친 최종 윤곽선과 구분하기 위해서 이다.
Temporal Edge로부터 검출된 시간적 경계 정보를 이동 객체의 윤곽선이 존재하는 후보 영역으로 사용하였으며, 공간적 경계 정보를 이용하여 최종적인 이동 객체의 윤곽선을 검출 하였다. 시간 t에서 검출한 시간적 경계 정보를 확률적으로 누적하여 배경 경계 정보를 생성하고 이를 이용하여 최종 윤곽선에 포함되어 있는 배경 경계를 제거 하였다. 다양한 실험 영상을 통해 제안한 방법의 우수성을 검증 하였다.
제안한 방법은 시간 t와 t-2에서 입력되는 영상을 이용하여 시간적 경계 정보를 추출하였으며, 시간 t에서 입력되는 영상에서 Canny Edge를 검출하여 공간적 경계 정보로 활용하였다. 시간적 경계 정보를 추출하기 위해 Sobel Mask를 이용한 새로운 형태의 시간적 경계 정보 검출 방법인 Temporal Edge를 제안하였다. Temporal Edge로부터 검출된 시간적 경계 정보를 이동 객체의 윤곽선이 존재하는 후보 영역으로 사용하였으며, 공간적 경계 정보를 이용하여 최종적인 이동 객체의 윤곽선을 검출 하였다.
Heyden은 Prewitt Gradient를 활용하여 공간적 경보를 추출하고, 이 때 발생하는 공간적 틈(gaps)을 시간적 경계 정보를 활용하여 보완하였다. 연속적으로 입력되는 이미지간의 상호 관계를 통하여 시간적 경계정보를 추출하고, 경계 개선(edge enhancement), 경계 연결(edge linking)등의 기법을 통해 이를 개선하였다. 개선된 시간적 경계정보는 공간적 경계정보의 틈을 보완하는데 활용되었고 이러한 시공간적 경계정보의 상호 조합을 통해 이미지 분할을 효과적으로 구현하였다.
은 piecewise planar (linear) function을 이용하여 이미지를 모델링 하고 이를 기반으로 이미지를 픽셀의 값에 대해 변화량이 큰 부분과 변화량이 작은 부분으로 구분하고 변화량이 큰 부분을 중심으로 시간적 경계정보를 추출하였다. 이 방법은 시간 축을 이용하여 분석할 때 흔히 이용되는 옵티컬플로워(optical flow)를 구하지 않고, 단지 시간의 순서대로 입력되는 이미지 시퀀스의 2차원 미분을 통하여 시간 축 t를 기준으로 이차원 미분한 값이 제로(zero)가 아닌 위치를 중심으로 이동 물체의 경계를 추출하였다.
후보 영역을 먼저 검출하는 이유는 윤곽선을 검출하기 위해 영상 전체를 검색하기 보다는 윤곽선이 존재하는 후보 영역을 먼저 검출하고 그 후보 영역에서 윤곽선을 검출함으로써 연산 량을 줄어 속도를 빠르게 할 수 있기 때문이다. 이동 객체의 윤곽선이 존재하는 후보 영역을 검출하기 위해 시간 축을 중심으로한 새로운 형태의 변화량 계산법인 Temporal Edge를 제안한다. Temporal Edge는 Spatial Edge와 대응되는 용어로써 기존에 공간상에서 에지 연산자를 이용하여 추출한 경계 정보를 Spatial Edge라고 하면, 이와 유사한 개념으로 시간 상에서 에지 연산자를 이용하여 추출한 경계 정보를 Temporal Edge라 칭하기로 한다.
또한 시간 t에서의 엔트로피와 시간 t-1에서의 엔트로피간의 상호 관계를 크로스엔트로피 개념을 이용하여 정의한 후 이를 공간적 변화량으로 활용하였다. 이두 변화량의 조합으로 시공간적 경계 정보를 추출하였다.
즉 tp는 제안된 방법을 통해 검출된 이동 객체의 윤곽선 픽셀들 중, GT(ground truth) 이미지 상의 실제 이동 객체의 윤곽선 픽셀과 위치가 일치하는 픽셀의 개수를 말한다. 이때 GT는 그림 9의 각 실험 영상에서 물체의 이동이 있는 하나의 구간에 대해 100장의 연속된 이미지를 추출하고 이를 기반으로 수작업으로 이동 객체의 윤곽선에 해당하는 픽셀을 표시하여 이진(binary) 영상을 만들었다. fp는 제안된 방법을 통해 이동 객체의 윤곽선 픽셀로 검출되었으나 GT 이미지 상에는 실제 이동 객체의 윤곽선 픽셀이 아닌 픽셀의 수를 말한다.
이미지 상에서 물체가 움직일 경우 x, y축을 중심으로 공간상의 변화가 발생하고 이 변화는 x축에 대한 y축의 각도의 변화 θs로 나타내었으며, 이를 공간상의 변화정보로 활용하였다.
은 엔트로피(entropy)와 크로스엔트로피(cross-entropy) 개념을 이용하여 시공간적 경계정보를 추출하였다. 임의의 픽셀을 중심으로 주변 픽셀과의 밝기 변화량을 엔트로피의 개념을 이용하여 구하고 이를 공간적 경계 정보로 활용하였다. 또한 시간 t에서의 엔트로피와 시간 t-1에서의 엔트로피간의 상호 관계를 크로스엔트로피 개념을 이용하여 정의한 후 이를 공간적 변화량으로 활용하였다.
제안한 방법은 시간 t와 t-2에서 입력되는 영상을 이용하여 시간적 경계 정보를 추출하였으며, 시간 t에서 입력되는 영상에서 Canny Edge를 검출하여 공간적 경계 정보로 활용하였다.
대상 데이터
제안한 방법은 Intel Core2 2.4 GHz 환경에서 Visual C++ 2008을 이용하여 구현하였으며, 실험 영상은 320x240 크기의 다양한 실외 환경에서 촬영된 영상을 사용 하였다. 그림 9는 실험에 사용된 영상들로 다양한 환경에서 촬영된 실외 영상들로 구성되어 있다.
데이터처리
제안한 방법의 검출 성능을 평가하기 위해 Precision 과 Recall을 이용하였다. Precision과 Recall은 정확도를 평가하는 척도로서 널리 알려진 방법이다.
이론/모형
카메라로부터 연속적으로 입력되는 매 영상마다 Canny Edge[11]를 검출하여 이를 Spatial Edge 정보로 활용한다. 그림 5는 검출된 Spatial edge 정보 SEt의 예를 보인 것이다.
성능/효과
표 2에서 보듯이 제안한 방법은 다양한 실외 환경에 대해 이동 객체의 윤곽선 검출 정확도가 높음을 볼 수 있다. (c) 비디오의 경우 이동 객체의 뭉침 정도가 많고 이동 객체의 양이 많아 제안한 방법으로 검출한 윤곽선의 검출 정확도가 다소 떨어짐을 볼 수 있다.
엔트로피를 이용한 이동 객체 윤곽선 검출방법은 중심 픽셀 주변의 밝기 변화를 확률적으로 모델링하기 때문에 주변 픽셀의 밝기 변화가 크기 않은 경우에는 윤곽선 검출이 잘 안됨을 볼 수 있다. 그러나 제안하는 방법은 중심 픽셀과 주변 픽셀과의 밝기 차를 3차원으로 고려하기 때문에 이동 객체의 윤곽, 즉 픽셀의 밝기의 변화량이 큰 부분에서 강인한 윤곽선이 검출됨을 볼 수 있다.
또한 Temporal Edge를 통해 추출되는 시간 축에 따른 이미지 픽셀의 변화량 정보는 연속적인 이미지에서의 이동 물체를 검출하는 다른 어플리케이션에서 다양하게 활용이 가능하여, 그 활용도가 높다고 할 수 있다. 그러나 제안한 방법은 고정 카메라만을 고려하여, 카메라가 움직이는 상황에 대해 취약함을 드러낸다. 따라서 카메라가 움직이는 상황에도 이동 물체의 윤곽선을 검출 할 수 있는 연구가 필요하다.
특히 동일한 장소에서 밝기가 서로 다른 영상을 취득하여 밝기 변화에도 강인하게 이동 객체의 윤곽선을 검출할 수 있었다. 배경 영상을 생성하지 않아 잔상효과를 제거할 수 있었으며, 엔트로피 방법과의 비교를 통해 제안한 방법이 우수한 것을 확인할 수 있었다.
본 논문에서 제안한 이동 객체 윤곽선 검출 방법의 결과를 검증하기 위해 엔트로피를 이용한 방법[6]을 이용하여 성능을 비교한 결과가 그림 12에 나와 있다. 이 결과들을 보면 다른 방법들에 비해 제안한 방법이 이동 객체 윤곽선을 강인하게 검출함을 볼 수 있다. 엔트로피를 이용한 이동 객체 윤곽선 검출방법은 중심 픽셀 주변의 밝기 변화를 확률적으로 모델링하기 때문에 주변 픽셀의 밝기 변화가 크기 않은 경우에는 윤곽선 검출이 잘 안됨을 볼 수 있다.
제안한 방법은 밝기의 변화에도 강인하게 이동 객체의 윤곽선을 검출 할 수 있음을 실험을 통해 확인할 수 있었다. 그림 9의 (e) 비디오 클립에 대해 동일한 장소에서 서로 다른 시간대를 이용하여 밝기의 변화가 다른 실험 영상을 취득하였다.
다양한 실험 영상을 통해 제안한 방법의 우수성을 검증 하였다. 특히 동일한 장소에서 밝기가 서로 다른 영상을 취득하여 밝기 변화에도 강인하게 이동 객체의 윤곽선을 검출할 수 있었다. 배경 영상을 생성하지 않아 잔상효과를 제거할 수 있었으며, 엔트로피 방법과의 비교를 통해 제안한 방법이 우수한 것을 확인할 수 있었다.
표 2는 그림 9의 실험 영상에 대한 이동 객체 윤곽선 검출의 정확도에 대한 평균값을 나타낸 것이다. 표 2에서 보듯이 제안한 방법은 다양한 실외 환경에 대해 이동 객체의 윤곽선 검출 정확도가 높음을 볼 수 있다. (c) 비디오의 경우 이동 객체의 뭉침 정도가 많고 이동 객체의 양이 많아 제안한 방법으로 검출한 윤곽선의 검출 정확도가 다소 떨어짐을 볼 수 있다.
후속연구
시간 t를 중심으로 한 3개의 이미지와 차 영상만으로 구성되어 연산속도가 매우 빨라 실시간 응용이 가능하다. 또한 Temporal Edge를 통해 추출되는 시간 축에 따른 이미지 픽셀의 변화량 정보는 연속적인 이미지에서의 이동 물체를 검출하는 다른 어플리케이션에서 다양하게 활용이 가능하여, 그 활용도가 높다고 할 수 있다. 그러나 제안한 방법은 고정 카메라만을 고려하여, 카메라가 움직이는 상황에 대해 취약함을 드러낸다.
질의응답
핵심어
질문
논문에서 추출한 답변
지능형 영상 보안 시스템이란 무엇인가?
최근 늘어나는 강력 범죄로 인하여 보안에 대한 요구가 증가함에 따라 CCTV나 카메라와 같은 영상 장비를 활용한 지능형 영상 보안 시스템의 개발이 중요한 연구 분야로 대두되고 있다[1]. 지능형 영상 보안 시스템이란 영상 장비로부터 입력되는 영상으로부터 이동 객체의 정보를 자동으로 추출하고, 이 정보를 바탕으로 이동 객체의 움직임 정보나 이동 경로를 자동으로 검출하여 비정상적인 행위에 대해서 경보를 알려 줌으로써 인간을 대신하여 감시 역할을 수행할 수 있는 자동화 된 시스템을 말한다. 지능형 영상 보안 시스템의 가장 기본이 되는 기능은 영상 장비로부터 입력되는 영상에서 자동으로 이동 객체를 검출하는 것이다.
이동 객체의 특징은 무엇인가?
본 논문에서는 시간적, 공간적 경계 정보를 이용한 이동 객체의 윤곽선 검출 방법을 제안한다. 일반적으로 이동 객체의 경우 객체의 윤곽선(contour)을 구성하는 경계(edge) 픽셀에서 시간 축과 공간 축을 중심으로 큰 변화량(gradient)을 가진다. 따라서 시간 축과 공간 축을 중심으로 변화량이 큰 경계 픽셀을 구하면 이동 객체의 윤곽선을 검출할 수 있다.
배경 영상 차 방법의 단점은 무엇인가?
외부 조명의 변화가 심하지 않은 상황에서 배경 영상이 잘 유추 되었을 경우 이 방법은 뛰어난 검출 결과를 보인다. 그러나 자연광이나 인공조명등의 외부 요인에 의해 갑작스러운 조명 변화가 있을 경우 신뢰성 있는 배경 영상이 생성되기 어렵기 때문에 검출 성능이 저하된다는 단점이 있다. 신뢰성 있는 배경을 유추하기 위해서는 다양한 형태의 부가적인 연산이 포함되게 되고 결국 많은 연산 량을 필요로 하게 되므로 속도가 느려진다는 단점도 있다. 또한 배경 영상 유추 단계에서, 장시간 정지 상태에 있는 객체의 경우 배경 영상으로 간주되어 배경 영상이 만들어 지며, 이객체가 다시 움직일 경우 객체가 배경으로 모델링 된 부분이 잘못 검출되는 잔상효과가 나타난다. 잔상효과는 배경 차이 기법이 가지고 있는 가장 큰 문제 중에 하나이다.
참고문헌 (11)
유장희, 문기영, 조현숙, "지능형 영상보안 기술현황 및 동향", 전자통신동향분석, 제23권, 제4호, pp.80-88, 2008년, 8월
I. Hariataoglu, D. Harwood, and L. Davis, "W4: A real time surveillance of people and their activities," Proc. IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 22, no. 8, pp. 809-830, 2000
C. Stauffer and W. Grimson, "Adaptive background mixture models for real-time tracking," Proc. Computer Vision and Pattern Recognition, pp. 246-252, 1999
A. Elgammal, D. Harwood, and L.S. Davis, "Non-parametric model for background subtraction," Proc. European Conference Computer Vision, vol. 2, pp. 751-767, 2000
A. N. Stein and M. Herbert, "Local Detection of Occlusion Boundaries in Video," IVC(27), No. 5, 2 pp. 514-522, 2009
S. H. Kim, "A Novel Approach to Moving Edge Detection Using Cross Entropy," GVIP05, pp. 21-24, 2005
W. Chen and N. Nandhakumar, "A Simple scheme for motion boundary detection," Proc. IEEE Inter Conf. on Systems, Man and Cybernetics. 1994.
S. Suzuki and J. Sklansky, "Extracting nonrigid moving objects by temporal edges," Proc. IEEE Inter Conf. on Pattern Recognition, pp. 69-73, 1992
J. H. Duncan and T. C. Chou, "Temporal edges: the detection of motion and the computation of optical flow," University of Maryland, Center for Automation Research, CAR-Tech. Rep.-362, 1988
C. H. Hayden, R. C. Gonzalez, and A. Ploysongsang, "A temporal edge-based image segmentor," PR(20), No. 3, pp. 281-290, 1987
Canny, J., "A Computational Approach To Edge Detection," Proc. IEEE Trans. Pattern Analysis and Machine Intelligence, vol. 8, pp. 679-714, 1986
※ AI-Helper는 부적절한 답변을 할 수 있습니다.