배경 제거를 위한 많은 연구가 있어왔음에도 기존의 방법들을 실제 환경에 효과적으로 적용하기에는 아직도 많은 어려움이 있다. 본 논문에서는 배경 제거를 실제 환경에 적용하면서 만나게 되는 다양한 문제들을 해결하기 위해 기존의 가우시안 혼합 모델 방법을 개선하는 배경 제거 방법을 제안한다. 첫째로 제안한 방법은 낮은 계산량을 얻기 위하여 고정 소수점 연산을 이용하였다. 배경 모델링 과정은 변수들의 높은 정밀도를 요구하지 않기 때문에 제안한 방법에서는 고정 소수점 변수를 이용함으로서 정확도를 유지한 채 연산 속도를 크게 향상시킬 수 있었다. 두 번째로 보행자들의 높은 통행량 하에서 흔히 발생되는 전경 객체가 배경으로 학습되는 문제를 피하기 위하여 각 화소의 정적인 정도를 이용하여 배경 모델의 학습 속도를 동적으로 조절하였다. 즉 최근 화소 값에 큰 차이가 발생한 화소들은 배경 영역이 아닐 가능성이 높으므로, 이에 대해 낮은 학습 비율을 적용함으로써 높은 통행량을 보이는 영상에서도 유효한 배경 모델을 유지하는 것이 가능했다. 마지막으로 영상의 빠른 밝기값 변화에 대응하기 위하여 연속한 두 프레임 간의 밝기 변화를 선형 변환으로 추정하였으며, 훈련된 배경 모델을 이 선형 변환에 의해 직접적으로 변환시켜 주었다. 제안한 고정 소수점 연산에 의해 기존의 가우시안 혼합 배경 모델링 방법을 구현한 결과 배경 제거에 기존 방법의 약 30%의 연산시간 만을 필요로 하였다. 또한 제안한 방법을 실제 환경의 영상에 적용한 결과 기존의 배경 제거 방법에 비해 검출률이 약 20% 향상되었으며, 오검률은 5~15% 가량 낮아지는 것을 확인하였다.
배경 제거를 위한 많은 연구가 있어왔음에도 기존의 방법들을 실제 환경에 효과적으로 적용하기에는 아직도 많은 어려움이 있다. 본 논문에서는 배경 제거를 실제 환경에 적용하면서 만나게 되는 다양한 문제들을 해결하기 위해 기존의 가우시안 혼합 모델 방법을 개선하는 배경 제거 방법을 제안한다. 첫째로 제안한 방법은 낮은 계산량을 얻기 위하여 고정 소수점 연산을 이용하였다. 배경 모델링 과정은 변수들의 높은 정밀도를 요구하지 않기 때문에 제안한 방법에서는 고정 소수점 변수를 이용함으로서 정확도를 유지한 채 연산 속도를 크게 향상시킬 수 있었다. 두 번째로 보행자들의 높은 통행량 하에서 흔히 발생되는 전경 객체가 배경으로 학습되는 문제를 피하기 위하여 각 화소의 정적인 정도를 이용하여 배경 모델의 학습 속도를 동적으로 조절하였다. 즉 최근 화소 값에 큰 차이가 발생한 화소들은 배경 영역이 아닐 가능성이 높으므로, 이에 대해 낮은 학습 비율을 적용함으로써 높은 통행량을 보이는 영상에서도 유효한 배경 모델을 유지하는 것이 가능했다. 마지막으로 영상의 빠른 밝기값 변화에 대응하기 위하여 연속한 두 프레임 간의 밝기 변화를 선형 변환으로 추정하였으며, 훈련된 배경 모델을 이 선형 변환에 의해 직접적으로 변환시켜 주었다. 제안한 고정 소수점 연산에 의해 기존의 가우시안 혼합 배경 모델링 방법을 구현한 결과 배경 제거에 기존 방법의 약 30%의 연산시간 만을 필요로 하였다. 또한 제안한 방법을 실제 환경의 영상에 적용한 결과 기존의 배경 제거 방법에 비해 검출률이 약 20% 향상되었으며, 오검률은 5~15% 가량 낮아지는 것을 확인하였다.
Though background subtraction has been widely studied for last decades, it is still a poorly solved problem especially when it meets real environments. In this paper, we first address some common problems for background subtraction that occur in real environments and then those problems are resolved...
Though background subtraction has been widely studied for last decades, it is still a poorly solved problem especially when it meets real environments. In this paper, we first address some common problems for background subtraction that occur in real environments and then those problems are resolved by improving an existing GMM-based background modeling method. First, to achieve low computations, fixed point operations are used. Because background model usually does not require high precision of variables, we can reduce the computation time while maintaining its accuracy by adopting fixed point operations rather than floating point operations. Secondly, to avoid erroneous backgrounds that are induced by high pedestrian traffic, static levels of pixels are examined using shot-time statistics of pixel history. By using a lower learning rate for non-static pixels, we can preserve valid backgrounds even for busy scenes where foregrounds dominate. Finally, to adapt rapid illumination changes, we estimated the intensity change between two consecutive frames as a linear transform and compensated learned background models according to the estimated transform. By applying the fixed point operation to existing GMM-based method, it was able to reduce the computation time to about 30% of the original processing time. Also, experiments on a real video with high pedestrian traffic showed that our proposed method improves the previous background modeling methods by 20% in detection rate and 5~10% in false alarm rate.
Though background subtraction has been widely studied for last decades, it is still a poorly solved problem especially when it meets real environments. In this paper, we first address some common problems for background subtraction that occur in real environments and then those problems are resolved by improving an existing GMM-based background modeling method. First, to achieve low computations, fixed point operations are used. Because background model usually does not require high precision of variables, we can reduce the computation time while maintaining its accuracy by adopting fixed point operations rather than floating point operations. Secondly, to avoid erroneous backgrounds that are induced by high pedestrian traffic, static levels of pixels are examined using shot-time statistics of pixel history. By using a lower learning rate for non-static pixels, we can preserve valid backgrounds even for busy scenes where foregrounds dominate. Finally, to adapt rapid illumination changes, we estimated the intensity change between two consecutive frames as a linear transform and compensated learned background models according to the estimated transform. By applying the fixed point operation to existing GMM-based method, it was able to reduce the computation time to about 30% of the original processing time. Also, experiments on a real video with high pedestrian traffic showed that our proposed method improves the previous background modeling methods by 20% in detection rate and 5~10% in false alarm rate.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 논문에서는 이와 같은 기존 배경 제거의 문제점을 해결하기 위하여 기존의 가우시안 혼합 모델 (Gaussian mixture model)에 기반한 배경 모델 링을 개선한 방법을 제안한다. 제안한 방법에서는 빠른 연산을 위하여 부동소수점 연산 대신 정수형 변수를 이용한 고정 소수점 연산을 이용하였다.
하지만, 그들의 방법은 모델 감쇠 과정이 낮은 학습 비율에 의해 지속적으로 일어나는 기존 배경 모델링 방법과 달리 일정 주기마다 모델의 감쇠가 절반씩 이루어지기 때문에 배경 모델이 갱신 과정이 불안정한 문제점이 있었다. 본 논문에서는 배경 모델링 방법의 속도 향상을 위해 고정 소수점 연산을 이용한 빠른 배경 모델링 방법을 제안한다. 제안한 방법은 가우시안 혼합배경 모델링 방법이 부동소수점 자료형에 의해 지원되는 정밀도에 비하여 비교적 낮은 정밀도만을 요구한다는 관찰에 기반하고 있다.
본 논문에서는 배경 제거 방법들을 실제 환경에 적용할 때 흔히 만나게 되는 문제점인 (1) 낮은 연산량에 대한 요구. (2) 많은 통행량에 대한 대응, (3) 영상의 빠른 밝기 변화에 대한 적응을 해결하기 위하여 기존의 가우시 안 혼합 모델에 기반한 배경 제거 방법을 개선하는 방법을 제안하였다.
가설 설정
. 높은 계산량: 배경 제거 과정은 대부분의 영상감시 응용에서 필수적으로 실시간 처리가 요구된다. 연산 속도의 문제는 특히 수십 대 이상의 카메라가 이용되는 대규모 영상 감시 시스템이나 하드웨어의 계산 성능이 비교적 낮은 경우에 더욱 중요한 문제가 된다.
・ 지속적인 객체 이동에 대한 대응: 통행량이 많은 통로 또는 출입문 근처에서는 끊임없이 객체의 이동이 발생한다. 이러한 지역에서 지속적으로 객체의 움직임이 발생되는 경우에는 종종 전경 객체가 배경보다도 더 자주 관찰되어 결과적으로 전경 객체의 일부가 배경으로 학습되는 문제가 발생하게 된다.
이를 위해 우선 고정 소수점 변수의 정수부와 소수부에 각각 m, n 비트(bit)가 할당되었다고 가정한다. 그러면, 정수형 변수를 n 비트만큼 비트 이동(bit shift)시킴으로서 이를 고정 소수점 변수로 손쉽게 변환할 수 있다.
이러한 문제를 해결하기 위해서 본 논문에서는 배경 화소가 가장 높은 빈도로 발생한다는 기존의 가정 이외에 배경 화소는 또한 정적이어야 한다는 가정을 추가하였다. 즉 각 화소의 정적인 정도(static level) 에 따라서 학습 비율을 변경하여 배경 모델을 갱신하였다.
제안 방법
방법을 제안한다. 제안한 방법에서는 빠른 연산을 위하여 부동소수점 연산 대신 정수형 변수를 이용한 고정 소수점 연산을 이용하였다. 또, 지속적인 객체의 이동에 의해 잘못된 배경 모델이 생성되는 것을 피하기 위하여 화소 값의 단시간 통계량을 이용하여 배경 모델의 학습 속도를 동적으로 조절한다.
제안한 방법에서는 빠른 연산을 위하여 부동소수점 연산 대신 정수형 변수를 이용한 고정 소수점 연산을 이용하였다. 또, 지속적인 객체의 이동에 의해 잘못된 배경 모델이 생성되는 것을 피하기 위하여 화소 값의 단시간 통계량을 이용하여 배경 모델의 학습 속도를 동적으로 조절한다. 마지막으로 빠른 조명 변화에 대응하기 위하여 연속한 프레 임 사이의 조명 변화를 추정하며, 추정 된 조명 변화에 의해 배경 모델을 직접적으로 조정한다.
또, 지속적인 객체의 이동에 의해 잘못된 배경 모델이 생성되는 것을 피하기 위하여 화소 값의 단시간 통계량을 이용하여 배경 모델의 학습 속도를 동적으로 조절한다. 마지막으로 빠른 조명 변화에 대응하기 위하여 연속한 프레 임 사이의 조명 변화를 추정하며, 추정 된 조명 변화에 의해 배경 모델을 직접적으로 조정한다.
본 논문에서 제안하는 배경 모델링 방법은 2장에서 설명된 Stauffer등의 가우시안 혼합 배경 모델링 방법에 기반하며, 1장에서 설명된 문제점들을 개선하 기 위하여 Stauffer등의 방법을 개선한다. n림 1 은 제안한 배경 모델링 방법의 구성을 보여준다.
n림 1 은 제안한 배경 모델링 방법의 구성을 보여준다. 제안한 방법은 그림 1에 나타난 것과 같이 연속된 입력영상들로부터 단시간 통계량을 구성하며, 이를 이용하여 영상 내의 정적 화소와 비정적 화소를 구분한다. 이후 비정적 화소에 대해서는 학습 속도를 낮추어 줌으로써 혼잡한 환경에서도 유효한 배경 모델을 유지한다.
이후 비정적 화소에 대해서는 학습 속도를 낮추어 줌으로써 혼잡한 환경에서도 유효한 배경 모델을 유지한다. 또 제안한 방법에서는 인접한 두 프레임 간의 조명 변화를 추정하고 배경 모델을 추정된 조명변화에 대해 직접적으로 변환시킴으로써 영상 내의 빠른 조명 변화에 효과적으로 대응한다. 마지막으로 빠른 연산 속도의 향상을 위하여 배경 모델의 갱신 및 배경 제거 과정과 단시간 통계량 갱신 과정은 정수형 변수를 이용한 고정 소수점 연산에 의해서 이루어진다.
본 논문에서는 배경 모델링 방법의 속도 향상을 위해 고정 소수점 연산을 이용한 빠른 배경 모델링 방법을 제안한다. 제안한 방법은 가우시안 혼합배경 모델링 방법이 부동소수점 자료형에 의해 지원되는 정밀도에 비하여 비교적 낮은 정밀도만을 요구한다는 관찰에 기반하고 있다. 따라서, 기존의 배경모델링 방법에 고정 소수점 연산을 적용함으로서 정확도를 유지하면서 계산 속도를 향상 시킬 수 있다.
비트 이동량 n이 너무 작으면 연산의 유효자리수가 작아지며, 반대로 n이 너무 크면 계산 과정에서 넘침 (overflow) 이 발생할 수 있다. 본 논문에서는 고정 소수점 변수의 표현을 위해 32비트 정수를 이용했으며, 이 가운데 한 비트는 부호를 나타내기 위하여 이용하였다. 따라서 고정소수점 변수의 정수부와 소수부에는 총 31비트가 이용될 수 있다.
즉 각 화소의 정적인 정도(static level) 에 따라서 학습 비율을 변경하여 배경 모델을 갱신하였다. 예를 들어 어떤 화소가 최근 몇 프레임 동안에 큰 변화를 보였다면, 이 화소는 전경 객체에 속할 가능성이 높으며 따라서 배경 모델의 갱신에 낮은 학습 비율을 적용한다.
예를 들어 어떤 화소가 최근 몇 프레임 동안에 큰 변화를 보였다면, 이 화소는 전경 객체에 속할 가능성이 높으며 따라서 배경 모델의 갱신에 낮은 학습 비율을 적용한다. 제안한 방법에는 어떤 화소가 정적인지 아닌지 판단하기 위해 각 화소의 단시간 통계를 이용하였다. 어떤 화소의 단시간 분산값이 매우 작은 값을 갖는다면, 이는 그 화소가 최근 매우 적은 값의 색상 변화만을 경험하였다는 것을 의미하며 해당 화소는 배경일 가능성이 높다고 할 수 있다.
이렇게 정적 화소로 분류된 전경 화소가 배경 모델의 갱신에 기여하는 것을 방지하기 위하여 제안한 방법에서는 모폴로지 연산을 통하여 정적 화소 분류 결과를 확장하였다. 모폴로지 연산을 위한 마스크의 크기는 각 화소 위치에서 예측되는 사람의 크기에의 해 결정 되었다.
영상의 빠른 밝기 변화에 대응하기 위하여 제안한 방법에서는 우선 연속한 두 프레임 사이의 빍.기 변화를 선형 변환으로 추정하였으며, 얻어진 밝기 변환을 배경 모델에 적용하여 배경 모델이 직접적으로 영상의 밝기 변화에 대응하도록 하였다.
우선 연속한 두 프레임 사이의 빍.기 변화를 선형 변환으로 추정하였으며, 얻어진 밝기 변환을 배경 모델에 적용하여 배경 모델이 직접적으로 영상의 밝기 변화에 대응하도록 하였다. 두 프레임 간의 밝기 변환을 올바르게 추정하기 위해서는 객체에 의해 값의 변화한 화소들은 제외하고 영상의 밝기 변화에 의해 값이 변화한 화소들만이 이용되어야 한다.
이를 위해 객체의 변화가 거의 발생하지 않는 영역에서 조정점(control points)들이 선택되었다. 조정점의 선택을 위하여 우선 초기 훈련 기간 동안에 연속한 프레임 사이의 밝기 변화가 임계값 이상인 화소들을 기록하여 화소 변화 빈도 지도(pixel change frequence map)을 생성하였다. 그림 5는 생성된 화소 변화 빈도 지도의 예를 보여준다.
내용 및 결과를 제시한다. 제안한 방법의 검증을 위하여 고정 소수점 연산에 의한 속도 향상과 빠른 조명 변화 및 많은 통행량을 포함한 실제 환경의 영상에서의 배경 제거 정확도가 각각 측정되었다.
또 2장에서 설명된 Stauffer등에 의해 제안된 혼합 Gaussian 배경 모델링 방법을 부동 소수점 변수와 고정 소수점 변수를 이용하여 구현하였으며, 각각의 방법에 대하여 동일한 2,000 프레임에 대한 연산 속도를 측정하였다. 다음 표 3은 그 속도 측정 결과를 보여준다.
제안한 방법의 배경 제거 정확도 측정을 위하여 직접 촬영된 두 개의 비디오 시퀀스를 이용하여 실험이 이루어졌다. 실험에 사용된 비디오 영상은 모두 빈번한 통행량이 발생되는 통로에서 촬영하였으며, 그림 6은 실험에 사용된 비디오의 예를 보여준다.
제안한 방법의 정량적 성능 측정을 위하여 수작업으로 전경 영역을 분할하여 지상 검증(ground truth) 영상을 구성하였고, 영상 분할 결과를 지상 검증 영상과 비교하여 전경 분할의 검출률(DR, detection ratio)과 오검률(FAR, false alarm rate)를 측정 하였다. 검출률과 오검률은 각각 수식《10)과 (11)에 의해서 정의된다.
대한 요구. (2) 많은 통행량에 대한 대응, (3) 영상의 빠른 밝기 변화에 대한 적응을 해결하기 위하여 기존의 가우시 안 혼합 모델에 기반한 배경 제거 방법을 개선하는 방법을 제안하였다. 제안한 방법에서는 배경 모델링 방법이 부동 소수점 변수에 의해 제공되는 것에 비해 상대적으로 낮은 정밀도를 요구한다는 관찰에 기반하여 정수형 변수를 이용한 고정 소수점 연산을 이용하여 계산 속도를 향상시켰다.
(2) 많은 통행량에 대한 대응, (3) 영상의 빠른 밝기 변화에 대한 적응을 해결하기 위하여 기존의 가우시 안 혼합 모델에 기반한 배경 제거 방법을 개선하는 방법을 제안하였다. 제안한 방법에서는 배경 모델링 방법이 부동 소수점 변수에 의해 제공되는 것에 비해 상대적으로 낮은 정밀도를 요구한다는 관찰에 기반하여 정수형 변수를 이용한 고정 소수점 연산을 이용하여 계산 속도를 향상시켰다. 또한 혼잡한 환경에서 전경 객체가 배경으로 잘못 분류되는 문제를 피하기 위해 화소값의 단시간 통계량을 이용하여 배경 모델의 학습 속도를 동적으로 조절하였다.
제안한 방법에서는 배경 모델링 방법이 부동 소수점 변수에 의해 제공되는 것에 비해 상대적으로 낮은 정밀도를 요구한다는 관찰에 기반하여 정수형 변수를 이용한 고정 소수점 연산을 이용하여 계산 속도를 향상시켰다. 또한 혼잡한 환경에서 전경 객체가 배경으로 잘못 분류되는 문제를 피하기 위해 화소값의 단시간 통계량을 이용하여 배경 모델의 학습 속도를 동적으로 조절하였다. 마지막으로 영상의 빠른 밝기값 변화에 대응하기 위하여 연속된 입력 영상 사이의 밝기 변화를 선형 변환으로 추정하였으며, 얻어진 밝기값 변환을 통해 배경 모델을 직접 변화시킴으로서 영상에서 발생되는 빠른 밝기값 변화에 대응하였다.
또한 혼잡한 환경에서 전경 객체가 배경으로 잘못 분류되는 문제를 피하기 위해 화소값의 단시간 통계량을 이용하여 배경 모델의 학습 속도를 동적으로 조절하였다. 마지막으로 영상의 빠른 밝기값 변화에 대응하기 위하여 연속된 입력 영상 사이의 밝기 변화를 선형 변환으로 추정하였으며, 얻어진 밝기값 변환을 통해 배경 모델을 직접 변화시킴으로서 영상에서 발생되는 빠른 밝기값 변화에 대응하였다.
대상 데이터
군집화를 수행하였다[2]. 실험을 위하여 표 1에 나타난 것과 같이 각각 다른 평균과 분산을 갖는 4개의 Gaussian 분포에 대하여 전체 100,000개의 데이터 샘플이 생성되었다. 실험 결과 부동 소수점형 변수를 이용한 연산과 고정 소수점형 변수를 이용한 연산의 결과가 거의 동일한 것을 확인할 수 있다.
실험에 사용된 비디오 영상은 모두 빈번한 통행량이 발생되는 통로에서 촬영하였으며, 그림 6은 실험에 사용된 비디오의 예를 보여준다. 두 영상은 모두 Sony HDR-SR7 캠코더를 이용하여 획득하였으며, 32(*240의 해상도에 30加s로 인코딩되었다. 두 실험 영상 가운데 'Library' 영상은 영상 가운데 위치한 출입구로 지속적인 보행자의 이동이 발생하며, .
그림 6. 실험에 사용된 비디오 영상의 예. (a) Library, (b) Corridor
이론/모형
본 논문에서 제안하는 배경 모델링 방법은 Stauffer등에 의해 제안된 가우시안 혼합 모델 기반 배경 모델링 방법[2]에 기반하고 있다. 따라서, 이 장에서는 가우시안 혼합 모델 기반 배경 모델링 방법에 대해 간략히 소개한다.
본 논문에서는 모폴로지 연산의 빠른 계산을 위하여 적분 영상(Integral image)를 이용하였다[12]. 적분 영상을 이용할 경우 마스크 내의 모든 화소를 참조해야 하는 일반적인 모폴로지 연산과 달리, 한 화소 위치에 대해 마스크 주변의 네 점만을 참조함으로서 모폴로지 연산이 가능하여 연산 속도가 크게 줄어들게 된다.
고정 소수점형 변수를 이용한 연산에 의한 속도향상을 측정하기 위하여 우선 임의로 생성된 데이터에 대하여 각각 부동 소수점형 변수와 고정 소수점형 변수를 이용하여 online K-means 알고리즘을 적용하여 군집화를 수행하였다[2]. 실험을 위하여 표 1에 나타난 것과 같이 각각 다른 평균과 분산을 갖는 4개의 Gaussian 분포에 대하여 전체 100,000개의 데이터 샘플이 생성되었다.
제안한 방법의 성능 비교를 위해 Stauffer의 방법 [2], Tang의 방법[13], Lee의 방법[14]이 이용되었다. Stauffer의 방법은 제안한 배경 모델링 방법의 기반이 되는 혼합 Gaussian 모델 방법이며, Tang의 방법과 Lee의 방법은 제안한 방법과 마찬가지로 Stauffer 의 방법에 기반한 배경 모델링 방법이다.
성능/효과
제안한 방법은 가우시안 혼합배경 모델링 방법이 부동소수점 자료형에 의해 지원되는 정밀도에 비하여 비교적 낮은 정밀도만을 요구한다는 관찰에 기반하고 있다. 따라서, 기존의 배경모델링 방법에 고정 소수점 연산을 적용함으로서 정확도를 유지하면서 계산 속도를 향상 시킬 수 있다.
적분 영상을 이용할 경우 마스크 내의 모든 화소를 참조해야 하는 일반적인 모폴로지 연산과 달리, 한 화소 위치에 대해 마스크 주변의 네 점만을 참조함으로서 모폴로지 연산이 가능하여 연산 속도가 크게 줄어들게 된다. 특히 제안한 방법의 경우 영상 확장을 위한 마스크가 객체의 크기에 의해서 정의되기 때문에 영상의 하단 부분에서 마스크의 크기가 크게 증가하게 되는데 적분 영상을 이용하여 모폴로지 연산을 수행함으로써 이러한 문제를 피하고 연산량을 크게 줄이는 것이 가능하다.
실험을 위하여 표 1에 나타난 것과 같이 각각 다른 평균과 분산을 갖는 4개의 Gaussian 분포에 대하여 전체 100,000개의 데이터 샘플이 생성되었다. 실험 결과 부동 소수점형 변수를 이용한 연산과 고정 소수점형 변수를 이용한 연산의 결과가 거의 동일한 것을 확인할 수 있다. 반면에 연산 시간은 표 2에 나타난 것과 같이 고정 소수점형 변수를 이용한 경우에 82.
정확도 측정 결과를 그래프로 나타낸 그림 8에서는 지속적인 통행량이 발생하는 3, 500에서 4, 100 프레임 사이의 구간에서 혼잡 상황을 고려한 동적 학습속도 조절을 이용한 방법이 다른 방법보다 높은 검출률을 보이는 동시에 낮은 오검률을 보이는 것을 확인할 수 있다. 'Corridor 실험 영상에서는 빠른 조명변화가 자주 발생하기 때문에 그림 10에 나타난 기존의 방법들의 그래프에서는 성능이 급격히 변화하는 모습을 쉽게 관찰할 수 있다.
'Corridor 실험 영상에서는 빠른 조명변화가 자주 발생하기 때문에 그림 10에 나타난 기존의 방법들의 그래프에서는 성능이 급격히 변화하는 모습을 쉽게 관찰할 수 있다. 하지만, 제안한 밝기변화에 대응하는 방법을 적용한 결과의 그래프에서는 급격히 성능이 저하되는 현상 없이 전체적으로 비교적 고른 성능을 보이는 것을 확인할 수 있다. 표 4는 두 실험 영상에 대한 성능 측정 결과의 평균치를 보여준다.
표 4는 두 실험 영상에 대한 성능 측정 결과의 평균치를 보여준다. 성능 측정 결과 제안한 방법이 기존의 방법과 비교하여 검출률을 약 20% 가량 향싱. 시키면서 5-15% 정도 낮은 오검률을 보이는 것을 확인할 수 있었다.
시키면서 5-15% 정도 낮은 오검률을 보이는 것을 확인할 수 있었다. Stauffer의 방법과 Tang의 방법은 혼잡한 상황이나 빠른 조명 변화가 발생하는 상황을 고려하지 않고 있으므로 통행 량이 많고 조명 변화가 자주 발생하는 본 논문의 실험 영상에서 비교적 낮은 성능을 나타내었다. 특히 Tang의 방법은 빠른 조명변화가 자주 발생하는 상황에서 Stauffer의 방법보다도 낮은 성능을 보였는데, 이는 Tang의 방법에서는 분산 값이 색상 채널별로 다르게 계산되기 때문에 조명 변화 발생 시 색상의 변화가 크게 발생하기 때문인 것으로 해석된다.
Lee의 방법은 혼잡 환경에 대응하기 위하여 학습속도를 동적으로 조절하는 방법이며, 따라서 Stauffer의 방법이나 Tang의 방법에 비해 더 검출률 면에서 더 나은 성능을 보였다. 하지만, Lee의 방법은 배경 모델의 학습속도 조절을 위해 객체의 크기를 이용하는 제안한 방법과 달리 학습속도의 조절이 전체 프레임 단위로 이루어지기 때문에, 제안한 방법에 비하여 혼잡한 환경에 대해 다소 낮은 성능을 보이는 것을 확인할 수 있었다.
제안한 방법의 검증을 위하여 혼잡한 상황에서 얻어진 영상을 이용하여 실험을 진행하였으며, 실험 결과 제안한 방법이 기존의 배경 모델링 방법들과 비교하여 약 20% 가량 검출률을 향상시키면서 5-15% 정도 낮은 오검률을 얻을 수 있었으며, 효과적으로 배경 제거를 수행할 수 있음을 확인하였다. 또한 고정 소수점 연산으로 구현된 가우시안 혼합 배경 모델은 부동 소수점 연산을 이용한 구현에 비하여 약 30%의 연산시간만을 필요로 하여, 제안한 방법에 의해 연산 속도가 크게 향상될 수 있음을 확인하였다.
제거를 수행할 수 있음을 확인하였다. 또한 고정 소수점 연산으로 구현된 가우시안 혼합 배경 모델은 부동 소수점 연산을 이용한 구현에 비하여 약 30%의 연산시간만을 필요로 하여, 제안한 방법에 의해 연산 속도가 크게 향상될 수 있음을 확인하였다. 제안한 방법이 다양한 영상 감시 응용을 실제 환경에 적용하는 데 많은 도움이 될 것으로 기대되며, 이러한 응용의 개발이 향후 연구로서 진행될 예정이다.
다음 표 3은 그 속도 측정 결과를 보여준다. 실험 결과 고정 소수점 연산을 이용하여 구현한 방법이 부동 소수점 연산을 이용하여 구현한 방법의 약 30%만의 연산시간을 필요로 하였다.
후속연구
또한 고정 소수점 연산으로 구현된 가우시안 혼합 배경 모델은 부동 소수점 연산을 이용한 구현에 비하여 약 30%의 연산시간만을 필요로 하여, 제안한 방법에 의해 연산 속도가 크게 향상될 수 있음을 확인하였다. 제안한 방법이 다양한 영상 감시 응용을 실제 환경에 적용하는 데 많은 도움이 될 것으로 기대되며, 이러한 응용의 개발이 향후 연구로서 진행될 예정이다.
참고문헌 (14)
I. Haritaoglu, D. Harwood, L. Davis, I. Center, and C. San Jose, "W 4: real-time surveillance of people and their activities," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.22, pp. 809-830, 2000.
C. Stauffer and W. Grimson, "Adaptive back ground mixture models for real-time tracking," IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Vol.2, pp. 246-252, 1999.
P. KaewTraKulPong and R Bowden, " An improved adaptive backg round mixture model for real- time tracking with shadow detection," European Workshop on Advanced Video Based Surveillance Systems, Vol.5308, 2001.
M. Mason and Z. Duric, "Using histograms to detect and track objects in color video," Applied Imagery Pattern Recognition Workshop, pp.154-159, 2001.
M. Heikkila and M. Pietikainen, "A texture- based method for modeling the back ground and detecting moving objects," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.28, pp. 657-662, 2006.
M. Harville, G. Gordon, and J. Woodfill, "Foreground segmentation using adaptive mixture models in color and depth," IEEE Workshop on Detection and Recognition of Events in Video, pp. 3-11, 2001.
Q. Zhu, S. Avidan, and K Cheng, "Learning a sparse, corner-based representation for time-varying background modelling," IEEE International Conference on Computer Vision, Vol. 1, pp. 678-685, 2005.
K. Brumitt and B. Meyers, "Wallflower Principles and practice of background main tenance," International Conference on Computer Vision, pp. 255-261, 1999.
P. Kumar, S. Ranganath, and W. Huang, "Queue based fast background modelling and fast hysteresis thresholding for better foreground segmentation," the Fowth International Conference on Information, Communications and Signal Processing, Vol.2, pp. 743-747, 2003.
S. Apewokin, B. Valentine, L Wills, S. Wills, and A. Genti le, "Multimoclal Mean Adaptive Backgrounding for Embedded Real- Time Video Surveillance," IEEE Conference on Computer Vision and Pattern Recognition, pp.1-6, 2007.
가기환, 이광국, 윤자영, 김재준, 김회율, "군중밀도 측정을 위한 자동 특징량 정규화 방법," 대한 전자공학회 추계학술대회 논문집 pp. 669-670, 2007.
P. Viola and M. Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features," IEEE Conference on Computer Vision and Pattern Recognition, pp. 8-14, 2001.
Z. Tang and Z. Miao, "Fast Background Subtraction and Shadow Elimination Using Improved Gaussian Mixture Model," IEEE International Workshop on Haptic Audio Visual Environments and their Applications, pp. 38-41, 2007.
G.-G. Lee, S. Song, J.-Y. Yoon, J. -J. Kim, and W. -Y. Kim, "Adaptive Learning of Background Model for Crowd Scenes," International Conference on Multimedia, Information Technology and its Application, pp. 77-80, 2008.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.