본 논문에서는 샷(shot) 기반 비디오 색인 구조에서 비-파라미터(non-parametric) 기반의 움직임 분류를 통한 비디오 영상 검색 기법을 제안한다. 본 논문에서 제안하는 비디오 검색 시스템은 장면 전환 기법을 통해 얻은 샷 단위의 짧은 비디오로부터 대표 프레임과 움직임 정보를 취득한 후, 이를 통해 시각적 특징과 움직임 특징을 추출하여 유사도를 비교함으로써 시-공간적 특징을 이용한 실시간 검색이 가능하도록 구현되었다. 비-파라미터 기반의 움직임 특징의 추출은 MPEG 압축 스트림으로부터 정규화된 움직임 벡터계(界)를 추출한 후, 각각의 정규화된 움직임 벡터를 여러 개의 각도 빈(bin)으로 양자화하고 이의 평균과 분산, 방향 등을 고려함으로써 효과적으로 이루어진다. 대표 프레임에서의 시각 특징 검출을 위해서는 에지 기반의 공간 기술자를 이용하였다. 실험 결과는 영상 색인 및 검색에 있어서 제안된 시스템이 매우 효과적임을 잘 나타내고 있다. 데이터베이스 내 영상의 색인을 위해서는 R*-tree 구조를 이용한다.
본 논문에서는 샷(shot) 기반 비디오 색인 구조에서 비-파라미터(non-parametric) 기반의 움직임 분류를 통한 비디오 영상 검색 기법을 제안한다. 본 논문에서 제안하는 비디오 검색 시스템은 장면 전환 기법을 통해 얻은 샷 단위의 짧은 비디오로부터 대표 프레임과 움직임 정보를 취득한 후, 이를 통해 시각적 특징과 움직임 특징을 추출하여 유사도를 비교함으로써 시-공간적 특징을 이용한 실시간 검색이 가능하도록 구현되었다. 비-파라미터 기반의 움직임 특징의 추출은 MPEG 압축 스트림으로부터 정규화된 움직임 벡터계(界)를 추출한 후, 각각의 정규화된 움직임 벡터를 여러 개의 각도 빈(bin)으로 양자화하고 이의 평균과 분산, 방향 등을 고려함으로써 효과적으로 이루어진다. 대표 프레임에서의 시각 특징 검출을 위해서는 에지 기반의 공간 기술자를 이용하였다. 실험 결과는 영상 색인 및 검색에 있어서 제안된 시스템이 매우 효과적임을 잘 나타내고 있다. 데이터베이스 내 영상의 색인을 위해서는 R*-tree 구조를 이용한다.
In this paper, we propose the novel video retrieval algorithm using non-parametric based motion classification in the shot-based video indexing structure. The proposed system firstly gets the key frame and motion information from each shot segmented by scene change detection method, and then extract...
In this paper, we propose the novel video retrieval algorithm using non-parametric based motion classification in the shot-based video indexing structure. The proposed system firstly gets the key frame and motion information from each shot segmented by scene change detection method, and then extracts visual features and non-parametric based motion information from them. Finally, we construct real-time retrieval system supporting similarity comparison of these spatio-temporal features. After the normalized motion vector fields is created from MPEG compressed stream, the extraction of non-parametric based motion feature is effectively achieved by discretizing each normalized motion vectors into various angle bins, and considering a mean, a variance, and a direction of these bins. We use the edge-based spatial descriptor to extract the visual feature in key frames. Experimental evidence shows that our algorithm outperforms other video retrieval methods for image indexing and retrieval. To index the feature vectors, we use R*-tree structures.
In this paper, we propose the novel video retrieval algorithm using non-parametric based motion classification in the shot-based video indexing structure. The proposed system firstly gets the key frame and motion information from each shot segmented by scene change detection method, and then extracts visual features and non-parametric based motion information from them. Finally, we construct real-time retrieval system supporting similarity comparison of these spatio-temporal features. After the normalized motion vector fields is created from MPEG compressed stream, the extraction of non-parametric based motion feature is effectively achieved by discretizing each normalized motion vectors into various angle bins, and considering a mean, a variance, and a direction of these bins. We use the edge-based spatial descriptor to extract the visual feature in key frames. Experimental evidence shows that our algorithm outperforms other video retrieval methods for image indexing and retrieval. To index the feature vectors, we use R*-tree structures.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 논문에서는 MPEG 압축된 다양한 종류의 비디오 영상으로 DB를 구성하고, 제안한 검색 기법을 평가 하였다. 실험 DB는 자연 영상, 드라마, 뮤직 비디오, 교육용 비디오 등의 다양한 영상으로 구성되어 있으며, 총 24개의 동영상에서 취득된 780여 개의 샷으로 이루어져 있다.
본 논문에서는 유사 움직임 패턴을 갖는 카메라 동작을 하나로 묶어 표현하였으며, 이에 따른 다양한 카메라 동작에 대한 표기를 표 1에 나타내고 있다. 본 논문에서는 기호(symbol)를 통하여 여러 카메라 동작을 간략히 표현하고자 한다.
본 논문에서는 샷 기반의 비디오 분석을 통해 영상에서의 대표 프레임과 움직임 정보를 얻은 후, 제안하는 움직임 분류 기법과 에지 기반의 공간 기술자에 취득된 정보를 적용함으로써 효과적인 내용 기반 비디오 검색시스템을 구현하는 방법을 제안하고 있다. 먼저 장면전환 검출 기법을 적용하여 샷 단위로 정확하게 비디오를 파싱하고, 분할된 샷의 내용을 나타내는 대표 프레임과 움직임 정보를 추출한다.
많은 문제를 보이고 있다. 본 논문에서는 이러한 문제를 풀기 위해 비-파라미터 기반의 움직임 추정기법을 제안한다. 그림 5는 제안하는 비-파라미터 기반의 움직임 분류 기법에 대한 블록도를 나타내고 있다.
본 논문에서는 장면 전환 기법과 움직임 분류 기법을 통해 얻은 시공간적 특징을 이용하여 MPEG 압축된 비디오 영상을 효과적으로 검색하는 방법을 제안하였다. 장면 전환 검출을 통해 분할된 샷에서의 대표 프레임 영상을 이용하여 시각 특징을 추출하고, 움직임 벡터의 분산 등을 이용하여 샷에서의 움직임을 특징지었다.
실험 결과는 제안하는 알고리즘이 영상 색인 및 검색에 있어 매우 효과적임을 잘 보여주고 있다. 현재 우리는 장면 전환 검출 모듈과 움직임 특징 분류 모듈, 영상 검색 시스템을 하나로 통합하고, 사용자에게 편리한 인터페이스를 구축하는 것을 목표로 연구를 진행 중에 있다.
제안 방법
이러한 두 특징을 조합하여 사용자에게 MPEG 기반 하에 동작 가능한 비디오 검색 시스템 환경을 제공한다. Video Browsing and Retrieval System(VIRE)図은 저수준의 비디오와 오디오 특징과 고수준의 비디오 특징을 추출하고 MPEG-7의 기술자를 이용하여 이를 저장하는 방법을 제안하였다. 검색은 수동검색과 자동검색을 모두 지원하며, 고수준의 특징을 이용한 의미 기반 비디오 검색 결과를 제공한다.
또한 영상에서 추출된 평탄 영역에서의 전역적인 색상 분포에 대하여 효과적으로 표현이 가능하다. m장에서 제안한 움직임 분류 기법을 통해 각 샷은 {S, P_L, P_R, T_U, T_D, Z_I, Z_D, R}의 8가지 움직임 인덱스 중 하나를 갖게 되고, 이를 해당 샷의 움직임 특징 자로 이용한다. 특징 기술자의 색인을 위하여 본 논문에서는 R-tree기법의 효율성을 크게 개선한 R*-tree 색인 기법区을 이용하였다.
먼저 장면전환 검출 기법을 적용하여 샷 단위로 정확하게 비디오를 파싱하고, 분할된 샷의 내용을 나타내는 대표 프레임과 움직임 정보를 추출한다. 그리고 나서 대표 프레임으로부터 에지 기반의 시각 특징을 추출하고, 움직임정보에一비-파라미터 기반의 움직임 분류 기법을 적용시킴으로써 샷 단위의 카메라 동작을 취득하고 이를 색인한다. 최종적으로, 이러한 특징 벡터의 유사도를 비교함으로써 효과적인 샷 단위의 비디오 검색 시스템을 구현한다.
각 샷마다 고유의 움직임 인덱스 번호를 가지고 있으므로, 움직임 검색은 거의 시간을 소요하지 않는다. 다음으로 움직임 검색을 통해 추출된 영상들 간의 시각 특징을 비교한다. 이러한 시각 특징은 ESD알고리즘을 통해 추출된 것으로써 시각 특징 간유 사도 측정은 평탄 영역과 에지 영역에서 각각 추출된 특징 simaR, ⑵와 simS(R, ⑵와의 유사도 함수를 계산함으로써 이루어진다吻.
본 논문에서는 시각 특징자로 color vector angle 방법을 통해 영상에서의 에지를 추출하고, 이를 이용하여 영상의 평탄 영역과 에지 영역 각각에 CCV와 correlogram 기법을 적용시키는 ESD 방법을 이용한다. 또한, 연속된 MPEG 프레임의 움직임 벡터를 프레임의 형태에 맞게 정규화한 후 이를 통해 움직임 객체의 중심좌표와 각 움직임 벡터의 사이각 등을 추출하고, 움직임 벡터를 각도에 따라 양자화 하는 등의 방법을 이용, 분할된 샷의 움직임을 8개의 움직임 인덱스로 분류하여 움직임특징 자로 이용한다. 실험 결과는 제안하는 알고리즘이 영상 색인 및 검색에 있어 매우 효과적임을 잘 보여주고 있다.
구현하는 방법을 제안하고 있다. 먼저 장면전환 검출 기법을 적용하여 샷 단위로 정확하게 비디오를 파싱하고, 분할된 샷의 내용을 나타내는 대표 프레임과 움직임 정보를 추출한다. 그리고 나서 대표 프레임으로부터 에지 기반의 시각 특징을 추출하고, 움직임정보에一비-파라미터 기반의 움직임 분류 기법을 적용시킴으로써 샷 단위의 카메라 동작을 취득하고 이를 색인한다.
특히, recall값이 크게 떨어지는 이유는 검색하지 못하고 놓친 Z, R프레임이 매우 많았기 때문이다. 본 논문에서 제안하는 기법은 기존의 방식과 달리 더 다양한 움직임 분류가 가능하며, 보다 정확한 움직임 측정을 가능하게 한다. 그러나, 제안한 방법에 있어서도 R영상의 검색에 있어 잘못 검출한 프레임의 수가 많아 precision의 수치가 높지 않았다.
본 논문에서 제안한 비디오 검색의 정확성은 recall, precision 과 ANMRR(Average of the Normalized Modified Retrieval Rank)을 통해 이루어진다. 먼저, 각 비디오 질의 q에 대한 DB 에서의 유사 샷의 개수를 NG(q)라 한다.
본 논문에서는 MPEG 압축 영상을 대상으로 부분 복호화(partial decoding)에 의한 DCT DC 계수의 움직임 보상형 DC 이미지 재구성 방법脸을 이용하여 처리 데이터량을 현저히 감소시키면서, 기존의 방법보다 더 효율저으로 비디오에서의 장면 전환을 검출하는 방법인 [21]을 본 논문에서의 샷 구분을 위하여 이용하고 있다.
따라서, 사이각 0z 는 180도에 가깝거나 0도에 가깝게 된다. 본 논문에서는 각 프레임에서 다수의 움직임 벡터가 I이사이에 있을 경우는 Z_O프레임으로, 으이Mt 사이에 있을 경우는 Z_I프레임으로 일차 분류하였다. 분류된 Z_I, Z_O프레임의 재확인을 위해객체 중심 좌표에서 각 사분면에 속해있는 움직임 벡터의 이동방향을 그림 10에서와 같이 고려한다.
이 경우 사이각 I이 은 응에厶 가깝게 된다. 본 논문에서는 영상의 중심 좌표와 각 움직임 벡터를 고려하여 으7T 싀 이M -^-TT 사이에 다수의 벡터가 있을 경우 R프레임으로 분류하였다.
따라서, 축 고정 카메라와 이동 카메라에서 서로 대응되는 카메라 동작을 서로 묶어 하나의 움직임 패턴으로 추출하게 된다. 본 논문에서는 유사 움직임 패턴을 갖는 카메라 동작을 하나로 묶어 표현하였으며, 이에 따른 다양한 카메라 동작에 대한 표기를 표 1에 나타내고 있다. 본 논문에서는 기호(symbol)를 통하여 여러 카메라 동작을 간략히 표현하고자 한다.
결과에서 보이는 바와 같이 P와 丁의 경우는 일정 임계치 이상의 값을 기준으로 하여 찾을 수 있으나, Z와 日의 경우는 찾기가 불가능한 것을 알 수 있다. 우리는 이러한 결과를 바탕으로 비-파라미터 기반의 움직임 기술자를 제안하고 이를 이용하였다.
Zhang 은 B]에서 비디오 파싱을 통해 비디오를 샷 단위로 시분할하고, 각 샷마다의 대표 프레임을 추출 한 후에, 색상과 질감 등을 분석하여 각 샷에서의 시각적 특징을 취득함과 동시에 카메라 동작이나 시간에 따른 밝기나 색상의 변화와 같은 시간적 특징 또한 추출하였다. 이러한 두 특징을 조합하여 사용자에게 MPEG 기반 하에 동작 가능한 비디오 검색 시스템 환경을 제공한다. Video Browsing and Retrieval System(VIRE)図은 저수준의 비디오와 오디오 특징과 고수준의 비디오 특징을 추출하고 MPEG-7의 기술자를 이용하여 이를 저장하는 방법을 제안하였다.
제안하였다. 장면 전환 검출을 통해 분할된 샷에서의 대표 프레임 영상을 이용하여 시각 특징을 추출하고, 움직임 벡터의 분산 등을 이용하여 샷에서의 움직임을 특징지었다. 본 논문에서는 시각 특징자로 color vector angle 방법을 통해 영상에서의 에지를 추출하고, 이를 이용하여 영상의 평탄 영역과 에지 영역 각각에 CCV와 correlogram 기법을 적용시키는 ESD 방법을 이용한다.
그림 14-(a)는 질의 영상이고, 그림 14-(b) 〜그림 14-(d) 는검색된 결과이다. 제안된 방법과 여러 다른 검색 기법들과의 비교를 위해 각 영상마다 검색된 순위를 숫자로 표기하였다. 즉, 그림 14-(b)에서, CG: rank 3, 의 의미는 시각 특징자로서 correlogram (CG)을 이용하였을경우 질의 영상(그림 14-(a))에 대한 결과로서 그림 14-(b)의 검색 순위가 3임을 나타낸 것이다.
제안하는 비디오 검색 시스템은 사용자의 질의에 대하여 같은 움직임 인덱스를 갖는 영상을 일차적으로 DB에서 검색한다. 각 샷마다 고유의 움직임 인덱스 번호를 가지고 있으므로, 움직임 검색은 거의 시간을 소요하지 않는다.
프레임 중 하나로 세부 분류된다. 카메라에 의해 촬영된 Z프레임은 대체로 영상의 중심 부근에 목적 객체를 갖는데, 본 알고리즘에서는 이러한 목적 객체의 위치와 외곽 움직임 벡터와의 상관관계를 고려해야 하므로 세부 프레임 분류에 앞서 영상에서의 객체 중심점을 먼저 추출한다. 객체 중심점 추출 알고리즘은 다음과 같다.
대상 데이터
실험 DB는 자연 영상, 드라마, 뮤직 비디오, 교육용 비디오 등의 다양한 영상으로 구성되어 있으며, 총 24개의 동영상에서 취득된 780여 개의 샷으로 이루어져 있다. 그림 13은 실험에 사용된 검색 시스템을 보여주고 있다.
이 모델은 카메라 움직임을 평가하기 위해 P, T, Z, R 등 네 개의 파라미터를 고려한다. 수식 (1)은 파라미터 모델에서 각 프레임에서의 움직임 벡터와 카메라 동작과의 관계를 나타낼 때 사용하는 식이다.
이론/모형
0]의 값을 가지며 높은 값을 가질수록 좋은 검색 성능을 나타낸다. 또한, 다른 성능 평가 기준으로서 MPEG-7에 정의된 ANMRR 을 이용한다.
장면 전환 검출을 통해 분할된 샷에서의 대표 프레임 영상을 이용하여 시각 특징을 추출하고, 움직임 벡터의 분산 등을 이용하여 샷에서의 움직임을 특징지었다. 본 논문에서는 시각 특징자로 color vector angle 방법을 통해 영상에서의 에지를 추출하고, 이를 이용하여 영상의 평탄 영역과 에지 영역 각각에 CCV와 correlogram 기법을 적용시키는 ESD 방법을 이용한다. 또한, 연속된 MPEG 프레임의 움직임 벡터를 프레임의 형태에 맞게 정규화한 후 이를 통해 움직임 객체의 중심좌표와 각 움직임 벡터의 사이각 등을 추출하고, 움직임 벡터를 각도에 따라 양자화 하는 등의 방법을 이용, 분할된 샷의 움직임을 8개의 움직임 인덱스로 분류하여 움직임특징 자로 이용한다.
MPEG 기반 하의 매크로 블록에서의 움직임 벡터를 이용하여 프레임에서의 움직임을 예측하고자 할 때에는 효율적인 움직임 해석을 위하여 일반적인 매크로 블록에서의 벡터 정보를 프레임의 유형과 예측 방향 등에 무관한 형태의 정규화된 움직임 벡터로 전환하는 작업이먼저 선행되어야 한다. 우리는 [24]에서 제안한 움직임 벡터 재추정 기법을 이용하여 해당 프레임의 움직임 벡터를 먼저 정규화한다. 정규화된 움직임 벡터는 peer group filtering'23을 통해 잡음이 제거되며, 해당 프레임의 유효 움직임 벡터關의 수(7hres_T)를 통해 정적프레임인지 동적 프레임인지의 여부가 일차적으로 판명된다.
우리는 해당 샷 구간 내에 가장 움직임이 적은 프레임을 선택하여 이를 대표프레임으로 하고函, 추출된 대표프레임에 대한 시각적 특징의 기술자로서 [2기에서 제안한 ESD(Edge-based Spatial Descriptor) 방법을 이용하였다. ESD는 edge correlogram'28^과 CCV(Color Coherence Vector)㈣를 이용한 에지 기반의 공간 기술자이다.
m장에서 제안한 움직임 분류 기법을 통해 각 샷은 {S, P_L, P_R, T_U, T_D, Z_I, Z_D, R}의 8가지 움직임 인덱스 중 하나를 갖게 되고, 이를 해당 샷의 움직임 특징 자로 이용한다. 특징 기술자의 색인을 위하여 본 논문에서는 R-tree기법의 효율성을 크게 개선한 R*-tree 색인 기법区을 이용하였다. R*-tree 색인 기법은 이미 QBICW에서 그 성능에 대한 평가를 받았으며 현재 도주로 사용되고 있는 기본적인 색인 기법 중 하나이다.
성능/효과
그림 15에서의 각각의 값은 전체적인 성능 비교를 위한 평균값을 나타낸다. 결과 영상이나 그래프에서 보이는 바와 같이, ESD를 이용한 제안 방법이 CCV나 correlogram 등을 이용한 방법과 비교하여 좀 더 우월한 성능을 가진다는 것을 보여주고 있다
비디오 영상에 대한 시각 특징자의 특징 추출 시간을 비교할 때, ESD 기법은 다른 방법들보다 비교적 느린 처리 시간을 가지지만, 온라인 상에서는 처음 추출된 특징 정보가 이미 R*-tree 에 의해 정보 색인이 되어 있기 때문에, 결과 검색된 최초의 M개의 영상에 대한 특징 추출 시간은 저장된 자료를 읽기 위한 아주 작은 시간만이 필요하게 되므로, 오프라인 상에서의 특징 추출시간은 사실상 큰 의미를 갖지 않게 된다. 결과적으로, 모든 검색 기법에 대해서 1ms 이하의 값을 가지므로 오프라인 상에서의 CCV나 correlogram에 대한 제안 기법에서의 특징 추출 시간의 증가는 사실상 큰 의미를 갖지 않는다. 추출된 특징에 대한 인덱스 시간은 온라인이나 오프라인 상에서 같은 값을 갖고, 약 1ms 이하의 작은 시간만이 소요된다.
본 논문에서 제안하는 기법은 기존의 방식과 달리 더 다양한 움직임 분류가 가능하며, 보다 정확한 움직임 측정을 가능하게 한다. 그러나, 제안한 방법에 있어서도 R영상의 검색에 있어 잘못 검출한 프레임의 수가 많아 precision의 수치가 높지 않았다. 표 3 에서는 각 방법에 의한 특징 추출 시간 (feature extraction time : FET)의 차이를 또한 비교하고 있다.
ESD는 영상 에지 상의 색상 상관관계를 효과적으로 표현할 수 있고 영상에서의 많은 색상 변화 등에 대해서도 강건함을 제공한다. 또한 영상에서 추출된 평탄 영역에서의 전역적인 색상 분포에 대하여 효과적으로 표현이 가능하다. m장에서 제안한 움직임 분류 기법을 통해 각 샷은 {S, P_L, P_R, T_U, T_D, Z_I, Z_D, R}의 8가지 움직임 인덱스 중 하나를 갖게 되고, 이를 해당 샷의 움직임 특징 자로 이용한다.
또한, 연속된 MPEG 프레임의 움직임 벡터를 프레임의 형태에 맞게 정규화한 후 이를 통해 움직임 객체의 중심좌표와 각 움직임 벡터의 사이각 등을 추출하고, 움직임 벡터를 각도에 따라 양자화 하는 등의 방법을 이용, 분할된 샷의 움직임을 8개의 움직임 인덱스로 분류하여 움직임특징 자로 이용한다. 실험 결과는 제안하는 알고리즘이 영상 색인 및 검색에 있어 매우 효과적임을 잘 보여주고 있다. 현재 우리는 장면 전환 검출 모듈과 움직임 특징 분류 모듈, 영상 검색 시스템을 하나로 통합하고, 사용자에게 편리한 인터페이스를 구축하는 것을 목표로 연구를 진행 중에 있다.
표 3 에서는 각 방법에 의한 특징 추출 시간 (feature extraction time : FET)의 차이를 또한 비교하고 있다. 파라미터 기반 방법은 선형 최소 제곱법을 이용하고 있기 때문에 제안한 방법보다 더 많은 특징 추출 시간이 소요됨을 알 수 있다.
성능을 표 4에서 서로 비교하고 있다. 표 4에서 보듯이, CCV나 correlogram과 같은 시각 특징자를 적용할 때보다 제안된 시스템에서 사용된 ESD 특징 자를 이용할 때 보다 향상된 시각 내용에 대한 비디오 검색성능을 보이고 있다. 이는 ESD 방법이 대표 영상을 화소의 주파수에 따라 분할하여 각 분할된 영상의 특징에 의해 CCV와 correlogram을 각각 따로 적용시키고 있기 때문인데, 보통의 자연 영상 내에서 평탄 영역에서의 히스토그램은 일반적으로 에지 영역에서의 히스토그램과 비교할 때 서로 간에 큰 색상 불일치를 보이기 때문에 이러한 영역 사이의 색상분포 차이를 고려하여 영상의 평탄 영역이나 에지 영역으로부터의 특징 추출 방법을 각각 분리함으로써 영상의 검색 성능이 크게 향상된 것이다.
참고문헌 (29)
M. Flickner et al., 'Query by image and video content: The QBIC system,' IEEE computer, vol. 28, no. 9, pp. 23-32, 1995
R. Brunelli, O. Mich, C.M. Modena, 'A survey on video indexing,' IRST-Technical Report 9612-06, 1996
이미숙, 황본우, 이성환, '내용 기반 영상 및 비디오 검색 기술의 연구 현황,' 정보과학회지, 제15권, 제9호, pp, 10-19, 1997
N. Beckmann, H.-P. Kriegel, R. Schneider, and B. Seeger, 'The R*-tree; An efficient and robust access method for points and rectangles', Proc. ACM SIGMOD, pp. 322-331, 1990
H.J. Zhang, C.Y. Low, S.W. Smoliar, and J.H Wu, 'Video parsing retrieval. and browsing: An integrated and content-based solution,' in Proc. ACM Multimedia, pp. 15-24, 1995
M. Rautiainen, M. Hosio, I. Hanski, M. Varanka, J. Kortelainen, T. Ojala, and T. Seppnen, 'TRECVID 2004 experiments at MediaTeam Oulu,' Proc. TRECVID Workshop at Text Retrieval Conference TREC 2004, in press, 2004
B. Adams et al., 'IBM Research TREC-2002 video retrieval system,' Proc. Text Retrieval Conference TREC 2002 Video Track, 2002
J. Huang, S. R. Kumar, M. Mitra, W. J. Zhu, and R. Zabih, 'Image indexing using color correlograms,' CVPR, pp. 762-768, 1997
. Mann and R.W. Picard, 'Video orbits of the projective group: A simple approach to featureless estimation of parameters,' IEEE Trans. Image Processing, vol. 6, pp, 1281-1295, 1997
W. Chen and S.-F. Chang, 'VISMap: An interactive image/video retrieval system using visualization and concept maps,' in Proc. IEEE int, Conf. Image Processing, vol. 3, pp. 588-591 2001
B.L. Yeo, B. Liu, 'Rapid scene analysis on compressed video,' IEEE Trans. on Circuits and Systems for Video Technology, vol. 5, no. 6, pp. 533-544, 1995
Y. Nakajima, K Ujihara, A. Yoneyama, 'Universal scene change detection on MPEG-coded data domain,' in Proc. SPIE Visual Comm. and Image Proc., pp. 992-1003, 1997
R. Zabih, J. Miller, K. Mai, 'A feature-based algorithm for detecting and classifying scene breaks,' ACM International Conference on Multimedia, pp. 189-200, 1995
J. Meug, Y. Juan, S.F. Chang, 'Scene change detection in a MPEG compressed video sequence,' Digital Video Compression: Algorithms and Technologies, SPIE-2419, pp. 14-25, Feb. 1995
E. Izquierdo, J. Xia, and R. Mech, 'A generic video analysis and segmentation system,' in Proc. IEEE Int., Conf. Acoustics, Speech, and Signal Processing, vol. 4, pp. 3592-3595, 2002
N.W. Kim, E.K Kang, et al., 'Scene change detection and classification algorithm on compressed video streams,' Proc. of the ITC-CSCC 2001, vol. 1, pp. 279-282, 2001
R. Wang R., T Huang, 'Fast camera motion analysis in .MPEG domain,' International Conference on Image Processing, vol. 3, pp. 691-694, 1999
E. Ardizzone, M.L. Cascia, A. Avanzato, and A. Bruna, 'Video indexing using MPEG motion compensation vectors,' IEEE Int. conf. on multimedia computing and systems, vol. 2, pp. 725-729, 1999
N.W. Kim, T.Y. Kim, and J,S. Choi, 'Probability-based motion analysis using bi-directional prediction-independent framework in compressed domain,' Optical engineering, vol. 44, no. 6, 2005
Y. Deng, C. Kenney, M.S. Moore, and B.S. Manjunath, 'Peer group filtering and perceptual color image quantization,' Proc. of IEEE Intl. Symposium on Circuits and Systems, vol. 4, pp. 21-24 1999
W. Wolf, 'Key frame selection by motion analysis,' in Proc. IEEE Int. Conf. Acoust., Speech, and Signal Proc., 1996
N.W. Kim, T.Y. Kim, and J,S. Choi, 'Edge-based spatial descriptor using color vector angle for effective image retrieval,' LNAI, vol. 3558, 2005
※ AI-Helper는 부적절한 답변을 할 수 있습니다.