본 연구는 원거리에서 걸음걸이 (보행)의 특성을 분석하여 인간을 식별하는 보행인식 (gait recognition) 기술을 다중 특징점 기반으로 확장하여 인식률 및 오류 내성을 향상시키는 기술을 제안한다. 보다 구체적으로 i)움직임 검출, ii) 객체 영역 검출, iii) 머리 영역 검출, 그리고, iv) 능동 형태 모델을 이용하여 기본 알고리듬 (gait baselinealgorithm)의 문제점인 전처리 과정없이 그림자 영향과 낮은 인식률을 개선하였다. 제안된 알고리듬은 HumanID Gait Challenge (HGCD) 데이터집합을 이용한 실험을 통해 환경 변화요인에도 강건한 인간 보행인식이 가능함을 확인할 수 있다.
본 연구는 원거리에서 걸음걸이 (보행)의 특성을 분석하여 인간을 식별하는 보행인식 (gait recognition) 기술을 다중 특징점 기반으로 확장하여 인식률 및 오류 내성을 향상시키는 기술을 제안한다. 보다 구체적으로 i)움직임 검출, ii) 객체 영역 검출, iii) 머리 영역 검출, 그리고, iv) 능동 형태 모델을 이용하여 기본 알고리듬 (gait baseline algorithm)의 문제점인 전처리 과정없이 그림자 영향과 낮은 인식률을 개선하였다. 제안된 알고리듬은 HumanID Gait Challenge (HGCD) 데이터집합을 이용한 실험을 통해 환경 변화요인에도 강건한 인간 보행인식이 가능함을 확인할 수 있다.
The gait recognition is presented for human identification from a sequence of noisy silhouettes segmented from video by capturing at a distance. The proposed gait recognition algorithm gives better performance than the baseline algorithm because of segmentation of the object by using multiple module...
The gait recognition is presented for human identification from a sequence of noisy silhouettes segmented from video by capturing at a distance. The proposed gait recognition algorithm gives better performance than the baseline algorithm because of segmentation of the object by using multiple modules; i) motion detection, ii) object region detection, iii) head detection, and iv) active shape models, which solve the baseline algorithm#s problems to make background, to remove shadow, and to be better recognition rates. For the experiment, we used the HumanID Gait Challenge data set, which is the largest gait benchmarking data set with 122 objects, For realistic simulation we use various values for the following parameters; i) viewpoint, ii) shoe, iii) surface, iv) carrying condition, and v) time.
The gait recognition is presented for human identification from a sequence of noisy silhouettes segmented from video by capturing at a distance. The proposed gait recognition algorithm gives better performance than the baseline algorithm because of segmentation of the object by using multiple modules; i) motion detection, ii) object region detection, iii) head detection, and iv) active shape models, which solve the baseline algorithm#s problems to make background, to remove shadow, and to be better recognition rates. For the experiment, we used the HumanID Gait Challenge data set, which is the largest gait benchmarking data set with 122 objects, For realistic simulation we use various values for the following parameters; i) viewpoint, ii) shoe, iii) surface, iv) carrying condition, and v) time.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
보행을 이용한 생물학적 측정은 형체 (shape)와 역학 (dynamics)방식으로 구분되며, 역학방식은 보행간의 무릎과 대퇴부의 각도 등을 계산하여 보행주기를 찾는 방식이고, 형체방식은 사람의 윤곽 (silhouette)을 바탕으로 화소 (pixel)의 수를 계산하여, 화소 수의 변화를 통해 보행주기를 찾는 방식이다 형체와 역학 방식에 따른 연구는 그림 2와 같이 진행되고 있다. 본 논문은 사람의 복장이나 질감 등에 강건한 윤곽 기반 형체 방식을 사용한 새로운 보행인식 기술을 제안한다.
본 연구에서는 인간의 외형을 2차원으로 표현하고, 윤곽선을 정합하는 능동 형태 모델을 사용한 방식을 제안한다. 객체 영역 추출 기법을 통해 얻어진 결과와 머리 영역 추출 기법으로 추정된 머리 영역의 X와 y 값들은 능동 형태 모델 기법의 입력 값으로 사용된다.
제안 방법
추출된 윤곽은 다른 객체와의 유사도 측정을 위해 128 화소의 높이로 정규화 (normalization) 된다. 다음 단계는 추출된 윤곽의 중심점 하부의 화소 값의 수를 계산하여 객체의 보행 주기를 계산하고, 추출된 보행 주기를 이용하여 객체 고유의 보행 주기를 추정한다. 기본 알고리듬의 마지막 단계인 유사도 측정단계는 비교 대상간의 유클리디언 거리 (Euclidean distance)를 계산하여 측정한다図.
본 연구는 기본 알고리듬의 문제점인 전처리 과정 및 그림자 제거, 낮은 인식률을 다중 특징점 추출 방법을 이용하여 해결하였다. 하지만 단일 객체의 옆모습만을 추정하였고, 평균80%를 상회하는 인식률을 얻었다.
첫 번째 범주인 영역 (region) 또는 반점 (blob) 기반의 추적 방법에서 사용하는 모델링 기법은 색상, 질감, 또는 지역적 영상의 특징을 이용하고, 두 번째 범주는 인간의 외형을 2차원으로 모델링하는 기법을 말하며, 마지막 범주는 인간을 3차원으로 정밀하게 모델링하는 방법으로 구분 짓는다. 본 연구는 두 번째 범주에 속하는 Baumberg図의 인간 보행모델방법을 사용하여 3차원의 인간 모델을 2차원적으로 표현하고, 다른 객체들과 구분 짓는다. 그림 7은 인간 보행 모델을 형태별로 보여준다.
본 절에서는 다중 특징점 추출을 사용하여 문제점을 해결하고, 2차원 능동 형태 모델 (active shape models)을 이용하여 그림자 제거 및 환경 변화요인에보다 강건한 객체 추출 방법을 제안한다. 제안된 알고리듬은 다음과 같이 4개의 단계, 즉 i) 움직임 검출, ii) 머리 영역 추출, ⅲ) 객체 영역 추출, 그리고 ⅳ) 능동형태 모델로 구성되어 있다.
위와 같이 계산된 인간 보행 주기와 비교 데이터 집합의 주기와의 유사성을 측정한다. 인간보행 인식률은 실험 데이터 집합。와 데이터베이스에 저장된 데이터 집합 G와의 주기에 해당하는 시퀀스(sequence)들의 전체적인 유사성을 측정한 결과 값이다.
제안된 알고리듬은 다음과 같이 4개의 단계, 즉 i) 움직임 검출, ii) 머리 영역 추출, ⅲ) 객체 영역 추출, 그리고 ⅳ) 능동형태 모델로 구성되어 있다. 제안된 다중 특징점 상호관계는 그림 5와 같고, 그림 6와 같이 예측, 측정, 가정단계를 설정하여 객체 추적의 오류 값을 보정하고, 실시간 처리 가능한 시스템을 구축한다.
제안된 알고리듬의 실험 데이터 집합은 HGCD를 이용하였고, 객체는 기명을 비교하였고, 실험은 다음과 같이 실험의 난이도를 높여가며 수행하였다. A) 카메라 방향, B) 신발, C) 카메라 방향 + 신발, D) 표면, E) 신발 + 표면, F) 카메라 방향 + 표면, 그리고 G) 카메라 방향 + 신발 + 표면.
일반적인 움직임 검출 방법은 그림 8과 같다. 제안된 움직임 검출을 위한 배경 영상은 n개의 이전 프레임 영상 (“n > 0" )을 미디언 필터링해서 얻고, 프레임이 진행되면서 자동으로 갱신된다.
제안된 인간 보행 인식 방법은 윤곽 기반 형태 모델을 기반으로 다중 특징점 추출 결과를 입력 값으로 받아 형태 모델의 내부의 중심점 하부의 화소 수를 계산하여 개인별 고유의 보행 주기성을 찾는다. 다중 특징점 추출 방법의 결과를 이용하여 객체의 윤곽을 추출한 결과는 그림 15와 같고, HGCD의 '02463C1AR' 데이터를 이용하여 기본 알고리듬과 제안된 알고리듬의 인간 보행 주기를 비교한 그래프는 그림 16와 같다.
프레임 유사성을 계산한 후과Segz化의 상관도를 측정한다. 두 시퀀스간 상관도측정 방법은 식 (13)과 같다.
이론/모형
보행인식에 많이 사용되는 데이터집합에는 CMU-Mobo[3] (실내, 25 명), UMD141 (실외, 55 명), Southampton® (실내 및 실외, 115 명), CASIA161 (실내, 124 명), 그리고 HumanlD Gait Challenge® (실외, 122 명) 데이터집합이 있다. 위와 같이 서로 다른 환경 요인을 바탕으로 구성된 데이터집합들 중 본 연구에서는 실외에서 체계적인 환경변화에 따른 보행인식률을 계산할 수 있는 HumanlD Gait Challenge 데이터집합 (HGCD) 을 이용하였다. HGCD는 그림 3와 같이 구성되어있고, 다음과 같은 환경변화 요인을 갖고 있다.
위와 같이 저장된 바운딩 박스를 이용하여 배경을 생성하고, 프레임마다 객체의 위치를 추정한다. 위의 결과를 바탕으로 인간의 윤곽을 추출하는 윤곽 추출 단계 (silhouette extraction step)에서는 배경영상과 전경 영상의 색상 화소 값의 Mahalanobis 거리기반의 기댓값 최대화 (expectation maximization) 방법을 이용한다. 추출된 윤곽은 다른 객체와의 유사도 측정을 위해 128 화소의 높이로 정규화 (normalization) 된다.
성능/효과
모든 경우에서 제안된 알고리듬이 우수하다는 것을 확인할 수 있다.
상기의 주성분 분석 결과로 얻어진 행렬 P와 가중치 벡터 b (또는 model parameter)의 선형적 결합과 평균 형태의 합을 통해 모든 형태는 표현 가능하며, 새로운 형태의 추정이 가능하다. 새로운 형태 모델을 추정하는 과정이 다음 식에 보인다.
제안된 보행인식 알고리듬은 기본 알고리듬 (the baseline algorithirpM) 의 윤곽 추출 부분을 다중 특징점 추출방법 (움직임 검출, 머리 영역 추출, 객체 영역추출, 능동 형태 모델)을 이용하여 개선하고, 그 결과로그림자제거 및 배경영상 차분에 따른 오류값을 보상하여 향상된 인식 성능을 보인다. 본 논문의 구성은 다음과 같이 구성되어 있다.
후속연구
하지만 단일 객체의 옆모습만을 추정하였고, 평균80%를 상회하는 인식률을 얻었다. 차후 연구는 대상 인간의 입력 방향과 무관하거나, 3차원 보행자 인식이 가능한 연구 및 다중 객체를 동시에 인식하는 연구를 진행할 필요가 있다.
참고문헌 (12)
J. Cutting and L. Kozlowski, 'Recognition of friends by their walk,' Bulletin of the Psychonomic Society, vol. 9, no. 5, pp. 353?356, 1977
S. Sarkar, P. Jonathon Phillips, Z. Liu, I. Robledo-Vega, P. Grother, and K. Bowyer, 'The human ID gait challenge problem: Data sets, performance, and analysis,' IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 27, no. 2, pp. 162-177, February 2005
R. Gross and J. Shi, The CMU motion of body (MoBo) database, Tech. report CMU-RI-TR- 1-18, Robotics Institute, Carnegie Mellon University, June 2001
A. Kale, A. Sundaresan, A. N. Rajagopalan, N. Cuntoor, A.Roy-Chowdhury, V. Krger, and R. Chellappa, 'Identification of humans using gait,' IEEE Trans. Image Processing, vol. 13, no. 9, pp. 1163-1173, September 2004
D. Wagg and M. Nixon, 'On automated model-based extraction and analysis of gait,' International Conf. Automatic Face and Gesture Recognition, pp. 11?16, May 2004
L. Wang, T. Tan, H. Ning, and W. Hu, 'Silhouette analysis-based gait recognition for human identification,' IEEE Trans. Pattern Analysis and Machine Intelligence, vol. 25, no. 12, pp. 1505-1518, December 2003
A. Baumberg, Learning deformable models for tracking human motion, phD thesis, School of Computer Studies, University of Leeds, Leeds, UK, October 1995
R. Bartels, J. Beatty, and B. Barsky, An introduction to splines for use in computer graphics and geometric modeling, Morgan Kaufmann Publishers Inc. 1987
T. Cootes, A. Hill, C. Taylor and J. Haslam, 'The use of active shape models for locating structures in medical images,' Image and Vision Computing, vol. 12, no. 6, pp. 355-366, July 1994
V. Maik, D. Cho, J. Shin, D. Har, and J. Paik, 'Color-shift model-based segmentation and fusion for digital auto focusing,' Journal Imaging Science, Technology, vol. 51, no. 4, July 2007
M. Nixon and J. Carter, 'Automatic recognition by gait,' Proceedings of the IEEE, vol. 94, no. 11, pp. 2013-2024, November 2006
※ AI-Helper는 부적절한 답변을 할 수 있습니다.