$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

신체 부분 포즈를 이용한 깊이 영상 포즈렛과 제스처 인식
Depth Image Poselets via Body Part-based Pose and Gesture Recognition 원문보기

스마트미디어저널 = Smart media journal, v.5 no.2, 2016년, pp.15 - 23  

박재완 (전남대학교 전자컴퓨터공학과) ,  이칠우 (전남대학교 전자컴퓨터공학과)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 신체 부분 포즈를 이용한 깊이 영상 포즈렛과 제스처를 인식하는 방법을 제안한다. 제스처는 순차적인 포즈로 구성되어 있기 때문에, 제스처를 인식하기 위해서는 시계열 포즈를 획득하는 것에 중점을 두고 있어야 한다. 하지만 인간의 포즈는 자유도가 높고 왜곡이 많기 때문에 포즈를 정확히 인식하는 것은 쉽지 않은 일이다. 그래서 본 논문에서는 신체의 전신 포즈를 사용하지 않고 포즈 특징을 정확히 얻기 위해 부분 포즈를 사용하였다. 본 논문에서는 16개의 제스처를 정의하였으며, 학습 영상으로 사용하는 깊이 영상 포즈렛은 정의된 제스처를 바탕으로 생성하였다. 본 논문에서 제안하는 깊이 영상 포즈렛은 신체 부분의 깊이 영상과 해당 깊이 영상의 주요 3차원 좌표로 구성하였다. 학습과정에서는 제스처를 학습하기 위하여 깊이 카메라를 이용하여 정의된 제스처를 입력받은 후, 3차원 관절 좌표를 획득하여 깊이 영상 포즈렛이 생성되었다. 그리고 깊이 영상 포즈렛을 이용하여 부분 제스처 HMM을 구성하였다. 실험과정에서는 실험을 위해 깊이 카메라를 이용하여 실험 영상을 입력받은 후, 전경을 추출하고 학습된 제스처에 해당하는 깊이 영상 포즈렛을 비교하여 입력 영상의 신체 부분을 추출한다. 그리고 HMM을 적용하여 얻은 결과를 이용하여 제스처 인식에 필요한 부분 제스처를 확인한다. 부분 제스처를 이용한 HMM을 이용하여 효과적으로 제스처를 인식할 수 있으며, 관절 벡터를 이용한 인식률은 약 89%를 확인할 수 있었다.

Abstract AI-Helper 아이콘AI-Helper

In this paper we propose the depth-poselets using body-part-poses and also propose the method to recognize the gesture. Since the gestures are composed of sequential poses, in order to recognize a gesture, it should emphasize to obtain the time series pose. Because of distortion and high degree of f...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 이와 같이 포즈렛을 이용하여 신체를 검출하고 액션을 인식하기 위해 다양한 연구와 시도가 이루어지고 있다. 본 논문에서는 이러한 포즈렛의 개념을 이용하여 신체를 검출하고 시간 연속적인 순차적 포즈를 이용하여 액션을 인식하도록 할 것이다.
  • 본 장에서는 서론에서 언급한 것처럼 부분 포즈를 이용하여 포즈를 비교할 것이다. 이에 앞서, 포즈의 전체 특징을 이용하는 연구와 포즈의 부분 특징을 이용하는 연구에 대해 알아볼 것이다.
  • 그리고 Appearance model과 Spatial model을 결합하여 사용함으로써 부분 포즈를 이용하는 장점을 충실히 이행하고 있지만 특별히 포즈렛과 차이를 주지 않고 있다. 하지만 액션을 검출하기 위해서 하나의 영상을 이용하는 점이 단점이고 이를 보완하기 위해 주변 상황과 함께 Object를 이용하려 하였다.

가설 설정

  • 하지만 인간의 포즈는 자유도가 높고 영상 프레임을 획득하면서 손실이 생기는 경우가 많으므로 포즈 인식은 쉽게 해결하기 어려운 문제이다. 그렇기 때문에 본 논문에서는 정확한 포즈 인식이 어렵다는 가정 하에 신체의 부분 포즈를 기반으로 하는 신체 부분 제스처를 인식하였다.
  • 그림 4에서 보이는 숫자를 관측벡터라고 가정하였을 때, MM(위)은 각 상태에서 하나의 벡터만이 관측되기 때문에 관측 벡터에 따라 상태의 이동을 알아낼 수 있는 반면, HMM(아래)은 벡터가 관측된다고 하더라도 어떤 상태에서 관측이 되었는지 알 수 없다. 그림 4에서는 S1, S2, S3, S4와 같은 상태들에는 비슷한 벡터가 군집되어 있다고 가정하였으며, 모든 상태에서 벡터가 관측되지 않지만, 유사한 형태를 가진 포즈가 군집되어 HMM의 상태를 구성할 수 있도록 HMM을 생성하여야 한다. 이는 인간의 제스처의 흐름이 시간의 연속성에 관계하고 있기 때문이다.
  • 그러므로 제스처를 인식하기 위해 HMM의 상태를 구성하는 경우에는 신체 포즈와 모델의 상태를 동일하게 설정하기보다는 현재 상태에서 여러 신체 포즈가 관측될 수 있도록 구성하여야 한다. 또한 관측을 통해 얻을 수 있는 벡터와 상태가 같지 않도록 시간 연속적인 제스처 시퀀스도 상태의 이동을 고려해야 한다고 가정할 수 있다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
시계열 데이터란? 확률 이론에 바탕을 두고 있는 HMM은 관측되는 벡터 특징 사이의 시간 연관성이 존재하는 시계열 데이터 분류에 주로 사용되는 방법이다. 시계열 데이터는 음성 인식이나 필기체 인식 등과 같이 벡터 고유의 특징과 더불어 인접한 특징들의 연속적인 관계가 분류에 중요한 요소가 되는 데이터를 말한다. 그렇기 때문에 순차적인 데이터를 갖는 패턴을 분석하기 위해서는 시간 연속적인 데이터를 표현하는 방법과 데이터로부터 정보를 추출할 수 있는 모델이 필요하다.
인간의 신체를 검출하는 방법 중 HoG는 어떤 방법인가? 인간의 신체를 검출하는 방법 중, 보행자 검출에서 많이 사용되는 HoG(histogram of Oriented Gradient)[1]는 사람의 신체 영역을 특징 패턴으로 모델링하여 영상으로부터 동일한 패턴을 갖는 영역을 사람으로 검출하는 방법이다. 하지만 특징 패턴에서는 에지 정보만을 이용하기 때문에 검출 이외의 용도에서 부적합하다는 단점을 가지고 있다.
인간의 신체를 검출하는 방법 중 HoG는 검출 이외의 용도에는 부적합한 이유는 무엇인가? 인간의 신체를 검출하는 방법 중, 보행자 검출에서 많이 사용되는 HoG(histogram of Oriented Gradient)[1]는 사람의 신체 영역을 특징 패턴으로 모델링하여 영상으로부터 동일한 패턴을 갖는 영역을 사람으로 검출하는 방법이다. 하지만 특징 패턴에서는 에지 정보만을 이용하기 때문에 검출 이외의 용도에서 부적합하다는 단점을 가지고 있다. 또한 본 논문에서의 입력 영상의 특징이 밝기 값이며 밝기 변화에 따라 형태가 변하는 영상에서는 강건한 특징 값을 추출하기 어렵기 때문에 본 논문에서는 HoG를 사용하지 않는다.
질의응답 정보가 도움이 되었나요?

참고문헌 (14)

  1. Dalal, Navneet, and Bill Triggs. "Histograms of oriented gradients for human detection." Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on. Vol. 1. IEEE, 2005. 

  2. Bourdev, Lubomir, and Jitendra Malik. "Poselets: Body part detectors trained using 3d human pose annotations." Computer Vision, 2009 IEEE 12th International Conference on. IEEE, 2009. 

  3. Kraft, Erwin, and Thomas Brox. "Motion Based Foreground Detection and Poselet Motion Features for Action Recognition." Computer Vision--ACCV 2014. Springer International Publishing, 2015. 350-365 

  4. Maji, Subhransu, Lubomir Bourdev, and Jitendra Malik. "Action recognition from a distributed representation of pose and appearance." Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011. 

  5. Felzenszwalb, Pedro F., and Daniel P. Huttenlocher. "Efficient matching of pictorial structures." Computer Vision and Pattern Recognition, 2000. Proceedings. IEEE Conference on. Vol. 2. IEEE, 2000. 

  6. Li, Bo, et al. "Part-based pedestrian detection using grammar model and ABM-HoG features." Vehicular Electronics and Safety (ICVES), 2013 IEEE International Conference on. IEEE, 2013. 

  7. Wang, Chunyu, Yizhou Wang, and Alan L. Yuille. "An approach to pose-based action recognition." Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on. IEEE, 2013. 

  8. Yang, Yi, and Deva Ramanan. "Articulated human detection with flexible mixtures of parts." Pattern Analysis and Machine Intelligence, IEEE Transactions on 35.12 (2013): 2878-2890. 

  9. Desai, Chaitanya, and Deva Ramanan. "Detecting actions, poses, and objects with relational phraselets." Computer Vision-ECCV 2012. Springer Berlin Heidelberg, 2012. 158-172. 

  10. Wang, Yang, Duan Tran, and Zicheng Liao. "Learning hierarchical poselets for human parsing." Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011. 

  11. Liu, Nianjun, et al. "Understanding HMM training for video gesture recognition." TENCON 2004. 2004 IEEE Region 10 Conference. IEEE, 2004. 

  12. Elmezain, Mahmoud, et al. "A hidden markov model-based continuous gesture recognition system for hand motion trajectory." Pattern Recognition, 2008. ICPR 2008. 19th International Conference on. IEEE, 2008. 

  13. Kita, Kenji, et al. "Automatic acquisition of probabilistic dialogue models." Spoken Language, 1996. ICSLP 96. Proceedings., Fourth International Conference on. Vol. 1. IEEE, 1996. 

  14. Kumar, S., D. R. Deepti, and Ballapalle Prabhakar. "Face recognition using pseudo-2D ergodic HMM." Acoustics, Speech and Signal Processing, 2006. ICASSP 2006 Proceedings. 2006 IEEE International Conference on. Vol. 2. IEEE, 2006. 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로