$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

자세 예측을 이용한 효과적인 자세 기반 감정 동작 인식
Effective Pose-based Approach with Pose Estimation for Emotional Action Recognition 원문보기

정보처리학회논문지. KIPS transactions on software and data engineering. 소프트웨어 및 데이터 공학, v.2 no.3, 2013년, pp.209 - 218  

김진옥 (대구한의대학교 국제문화정보대학 모바일콘텐츠학부)

초록

인간의 동작 인식에 대한 이전 연구는 주로 관절체로 표현된 신체 움직임을 추적하고 분류하는데 초점을 맞춰 왔다. 이 방식들은 실제 이미지 사용 환경에서 신체 부위에 대한 정확한 분류가 필요하다는 점이 까다롭기 때문에 최근의 동작 인식 연구 동향은 시공간상의 관심 점과 같이 저수준의, 더 추상적인 외형특징을 이용하는 방식이 일반화되었다. 하지만 몇 년 사이 자세 예측 기술이 발전하면서 자세 기반 방식에 대한 시각을 재정립하는 것이 필요하다. 본 연구는 외형 기반 방식에서 저수준의 외형특징만으로 분류기를 학습시키는 것이 충분한지에 대한 문제를 제기하면서 자세 예측을 이용한 효과적인 자세기반 동작인식 방식을 제안하였다. 이를 위해 다양한 감정을 표현하는 동작 시나리오를 대상으로 외형 기반, 자세 기반 특징 및 두 가지 특징을 조합한 방식을 비교하였다. 실험 결과, 자세 예측을 이용한 자세 기반 방식이 저수준의 외형특징을 이용한 방식보다 감정 동작 분류 및 인식 성능이 더 나았으며 잡음 때문에 심하게 망가진 이미지의 감정 동작 인식에도 자세 예측을 이용한 자세기반의 방식이 효과적이었다.

Abstract AI-Helper 아이콘AI-Helper

Early researches in human action recognition have focused on tracking and classifying articulated body motions. Such methods required accurate segmentation of body parts, which is a sticky task, particularly under realistic imaging conditions. Recent trends of work have become popular towards the us...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구는 복잡한 전처리과정이 필요했던 기존 자세 기반 방식을 개선한 예측 기술을 적용하여 감정을 표현하는 동작인식을 빠르고 효과적으로 처리하는 방법을 제안한다. 그리고 동작 인식의 대표적인 두 가지 흐름인 자세기반과 외형기반 동작 인식 방법 그리고 두 방법의 특징을 조합한 조합 방법을 비교함으로써 자세 예측을 이용한, 전처리과정이 필요 없는 자세 기반 감정 동작인식의 새로운 방향을 제시하고자 한다.
  • 본 연구는 Fig. 1과 같이 동작 인식의 대표적 두 가지 접근 방식인 외형기반과 자세 기반 방식의 비교 실험과 더불어 두 방법의 특징을 조합한 방법도 실험하여 동작 인식 기술에 가장 효과적인 접근 방식을 제시하고자 한다. 실험에서는 사람의 다양한 동작 중 인식대상 동작에 집중하기 위한 정확한 인식 도메인을 설정하는 것이 필요하므로 감정 표현 동작을 대상으로 동작 인식 접근 방식에 대한 실험을 수행하도록 한다.
  • 본 연구는 복잡한 전처리과정이 필요했던 기존 자세 기반 방식을 개선한 예측 기술을 적용하여 감정을 표현하는 동작인식을 빠르고 효과적으로 처리하는 방법을 제안한다. 그리고 동작 인식의 대표적인 두 가지 흐름인 자세기반과 외형기반 동작 인식 방법 그리고 두 방법의 특징을 조합한 조합 방법을 비교함으로써 자세 예측을 이용한, 전처리과정이 필요 없는 자세 기반 감정 동작인식의 새로운 방향을 제시하고자 한다.
  • 본 연구에 적용한 색상, 시공간적 기울기 등의 외형기반의 특징과 관절거리, 평면, 자세 등의 자세기반 특징을 추출한 다음 이를 학습하고 분류하는 방법에 대해 설명한다. 동작 특징과 학습에 적용한 기호는 Table 1과 같다.
  • 본 연구에서는 감정을 드러낸 동작을 대상으로 자세 예측을 이용한 자세기반 동작 인식 기술을 제안하였다. 제안 방법의 타당성을 설명하기 위해 현재 가장 일반적인 동작 인식 기술로 이용되고 있는 외형특징 기반 방식과의 비교를 수행하였다.
  • 1과 같이 동작 인식의 대표적 두 가지 접근 방식인 외형기반과 자세 기반 방식의 비교 실험과 더불어 두 방법의 특징을 조합한 방법도 실험하여 동작 인식 기술에 가장 효과적인 접근 방식을 제시하고자 한다. 실험에서는 사람의 다양한 동작 중 인식대상 동작에 집중하기 위한 정확한 인식 도메인을 설정하는 것이 필요하므로 감정 표현 동작을 대상으로 동작 인식 접근 방식에 대한 실험을 수행하도록 한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
외형기반의 방법의 장점은? 대신 동작 인식 대상이 특정 영화 시퀀스[3], 스포츠 중계방송[4], 유투브 비디오[5]와 같은 자연스러운 이미지 시퀀스를 분석하는 형태로 바뀌면서 사람의 신체를 고수준으로 모델링하는 대신 점차 추상적이고 저수준의 외형 특징으로 동작을 분류하는 외형기반의 방법[6-9]을 주로 이용하고 있다. 외형기반의 방법은 고수준 특징 처리를 하지 않기 때문에 자세 예측을 해야 하는 어려움을 피할 수 있으며 외형 특징이 사람의 신체에만 한정되지 않기 때문에 배경과 같은 상황인식 정보를 반영할 수 있다는 장점이 있다. 또한 외형기반의 시스템은 사람의 외형, 복잡한 배경 분리, 여러 시점처리와 같이 클래스 간에 변화가 다양한 데이터를 처리할 수 있어 자세 예측이 어려운 이미지나 저 해상도 이미지에도 적용할 수 있다[7].
자세 기반의 동작인식 접근 방식이 최근 거의 주목을 받지 못한 이유는? 동작에 대한 초기 연구는 관절 움직임을 이용해 신체 부위를 추적하는 것에 중점을 두었다[1-2]. 동작은 관절 자세의 연속이라는 정의에서 파생한 자세 기반의 동작인식 접근 방식은 가장 간단한 방법이지만 신체 관절 부위를 정확하게 추적해야 하기 때문에 사람의 자세를 정확히 추출해야 하고 실제 이미지 조건에서 처리해야 한다는 문제로 인해 최근에는 거의 주목을 못 받고 있다.
3D 형태의 스켈레턴 자세를 분석할 때 자세기반 방식을 적용하는 것이 적절한 이유는? 하지만 자세기반 방식은 동작 인식 성능이 탁월하며 외형기반 동작 인식 방식의 문제점으로 대두되어 온 클래스 간의 적은 변화량에도 강건하다는 장점이 있다. 특히 3D 형태의 스켈레턴 자세를 분석할 경우 시점과 외형이 불변하기 때문에 동작을 취하는 사람 간에 변화가 크지 않아 외형기반 방법으로는 동작을 인식하기가 어려우므로 자세기반 방법을 적용하는 것이 적절하다. 그리고 인식 대상의 고수준 특징 정보를 이미 추출한 상태라면 자세 기반 방식이 동작 인식의 학습과정을 단순화시킬 수 있다는 점도 큰 장점이다.
질의응답 정보가 도움이 되었나요?

참고문헌 (24)

  1. L. Campbell, A. Bobick. "Recognition of human body motion using phase space constraints". ICCV(International Conference on Computer Vision), 1995, pp.624-630. 

  2. D. Gavrila, L. Davis. "Towards 3-d model-based tracking and recognition of human movement: a multi-view approach". Int. Workshop on Face and Gesture Rec., 1995, pp.272-277. 

  3. I. Laptev, M. Marszałek, C. Schmid, B. Rozenfeld. "Learning realistic human actions from movies". CVPR(Computer Vision and Pattern Recognition), 2008, pp.1-8. 

  4. M. D. Rodriguez, J. Ahmed, M. Shah. "Action mach: A spatio-temporal maximum average correlation height filter for action recognition". CVPR(Computer Vision and Pattern Recognition), 2008, pp.58-65. 

  5. J.G. Liu, J.B. Luo, M. Shah. "Recognizing realistic actions from videos in the wild". CVPR(Computer Vision and Pattern Recognition), pp.1996-2003, 2009. 

  6. P. Dollar, V. Rabaud, G. Cottrell, S. Belongie. "Behavior recognition via sparse spatio-temporal features". Int. Workshop on Visual Surveillance and Performance Evaluation of Tracking and Surveillance (VS-PETS), 2005, pp.65-72. 

  7. A. Efros, A. Berg, G. Mori, J. Malik. "Recognizing action at a distance". ICCV(International Conference on Computer Vision), Vol.2, 2003, pp.726-733. 

  8. J. Gall, V. Lempitsky. "Class-specific hough forests for object detection". CVPR(Computer Vision and Pattern Recognition), 2009, pp.1022-1029. 

  9. J. Sivic. "Efficient visual search of videos cast as text retrieval". IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol.31, No.4. pp.591-605, 2009. 

  10. K. Schindler, L. Van Gool. "Action snippets: How many frames does human action recognition require?", CVPR(Computer Vision and Pattern Recognition), 2008, pp.1-8, 

  11. J. Bandouch, M. Beetz. "Tracking humans interacting with the environment using efficient hierarchical sampling and layered observation models, Int. Workshop on Human- Computer Interaction", 2009, pp.2040-2047, 

  12. J. Gall, A. Yao, L. Van Gool. "2d action recognition serves 3d human pose estimation", ECCV(European Conference on Computer Vision), 2010, pp.425-428. 

  13. G. Taylor, L. Sigal, D. Fleet, G. "Hinton. Dynamical binary latent variable models for 3d human pose trackin". CVPR(Computer Vision and Pattern Recognition), 2010, pp.631-638. 

  14. L. Breiman. "Random Forests. Machine Learning", Vol.45, No.1, pp.5-32, 2001. 

  15. L. Kovar, M. Gleicher. "Automated extraction and parameterization of motions in large data sets". ACM Trans. Graph., Vol.23, pp.559-568, 2004. 

  16. C. Rao, A. Yilmaz, M. Shah. "View-invariant representation and recognition of actions". IJCV(International Journal of Computer Vision), Vol.50, No.2, 2002, pp.203-226. 

  17. D. Weinland, E. Boyer, R. Ronfard. "Action recognition from arbitrary views using 3d exemplars". ICCV(International Conference on Computer Vision), 2007, pp.1-7. 

  18. D. Weinland, E. Boyer. "Action recognition using exemplar-based embedding", CVPR(Computer Vision and Pattern Recognition), 2008, pp.1-7. 

  19. R. Li, T.P. Tian, S. Sclaroff, M. H. Yang. "3d human motion tracking with a coordinated mixture of factor analyzers". IJCV(International Journal of Computer Vision), Vol.87, 2010, pp.170-190. 

  20. C. Thurau, V. Hlavac. "Pose primitive based human action recognition in videos or still images". CVPR(Computer Vision and Pattern Recognition), 2008, pp.1-8. 

  21. A. Klaser, M. Marszałek, C. Schmid, A. Zisserman. "Human focused action localization in video". Int. Workshop on Sign, Gesture, and Activity (SGA), 2010. 

  22. Z. Zeng, M. Pantic, G. Roisman, T. Huang, "A survey of affect recognition methods: Audio, visual, and spontaneous expressions". IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.31, No.1, pp.39-48, 2009. 

  23. Kim Jin Ok, "A Study on Visual Perception based Emotion Recogniton using Body-Activity Posture", The KIPS Transactions: Part B, Vol.18, No.5, pp.305-314, 2010. 

  24. M. Muller, T. Roder, M. Clausen. "Efficient content-based retrieval of motion capture data". ACM Trans. Graph., Vol.24, pp.677-685, 2005. 

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로