$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

시공간 템플릿과 컨볼루션 신경망을 사용한 깊이 영상 기반의 사람 행동 인식
Depth Image-Based Human Action Recognition Using Convolution Neural Network and Spatio-Temporal Templates 원문보기

전기학회논문지 = The Transactions of the Korean Institute of Electrical Engineers, v.65 no.10, 2016년, pp.1731 - 1737  

음혁민 (Dept. of Electrical and Electronic Engineering, Yonsei University) ,  윤창용 (Dept. of Electrical Engineering, Suwon Science College)

Abstract AI-Helper 아이콘AI-Helper

In this paper, a method is proposed to recognize human actions as nonverbal expression; the proposed method is composed of two steps which are action representation and action recognition. First, MHI(Motion History Image) is used in the action representation step. This method includes segmentation b...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문은 사람 행동 인식 성능을 개선하기 위해 시공간 템플릿과 컨볼루션 신경망을 사용하여 깊이 영상 기반의 사람 행동인식 방법을 제안하였다. 제안된 방법은 깊이 영상을 통해 객체를 찾고 MHI를 사용하여 사람 행동 묘사를 하였다.
  • 본 논문은 실내 환경에서 고정된 카메라를 통해 얻어지는 깊이 영상을 기반으로 실험하였다. 카메라에서 30 fps로 영상을 받아오고 시야각은 수평 57도이고 수직 43도이다.
  • 본 논문은 행동 인식의 성능을 개선하기 위해 시공간 템플릿과 컨볼루션 신경망을 통한 방법을 제안하고 성능을 평가 하고자 한다. 본 논문의 구성은 다음과 같이 나타난다.
  • 이러한 분류기는 행동 묘사를 통해 관측된 특징들을 분류하여 사람의 행동을 인식하게 된다. 본 논문은 행동 인식의 성능을 개선하기 위해 인공 신경망 중에 컨볼루션 신경망을 이용하여 다른 분류기들 보다 행동 인식 성능을 개선하고자 한다[13, 14].
  • 먼저, 사람 행동 묘사 단계는 영상 분할, 노이즈 제거 및 홀 메움, MHI로 구성된다. 영상 분할은 배경과 배경이 아닌 전경을 분리하는 것을 주된 목적으로 한다. 카메라에서 받아진 깊이 영상을 통해 객체(전경)를 찾기 위한 과정이다.

가설 설정

  • 필터를 사용하여 노이즈를 줄이고 전경 부분에서 홀이 생기는 경우가 존재하기 때문에 홀을 메워준다. 위의 과정들은 MHI를 생성하기 위한 전처리와 같고 전경을 찾게 되면 이것을 사람으로 가정하고 MHI를 수행하게 된다. MHI는 시간의 흐름에 따라 나타나는 전경을 통해 정보의 중요도를 밝기 차이로 나타낸다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
카메라를 사용하는 행동 인식 방법 두 단계의 특징은? 카메라를 사용하는 행동 인식 방법들은 2가지 단계(행동 묘사 단계와 행동 인식 단계)로 구성된다. 행동 묘사 단계는 사람의 행동에 대한 특징을 추출하고 행동 인식 단계는 분류기를 통해서 특징들을 행동들로 인식하게 된다. 본 논문에서 사용한 2가지 단계에 대한 사전 연구를 들을 수 있다.
자연스러운 인터페이스 구축을 위해 비언어적 표현에 대한 연구가 중요한 이유는? 일상생활에서 사람은 언어를 통하여 정보를 교환하기도 하고 비언어적인 행동을 사용하여 정보를 교환하기도 한다. 예를 들어, 손을 흔들어서 인사를 하는 것을 들을 수 있다.
센서 기반의 방법은 어떻게 행동을 인식하는가? 행동을 인식하는 시스템은 센서 기반의 방법과 시각(카메라) 기반의 방법으로 나눌 수 있다. 먼저, 센서 기반의 방법은 사람의 몸 관절에 센서를 부착하여 얻어진 변위 값을 이용하여 행동을 인식한다[7]. 이 방법은 센서와 같은 장치를 몸에 붙이는 과정이 번거롭고 복잡하며, 항상 같은 부위에 부착하는 것이 아니라 초기 교정이 어렵다.
질의응답 정보가 도움이 되었나요?

참고문헌 (18)

  1. A. A. Chaaraoui, J. R. Padilla-Lopez, F. J. Ferrandez-Pastor, M. Nieto-Hidalgo, and F. Florez-Revuelta, "A Vision-Based System for Intelligent Monitoring: Human Behaviour Analysis and Privacy by Context," Sensors, vol. 14, no. 5, pp. 8895-8925, 2014. 

  2. Z. Ren, J. Yuan, J. Meng, and Z. Zhang, "Robust partbased hand gesture recognition using kinect sensor," IEEE Trans. Multimed, vol. 15, no. 5, pp. 1110-1120, 2013. 

  3. J. B. Kim, and H. J. Kim, "Model Based Gaze Direction Estimation Using Support Vector Machine", The Proceedings of Korean Institute of Electrical Engineers (KIEE) pp. 121-122, 2007. 10 

  4. D. Tao, X. Li, X. Wu, and S. J. Maybank, "General tensor discriminant analysis and gabor features for gait recognition," IEEE Trans. Pattern Anal. Mach. Intell, vol. 29, no. 10, pp. 1700-1715, 2007. 

  5. F. Lv and R. Nevatia, "Single view human action recognition using key pose matching and viterbi path searching," in Proceedings of IEEE Conference on Computer Vision and Pattern Recognition(CVPR), Minneapolis, pp. 1-8, 2007. 

  6. H. Eum, C. Yoon, H. Lee, and M. Park, "Continuous Human Action Recognition Using Depth-MHI-HOG and a Spotter Model," Sensors, vol. 15, no. 3, pp. 5197-5227, 2015. 

  7. O. D. Lara and M. A. Labrador, "A survey on human activity recognition using wearable sensors," Communications Surveys & Tutorials, IEEE, vol. 15, no. 3, pp. 1192-1209, 2013. 

  8. S. Vishwakarma and A. Agrawal, "A survey on activity recognition and behavior understanding in video surveillance," The Visual Computer, vol. 29, no. 10, pp. 983-1009, 2013. 

  9. J. Wang, Z. Liu, and Y. Wu, "Learning actionlet ensemble for 3D human action recognition," in Human Action Recognition with Depth Cameras, ed: Springer, 2014, pp. 11-40. 

  10. M. A. Ahad, "Motion History Image," in Motion History Images for Action Recognition and Understanding, ed: Springer, 2013, pp. 31-76. 

  11. R. Poppe, "A survey on vision-based human action recognition," Image and Vision computing, vol. 28, no. 6, pp. 976-990, 2010. 

  12. X. Wu, D. Xu, L. Duan, J. Luo, and Y. Jia, "Action Recognition Using Multilevel Features and Latent Structural SVM," IEEE Trans. Circuits Syst. Video Techn., vol. 23, no. 8, pp. 1422-1431, 2013. 

  13. K. He, X. Zhang, S. Ren, and J. Sun, "Spatial pyramid pooling in deep convolutional networks for visual recognition," Pattern Analysis and Machine Intelligence, IEEE Transactions on, vol. 37, no. 9, pp. 1904-1916, 2015. 

  14. Y. Zhou and N.-M. Cheung, "Vehicle Classification using Transferable Deep Neural Network Features," arXiv preprint arXiv: 1601.01145, 2016. 

  15. L. Xia, C.-C. Chen, and J. Aggarwal, "Human detection using depth information by kinect," in IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Colorado Springs, pp. 15-22, 2011. 

  16. M. A. R. Ahad, J. Tan, H. Kim, and S. Ishikawa, "Motion history image: its variants and applications," Machine Vision and Applications, vol. 23, no. 2, pp. 255-281, 2012. 

  17. A. Vedaldi and K. Lenc, "MatConvNet: Convolutional neural networks for matlab," in Proceedings of the 23rd Annual ACM Conference on Multimedia Conference, pp. 689-692, 2015. 

  18. N. Dalal and B. Triggs, "Histograms of oriented gradients for human detection," in IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), San Diego, pp. 886-893, 2005. 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로