$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

3차원 인체 포즈 인식을 이용한 상호작용 게임 콘텐츠 개발
Developing Interactive Game Contents using 3D Human Pose Recognition 원문보기

한국콘텐츠학회논문지 = The Journal of the Korea Contents Association, v.11 no.12, 2011년, pp.619 - 628  

최윤지 (전남대학교 전자컴퓨터공학부) ,  박재완 (전남대학교 전자컴퓨터공학부) ,  송대현 (전남대학교 전자컴퓨터공학부) ,  이칠우 (전남대학교 전자컴퓨터공학부)

초록
AI-Helper 아이콘AI-Helper

일반적으로 비전기반 3차원 인체 포즈 인식 기술은 HCI(Human-Computer Interaction)에서 인간의 제스처를 전달하기 위한 방법으로 사용된다. 특수한 환경에서 단순한 2차원 움직임 포즈만 인식할 수 있는 2차원 포즈모델 기반 인식 방법에 비해 3차원 관절을 묘사한 포즈모델은 관절각에 대한 정보와 신체 부위의 모양정보를 선행지식으로 사용할 수 있어서 좀 더 일반적인 환경에서 복잡한 3차원 포즈도 인식할 수 있다는 장점이 있다. 이 논문은 인체의 3차원 관절 정보를 이용한 포즈 인식 기술을 인터페이스로 활용한 상호작용 게임 콘텐츠 개발에 관해 기술한다. 제안된 시스템에서 사용되는 포즈는 인체 관절 중 14개 관절의 3차원 위치정보를 이용해서 구성한 포즈 템플릿과 현재 사용자의 포즈를 비교해 인식된다. 이 방법을 이용하여 제작된 시스템은 사용자가 부가적인 장치의 사용 없이 사용자의 몸동작만으로 자연스럽게 게임 콘텐츠를 조작할 수 있도록 해준다. 제안된 3차원 인식 기술을 게임 콘텐츠에 적용하여 성능을 평가한다. 향후 다양한 환경에서 더욱 강건하게 포즈를 인식할 수 있는 연구를 수행할 계획이다.

Abstract AI-Helper 아이콘AI-Helper

Normally vision-based 3D human pose recognition technology is used to method for convey human gesture in HCI(Human-Computer Interaction). 2D pose model based recognition method recognizes simple 2D human pose in particular environment. On the other hand, 3D pose model which describes 3D human body s...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 인체의 3차원 포즈 인식을 위한 방법으로 3차원 관절 정보를 이용한 포즈 인식 시스템과 이것을 인터페이스로 활용한 상호작용 게임콘텐츠 개발에 대해 기술하였다. 인체에서 특징이 되는 14개 관절의 3차원 좌표 값을 이용해 각 포즈에 대한 포즈 템플릿을 구성하고, 현재 포즈와 포즈 템플릿의 거리를 비교해 포즈를 인식했다.
  • 하지만 영상에서 인체를 분할하는 것은 매우 복잡하고 어려운 과정이다. 본 논문에서는 포즈의 특징을 정의하고 인식하는 것에 중점을 두고 있기 때문에 인체 형상을 분할하는 문제를 간단히 하기 위해 Microsoft사의 Kinect[14] 카메라와 NUI Skeleton API[15]를 사용해 인체 영역을 분할하고 인체의 관절각 정보를 획득하였다. NUI Skeleton API는 Kinect 센서 앞에 있는 사람을 인식해 신체의 주요 20개 부위에 해당하는 관절[표 1] 좌표와 회전 정보를 제공해 준다.
  • 본 논문은 이러한 시각 기술 기반으로 한 3차원 포즈 인식 시스템의 개발과 이것을 인터페이스로 활용하여 사용자의 직관적인 움직임으로 콘텐츠와 상호작용 이 가능한 콘텐츠 개발에 관해 기술한다. 본 논문의 구성은 다음과 같다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
3차원 관절을 묘사한 포즈모델의 장점은? 일반적으로 비전기반 3차원 인체 포즈 인식 기술은 HCI(Human-Computer Interaction)에서 인간의 제스처를 전달하기 위한 방법으로 사용된다. 특수한 환경에서 단순한 2차원 움직임 포즈만 인식할 수 있는 2차원 포즈모델 기반 인식 방법에 비해 3차원 관절을 묘사한 포즈모델은 관절각에 대한 정보와 신체 부위의 모양정보를 선행지식으로 사용할 수 있어서 좀 더 일반적인 환경에서 복잡한 3차원 포즈도 인식할 수 있다는 장점이 있다. 이 논문은 인체의 3차원 관절 정보를 이용한 포즈 인식 기술을 인터페이스로 활용한 상호작용 게임 콘텐츠 개발에 관해 기술한다.
현재 제스처 인터페이스 기술은 어떤 분야에 응용되고 있나? 제스처 인터페이스기술(Gesture Interface Technology)은 최근 미국 매사추세츠공과대학(MIT)이 발표한‘2011년 10대 유망기술’[1] 중 하나로 선정되었다. 현재 제스처 인터페이스 기술은 가상현실, 스마트 감시 시스템, 항공 교통 모니터링 시스템, 게임, 스포츠와 같은 엔터테인먼트 등 여러 분야에서 응용되고 있다. 더욱이 최첨단의 제작기술과 표현기술의 발전은 디지털 콘텐츠 시장을 급속도로 성장시켜 사람과 컴퓨터간의 효과 적인 상호작용을 위한 더욱 편리하고 자연스러운 사용자 인터페이스(User Interface)를 요구하고 있다.
시각 기반의 인체 포즈 인식 방법의 2D 방법과 3D 방법은 각각 어떻게 나뉘는가? 본 논문에서는 시각 기반의 인체 포즈 인식 방법을 2D 방법과 3D 방법으로 나누어 살펴보았다. 2D 기반의 포즈 인식 방법은 인체 부분별 검출을 통한 포즈 추정 방법과 포즈의 모양이나 특징 추출을 통한 포즈 추정 방법으로 나누어진다. 그리고 3D기반의 포즈 인식 방법은 카메라의 수에 따라 단일시점기반 방법(single-view)과 다시점기반 방법 (multi-view)로 나눌 수 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (16)

  1. MIT, "10 Emerging technologies 2011," Technology Review, 2011(5). 

  2. 홍동표, 우운택, "제스처기반 사용자 인터페이스에 대한 연구 동향", Telecommunications Review, 제18권, 제3호, 2008. 

  3. 전성국, 홍광진, 정기철, "회전무관 3D Star Skeleton 특징 추출", 정보과학회논문지, 제36권, 제7호, pp.836-850, 2009. 

  4. I. Haritaoglu, D. Harwood, and L. S. Davis, "Ghost: A human body part labeling system using silhouettes," Proc. of the 14th International Conference on Pattern Recognition, pp.77-82, 1998. 

  5. H. Fujiyoshi, A. J. Lipton, and T. kanade, "Real-Time Human motion analysis by image skeletonization," IEICE Transaxtions on Information Systems, pp.113-120, 2004. 

  6. A. Baumberg and D. Hogg, "An adaptive eigenshape model," Proc. of British Machine Vision Conference, Vol.1, pp.87-96, 1995. 

  7. 오치민, 3차원 인체포즈 인식을 위한 그림구조 모델과 파티클필터 추적, 전남대학교 석사학위논문, 2009. 

  8. G. Mori and J. Malik, "Estimating Human Body Configurations using Shape Context Matching," Proc. of the 7th European Conference on Computer Vision Copenhagen(LNCS) , Vol.2352, pp.150-180, 2002. 

  9. Y. Kameda, M. Minoh, and K. Ikeda, "Three dimensional pose estimation of an articulated object from its silhouette image," Proc. of the Asian Conference on Computer Vision, pp.612-615, 1993. 

  10. B. Boulay, F. Brenmond, and M. Thonnat "Applying 3d human model in a posture recognition system," Pattern Recognition Letter, Vol.27, pp.1788-1796, 2006. 

  11. D. M. Gavrila and L.S. davis, "3-D model-based tracking of humans in action: a multi-view approach," Proc. of IEEE Computer Vision and Pattern Recognition, 2006. 

  12. I. Cohen and H. Li, "Posture and gesture Recognition using 3D body Shapes Decomposition," Proc. of IEEE Computer Society Conference on Computer vision and Pattern Recognition, 2005. 

  13. 박재완, 오치민, 이칠우, "가상 놀이 공간 인터페이스를 위한 HMM기반 상반신 제스처 인식", 한국콘텐츠학회논문지, 제10권, 제8호, pp.11-17, 2010. 

  14. Microsoft Corp. Redmond WA. Kinect for Xbox360 

  15. http://research.microsoft.com/en-us/um/redmond/projects/kinectsdk/ 

  16. J. Shotton, A. Fitzgibbon, M. Cook, M. Finocchio, R. Moore, A. Kipman, and a. Blake, "Real-Time Human Pose recognition in Parts from single depth Images," CVPR, 2011. 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로