$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

비접촉식 3차원 사용자 인터페이스 기술 동향 원문보기

정보와 통신 : 한국통신학회지 = Information & communications magazine, v.29 no.7, 2012년, pp.31 - 37  

김익재 (한국과학기술연구원)

초록
AI-Helper 아이콘AI-Helper

본 고에서는 최근 들어 3차원 디스플레이의 빠른 보급과 실감 콘텐츠들의 생성이 용이해 짐에 따라, 3차원 공간에서 사용자와 시스템간의 보다 자연스러우면서 직관적인 상호작용을 위한 인터페이스에 대한 필요성이 증대되고 있는 있기에, 해당 기술의 동향에 대해서 알아보고자 한다.

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본고에서는 최근 들어 3D TV와 모니터 등의 3차원 디스플레이의 빠른 보급과 보급형 Depth 카메라를 활용하여 사용자가 직접 참여 가능한 3차원 실감 콘텐츠의 생성이 용이해짐에 따라, 3차원 공간 인터페이스 기술의 필요성이 더욱 증대되고 있는 상황에 따라 해당 기술의 동향에 대해서 알아보았다. 현재 주로 게임 분야에서 3차원 인터페이스를 주로 활용해 왔으나, 앞으로는 교육, 의료, 원격 작업 등 다양한 분야로의 확대 적용이 가능할 것으로 예상된다.
  • <그림 13>의 Depth 카메라 기반 연구보다 앞서 연구된 사례로, 영국 Image Metrics사에서는 한 대의 칼라 카메라로부터 획득한 손 영상과 3차원 손 모델로 생성한 칼라 영상을 비교하여 손 움직임을 검출하고자 하였다[15]. 모델 정합 기반이기 때문에, 앞선 연구와 마찬가지로 초기화 및 정합 실패 문제가 존재하며 , 무엇보다 초당 40초가량 소요되는 많은 연산량 때문에 실시간성이 중요한 인터랙션에는 그 활용도가 많이 떨어진다고 볼 수 있다.
본문요약 정보가 도움이 되었나요?

참고문헌 (18)

  1. http://www.nintendo.com/wii 

  2. http://us.playstation.com/ps3/playstationmove/ 

  3. http://www.xbox.com/kinect 

  4. http://www.leapmotion.com/ 

  5. http://www.wiimoteproject.com/ 

  6. http://www.5dt.com/products/pdataglove14.html 

  7. http://www.fakespacelabs.com/tools.html 

  8. http:; /www.vrlogic.com/html/immersion/cybergrasp.html 

  9. http://www.shapehand.com/shapehand.html 

  10. http://oblong.com/offerings/platform 

  11. Wang R. and Popovic J., "Real-Time Hand Tracking with a Color Glove", ACM SIGGRAPH, 2009. 

  12. Shotton J. et aI., "Real-Time Human Pose Recognition in Parts from Single Depth Images", 24th IEEE Conference on Computer Vision and Pattern Recognition, 2011. 

  13. Livingstone M.A., Sebastian J., Ai Z., and Decker J. W., "Performance Measurements for the Microsoft Kinect Skeleton", IEEE Conference on Virtual Reality, pp. 119-120, 2012. 

  14. Oikonomidis I., Kyriazis N.. and Argyros, A., "Efficient model-based 3D tracking of hand articulations using Kinect", 22nd British Machine Vision Conference, Aug., 2011. 

  15. Gorce M., Fleet D. J., and Paragios, N., "Model-Based 3D Hand Pose Estimation from Monocular Video", IEEE Transaction on Pattern Analysis and Machine Intelligence, Vol. 33, Issue 9, pp. 1793-1805, 2011. 

  16. http://www.hhi.fraunhofer.de/en/departments/interactive-media-human-factors/overview/ipoint3d/ 

  17. 안현진, 이진석, 김대진, "3차원 정보를 이용한 손동작 인식 시스템", HCI 2011. 

  18. 박건희, 이귀상, "증강현실에서 3D 객체 조작을 위한 손동작 인터페이스", 한국콘텐츠학회논문지 제10권 제5호, 2010.5. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로