$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

마커 및 제스처 상호작용이 가능한 증강현실 저작도구
Augmented Reality Authoring Tool with Marker & Gesture Interactive Features 원문보기

멀티미디어학회논문지 = Journal of Korea Multimedia Society, v.16 no.6, 2013년, pp.720 - 734  

심진욱 (연세대학교 컴퓨터과학과) ,  공민제 (연세대학교 컴퓨터과학과) ,  김하영 (연세대학교 컴퓨터과학과) ,  채승호 (연세대학교 컴퓨터과학과) ,  정경호 (연세대학교 컴퓨터과학과) ,  서종훈 (연세대학교 컴퓨터과학과) ,  한탁돈 (연세대학교 컴퓨터과학과)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 사용자들이 손쉽게 마커기반과 제스처 상호작용 방법들을 적용한 증강현실 콘텐츠를 제작할 수 있는 증강현실 저작도구 시스템을 제안한다. 기존의 증강현실 저작도구들은 가상의 객체를 증강하는데 초점이 맞춰져 있었고, 이러한 증강현실 콘텐츠와 상호작용을 하기 위해서는 사용자가 마커나 센서를 이용하는 방법을 사용하였다. 우리는 이러한 제한적인 상호작용 방법의 문제점을 마커기반 상호작용 방법과 깊이 인식 카메라인 Kinect를 사용한 제스처 상호작용 방법을 적용시킴으로써 해결하고자 한다. 제안하는 시스템에서는 사용자가 인터페이스를 통하여 간단한 형태의 마커기반 증강현실 콘텐츠를 쉽게 제작할 수 있다. 또한, 능동적으로 사용자가 증강현실 콘텐츠와 상호작용할 수 있는 방법들을 제공하고 있다. 본 연구에서 제공하는 상호작용 방법으로는 마커기반의 상호작용 방법으로 2개의 마커를 이용한 방법과 마커의 가림현상(Occlusion)을 이용한 방법이 있다. 그리고 사용자의 맨손을 인식, 추적하여 객체의 확대 축소, 이동, 회전이 가능한 제스처 상호작용 방법을 제공한다. 저작도구 시스템에 대한 사용성 평가와 마커 및 제스처 상호작용에 대한 사용성을 비교평가하여, 본 연구의 긍정적 결과를 확인하였다.

Abstract AI-Helper 아이콘AI-Helper

In this paper, we suggest an augmented reality authoring tool system that users can easily make augmented reality contents using hand gesture and marker-based interaction methods. The previous augmented reality authoring tools are focused on augmenting a virtual object and to interact with this kind...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서 우리가 제안하는 시스템은 증강현실 콘텐츠에 마커기반과 제스처 상호작용을 적용시킬 수 있는 저작도구이다. 이에 저작도구 시스템 및 상호작용 방법에 대한 사용성 평가와 성능적 측면에서의 제스처 인식률에 대한 실험을 수행하였다.
  • 본 논문에서는 사용자들이 직접 증강현실 콘텐츠를 제작하고 여기에 마커기반과 제스처 상호작용이 가능하도록 해주는 증강현실 저작도구를 제안하였다. 이를 위해 증강현실 엔진에 인터페이스를 결합하여 사용자가 손쉽게 증강현실 콘텐츠를 제작할 수 있게 하였다.
  • 손의 관심 영역에 대한 포스처 인식 알고리즘으로 K-Curvature 알고리즘을 사용하여 사용자의 포스처를 인식하고 이를 통해 제스처 상호작용이 가능하도록 개발하였다. 이러한 연구를 통해 사용자들에게 손쉽게 증강현실 콘텐츠를 제작할 수 있는 환경을 제공하고자 하였고, Natural User Interaction 기능들을 추가하여 사용자들이 부가적인 노력 없이도 쉽게 상호작용을 할 수 있도록 하였다. 사용성 평가 결과에서 보여주듯이 본 논문에서 제안하는 시스템의 마커기반 및 제스처 상호작용 방법은 자신이 의도한 대로 상호작용이 가능케 해 흥미를 유발할 수 있는 장점을 가지고 있다.
  • 본 논문에서 우리가 제안하는 시스템은 증강현실 콘텐츠에 마커기반과 제스처 상호작용을 적용시킬 수 있는 저작도구이다. 이에 저작도구 시스템 및 상호작용 방법에 대한 사용성 평가와 성능적 측면에서의 제스처 인식률에 대한 실험을 수행하였다. 사용성 평가 방식은 사용자의 만족도 관련 설문과 인터뷰 방식을 활용한 Nielsen의 사용성 평가(Heuristic Evaluation)[24] 방법을 사용하였다.
  • 여러 저작도구들 중 특히, Construct 3D[12,25]는 증강현실을 이용한 교육 시스템을 제안하였다. 학습자들이 3차원 가상 환경에서 스스로 실험을 할 수 있어 물리학 교육을 받을 수 있는 교육방법을 제시하였다. HMD(Head-Mounted Display), PIP(Personal Interaction Panel)을 이용하여 구성되었으며, PIP는 가상의 객체와 상호작용하는데 사용된다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
교육 분야에서의 증강현실 기술이 많은 관심을 받는 이유는 무엇인가? 이러한 특징으로 증강현실 기술은 의료, 게임, 전시, 예술 등 다양한 분야에 접목되고 있는데, 그 중 한 분야가 교육 분야에서의 활용이다. 교육 분야에서의 증강현실 기술은 학습자가 직접 관찰할 수 없는 내용을 가상의 객체를 통하여 정보를 얻고, 가상의 객체를 직접 상호작용을 통해 조작해 봄으로써 학습 내용의 원리를 이해하는데 도움을 주기 때문에 많은 관심을 받고 있다[2]. 이러한 증강현실 콘텐츠를 사용한 학습자들의 학습능력을 평가해 본 결과 교과서를 통하여 교육을 받은 학습자들보다 능동적으로 학습에 임하였고, 더 많은 정보를 기억하였다[3,4].
증강현실은 어떤 기술인가? 증강현실(Augmented Reality)은 가상현실(Virtual Reality)과 달리 현실세계에 가상의 객체를 이음새 없이 실시간으로 정합하여 보여줌으로써 사용자가 현실세계에서 가상의 객체를 통하여 여러 가지 부가적인 정보를 얻을 수 있는 기술이다[1,25]. 이러한 특징으로 증강현실 기술은 의료, 게임, 전시, 예술 등 다양한 분야에 접목되고 있는데, 그 중 한 분야가 교육 분야에서의 활용이다.
기존 증강현실 응용프로그램의 사용자가 마커를 움직임에 따라 콘텐츠들도 함께 움직이는 상호작용 방법에서 발생한 한계점은 무엇인가? 이와 같은 기존의 증강현실 응용프로그램들은 마커나 마커리스의 자연 이미지를 인식하여 증강현실 콘텐츠를 보여 주며, 사용자는 마커를 움직임에 따라 콘텐츠들도 함께 움직이는 방법으로 상호작용을 하였다. 이러한 상호작용 방법은 유용할 수 있으나 대부분의 AR 책(AR Book)과 같은 증강현실 콘텐츠에서는 인식되는 마커가 책에 부착되어 있는 경우가 많아 증강현실 콘텐츠에 대한 상호작용 시 책 자체를 움직여야하는 한계점이 발생하였고, 이 때문에 학습자의 집중도를 떨어뜨릴 수 있는 가능성이 제기되었다[15].
질의응답 정보가 도움이 되었나요?

참고문헌 (26)

  1. R.T. Azuma, "A Survey of Augmented Reality," Teleoperators and Virtual Environments, Vol. 6, No. 4, pp. 355-385, 1997. 

  2. H. Kaufmann, "Collaborative Augmented Reality in Education," Position paper for keynote speech at Imagina 2003 Conference, 2003. 

  3. A. Dunser, "Supporting Low Ability Readers With Interactive Augmented Reality," Annual Review of CyberTherapy and Telemedicine: Changing the Face of Healthcare, Interactive Media Institute, Vol. 6, pp. 41-48, 2008. 

  4. R. Moreno, R.E. Mayer, H.A. Spires, and J.C. Lester, "The Case for Social Agency in Computer-Based Teaching: Do Students Learn More Deeply When they Interact with Animated Pedagogical Agents?," Cognition and Instruction, Vol. 19, No. 2, pp. 177-213, 2001. 

  5. D. Wagner, D. Schmalstieg, and H. Bischof, "Multiple Target Detection and Tracking with Guaranteed Framerates on Mobile Phones," Proc. of the 8th IEEE/ACM Int. Symposium on Mixed and Augmented Reality (ISMAR '09), pp. 57-64, 2009. 

  6. K. Kim, V. Lepetit, and W. Woo, "Scalable Real-Time Planar Targets Tracking for Digilog Books," The Visual Computer, Vol. 26, No. 6-8, pp. 1145-1154, 2010. 

  7. ARToolKit, http://www.hitl.washington.edu/artoolkit/, 2007. 

  8. ARToolKit plus, http://handheldar.icg.tugraz.at/artoolkitplus.php, 2011. 

  9. Y. Wang, T. Langlotz, M. Billinghurst, and T. Bell, "An Authoring Tool for Mobile Phone AR Environments," Proc. of the New Zealand Computer Science Research Student Conference 09, pp. 1-4, 2009. 

  10. R. Grasset, J. Looser, and M. Billibghurst, "OSGARToolKit: Tangible+Transitional 3D Collaborative Mixed Reality Framework," 15th Int. Conf. on Artificial Reality and Telexistence (ICAT 2005), pp. 5-8, 2005. 

  11. B. Maclntyre, M. Gandy, S. Dow, and J.D. Bolter, "DART: A Toolkit for Rapid Design Exploration of Augmented Reality Experiences," Proc. of the 17th Annual ACM Symposium on User Interface Software and Technology, pp. 197-206, 2004. 

  12. H. Kaufmann and D. Schmalstieg, "Mathematics and Geometry Education with Collaborative Augmented Reality," Computer & Graphics, Vol. 27, No. 3, pp. 339-345, 2003. 

  13. H. Seichter, J. Looser, and M. Billinghurst, "ComposAR: An Intuitive Tool for Authoring AR Applications," Proc. of the 7th IEEE/ACM Int. Symposium on Mixed and Augmented Reality, pp. 177-178, 2008. 

  14. Qualcomm AR SDK, https://ar.qualcomm.at/qdevnet/, 2011 

  15. S.C. Yuen, G. Yaiyuneyoung, and E. Johson, "Augmented Reality: An Overview and Five Directions for AR in Education," Journal of Educational Technology Development and Exchange, Vol. 4, No. 1, pp. 119-140, 2011. 

  16. H. Kato, M. Billinghurst, I. Poupyev, K. Inamoto, and K. Tachibana, "Virtual Object Manipulation on a Table-top AR Environment," Proc. of the IEEE/ACM Int. Symposium on Augmented Reality, pp. 111-119, 2000. 

  17. B.H. Thomas and W. Piekarski, "Glove Based User Interaction Techniques for Augmented Reality in an Outdoor Environment," Virtual Reality: Research, Development, and Application, Vol. 6, No. 3, pp. 167-180, 2002. 

  18. K. Dorfmuller-Ulhaas and D. Schmalstieg, "Finger Tracking for Interaction in Augmented Environments," Proc. of the IEEE/ACM Int. Symposium on Augmented Reality, pp. 55-64, 2001. 

  19. T. Lee and T. Hollerer, "Handy AR: Markerless Inspection of Augmented Reality Objects Using Fingertip Tracking," 2007 11th Int. Symposium on Wearable Computers, pp. 83-90, 2007. 

  20. J. Shim, J. Seo, and T.D. Han, "MSL_ARToolKit: AR Authoring tool with Interactive features," Virtual and Mixed Reality-New Trends, Lecture Notes in Computer Science, Vol. 6773, pp. 105-112, 2011. 

  21. P. Tissainayagam and D. Suter, "Assessing the Performance of Coner Detectors for Point Feature Tracking Applications," Image and Vision Computing, Vol. 22, No. 8, pp. 663-679, 2004. 

  22. F. Dadgostar and A. Sarrafzadeh, "An Adaptive Real-time Skin Detector based on Hue Thresholding: A Comparison on two motion tracking methods," Pattern Recognition Letters, Vol. 27, No. 12, pp. 1342-1352, 2006. 

  23. J. Segen and S. Kumar, "Human-Computer Interaction using Gesture Recognition and 3D Hand Tracking," Int. Conf. on Image Processing, Vol. 3, pp. 188-192, 1998. 

  24. J. Nilsen and R. Molich, "Heuristic Evaluation of User Interfaces," Proc. of the Conf. on Human Factors in Computing Systems, pp. 249-256, 1990. 

  25. 최광운, 정다운, 이석한, 최종수, "손동작을 이용한 상호작용 증강현실 시스템," 멀티미디어학회 논문지, 제15권, 제4호, pp. 425-438, 2012. 

  26. P. Garg, N. Aggarwal, and S. Sofat, "Vision Based Hand Gesture Recognition," World Academy of Science, Engineering and Technology, Vol. 49, pp. 972-977, 2009. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로