$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

모바일 가상현실 환경에서의 시선기반 사용자 인터페이스 상호 작용에 관한 연구
A Study on Interaction of Gaze-based User Interface in Mobile Virtual Reality Environment 원문보기

컴퓨터그래픽스학회논문지 = Journal of the Korea Computer Graphics Society, v.23 no.3, 2017년, pp.39 - 46  

김민규 (부산가톨릭대학교 소프트웨어학과) ,  이지원 (부산가톨릭대학교 소프트웨어학과) ,  전찬규 (부산가톨릭대학교 소프트웨어학과) ,  김진모 (부산가톨릭대학교 소프트웨어학과)

초록
AI-Helper 아이콘AI-Helper

본 연구는 모바일 플랫폼의 가상현실 환경에 적합한 사용자 중심의 상호작용을 제공하기 위하여 시선기반 사용자 인터페이스를 제안한다. 이를 위해 제안하는 인터페이스가 모바일 가상 환경에서 사용자에게 상호작용의 만족도를 높이는지 여부를 실험하기 위하여 모바일 플랫폼 기반의 3차원 대화형 콘텐츠를 제작한다. 그리고 모바일 가상현실 콘텐츠의 입력 처리 방법으로 가장 일반적인 시선을 활용한 인터페이스를 시야 범위, 피드백 시스템의 2단계로 나누어 설계한다. 제안한 인터페이스 방법이 사용자에게 몰입감 향상의 효과, 기존과 차별화된 형식, 콘텐츠를 조작하는데 편리함을 제공하는 지 여부를 실험을 통해 분석한다.

Abstract AI-Helper 아이콘AI-Helper

This study proposes a gaze-based user interface to provide user oriented interaction suitable for the virtual reality environment on mobile platforms. For this purpose, a mobile platform-based three-dimensional interactive content is produced, to test whether the proposed interface increases user sa...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 시야 범위는 공간전체로 확대와 시선 범위 내로 한정된 시야두 가지로 나누어 설계하였다. 따라서 두 시야 범위에 대한 반응을 확인하도록 하였다.
  • [1기은 기억력을 소재로 한 보드게임을 가상현실 콘텐츠로 선택하는 것이 집중과 긴장의 측면에서 적합하다는 실험 결과를 유도하였다. 따라서 본 연구에서는 가상현실환경에서 기억력을통해 가상 객체와상호작용할 수 있는 대화형 콘텐츠를 제작하며, 진행 흐름은 다음과 같다.
  • 제안하는 시선기반사용자 인터페이스의 기술적 구현만큼이나 사용자가 콘텐츠를 경험하는 과정에서 제공된 새로운 인터페이스가 사용자에게 얼마만큼 높은 몰입감, 현존감 그리고 편리함을 제공하는지 확인하는 과정이 필요하다. 따라서 제안한 2가지 시선기반 사용자 인터 페이스가 사용자의 콘텐츠 체험과정에 미치는 심 리 적 요인을 분석 및 평가하도록 한다.
  • 이는 가상공간 전체를 활용하여 가상의 객체를 탐색하는 과정과 함께 객체와 상호작용하는 과정에서 발생하는 정보들을 사용자에게 피드백하는 구조를 모두 포함하고 있다. 본 연구는 객체 탐색과 피드백 과정에서의 인터페이스가 사용자의 몰입감을 높이고 편리한 제어환경에 미치는 영향을 체계적으로 분석하기 위하여 시야 범위와 피드백 시스템으로 구성된 2단계의 시선기반 인터페이스를 제안하였다. 우선 가상 환경에서 정보를 습득하는 과정에서 사용자의 시야 범위가 시선에 제한적이거나 공간 전체를 활용하느냐에 따라 몰입감과 편리함에 미치는 영향을 분석하였다.
  • 본 연구는 모바일 플랫폼의 가상현실 콘텐츠를 제작하는데 있어 사용자의 몰입감을 높이면서 편리한 상호작용을 제공할 수 있는 시선기반 인터페이스에 대한 다양한 설계 방법을 제안하였다. 이를 위해 우선 제안한 시선기반 인터 페이스를 적용할 수 있는 대화형 콘텐츠를 제작하였다.
  • 본 연구는 모바일 환경에 적합한 대화형 가상현실 콘텐츠를 구현하고 상호작용 과정에서 사용자의 흥미와 몰입감을 높이고 가상 객체와의 상호작용을 편리하게 제공할 수 있는 시선기반 인 터 페이스를 다양한 방식으로 설 계한다. 그리고 일반 사용자들을 대상으로 제안한 2단계의 시선기반 인터페이스의 흥미유발, 몰입감, 편리성 등의 요인들을 실험 및 분석하여 가상현실 환경에서 혁신적 인 모바일 사용자 인터 페이스를 제시하도록 한다.
  • 따라서 모바일 가상현실에 적합한 입력 처리 기술로 우선적으로 고려되어야할 요인은 사용자의 시선이다. 본 연구는 사용자가 가상현실 환경에서 가상 객체들과 다양하게 상호작용할 수 있는 모바일 플랫폼의 대화형 콘텐츠를 제작하고, 시선기 반 사용자 인터 페이스를 다양한 측면에서 접근하여 설계하도록 한다. 제안하는 시선기반 사용자 인터 페이스는 2가지로 구성된다.
  • 두 번째는 사용자와 가상객체와의 상호작용 과정에서 사용자의 행동이 정확히 이루어지고 있는지를 확인하는 피드백 시스템이다. 본 연구는 피드백 시스템을 4가지로 나누어 구성하고 실험을 통해 가상현실환경에 적합한 시스템을 고안하고자 한다.
  • 본 연구에서는 모바일 가상현실 기반의 대화형 3차원 콘텐츠를 제작하고, 여기 에 사용자의 흥미 유발, 몰입감 향상 그리고 편리한 조작이 가능한 시선기반 인터 페이스를 제안함을 목표로 한다. 이를 위해 우선 실험에 사용될 3차원 대화형 콘텐츠를 제작한다.
  • 본연구는 이러한과정의 대화형 콘텐츠를모바일 환경의 가상현실 콘텐츠로 제작하기 위하여 Unity 3D 엔진에 구글 가상현실 개발도구(Google VR SDK)를 통합하여 개발환경을 구축한다. 구글 가상현실 개발도구의 경우 사용자의 머 리 움직 임을 바탕으로 HMD를 통해 전달되는 양안 시차 정보를 렌더 링하기 위한 핵심요소(GvrMain)를 Unity 3D 환경에 맞게 제공한다.
  • 단, 사용자는 첫 번째와 비교하여 공간 전체를 사용하고 있다는 경험은 덜 받을 수 있을 것이다. 시야 범위 설계를 통해 가상현실 콘텐츠에서 사용자에게 정보를 제공하는 범위를 어디까지 확대시키는 것이 몰입감 높은 상호작용을 제공하는지를 실험을 통해 분석함으로써 시야 범위에 대한 체계적 인 설계를 하고자 한다.
  • 이는 현재 가상현실 콘텐츠에서 많이 사용되는 방법으로 이 방법 외에 다른 피드백 시스템이 사용자의 상호작용에 도움이 되는지를 확인해보고자 하는 것이다.
본문요약 정보가 도움이 되었나요?

참고문헌 (18)

  1. M. E. Feisst, "Enabling virtual reality on mobile devices: enhancing students' learning experience," Proc. SPIE 8065, SPIE Eco-Photonics 2011: Sustainable Design, Manufacturing, and Engineering Workforce Education for a Green Future, 2011. 

  2. M. M. Hayhoe, A. Shrivastava, R. Mruczek and J. Pelz, "Visual memory and motor lanning in a natural task," Journal of Vision, vol. 3, no. 1, pp.49-63, 2003. 

  3. I.E. Sutherland, "A head-mounted three dimensional display," In Proceedings of the AFIPS '68, pp. 757-764, 1968. 

  4. M. Ortega and S. Coquillart, "Prop-based haptic interaction with co-location and immersion: an automotive application," IEEE International Workshop on Haptic Audio Visual Environments and their Applications, Ottawa, ON, Canada, 1-2 October, 2005. 

  5. J. P. Schulze, C. E. Hughes, L. Zhang, E. Edelstein and E. Macagno, "CaveCAD: a tool for architectural design in immersive virtual environments," Proc. SPIE 9012, The Engineering Reality of Virtual Reality 2014, 2014. 

  6. P. Hoberman, D. M. Krum, E. A. Suma and M. Bolas, "Immersive training games for smartphone-based head mounted displays," Proc. of 2012 IEEE Virtual Reality Workshops (VRW), pp.151-152, 2012. 

  7. R.S. Johansson, G. Westling, A. Bckstrm and J.R. Flanagan, "Eye-hand coordination in object manipulation," The Journal of Neuroscience, vol. 21, no. 17, pp.6917-6932, 2001. 

  8. J.B. Pelz, R. Canosa, J. Babcock and J. Barber, "Visual perception in familiar, complex tasks," Proceedings of the 2001 International Conference on Image Processing, pp.12-15, 2001. 

  9. C. Antonya, "Accuracy of gaze point estimation in immersive 3D interaction interface based on eye tracking," Control Automation Robotics Vision (ICARCV), 2012 12th International Conference on, pp.1125-1129, 2012. 

  10. N. Sidorakis, G. A. Koulieris and K. Mania, "Binocular eyetracking for the control of a 3D immersive multimedia user interface," Everyday Virtual Reality (WEVR), 2015 IEEE 1st Workshop on, pp.15-18, 2015. 

  11. E.M. Kolasinski, "Simulator sickness in virtual environments," Technical report DTIC Document, 1995. 

  12. J.D. Moss and E.R. Muth, "Characteristics of head-mounted displays and their effects on simulator sickness," Human Factors: The Journal of the Human Factors and Ergonomics Society, vol. 53, no. 3, pp.308-319, 2011. 

  13. J. Reason, "Motion sickness adaptation: a neural mismatch model," Journal of the Royal Society of Medicine, vol. 71, no. 11, pp.819-829, 1978. 

  14. H,B,-L. Duh, D.E. Parker, J.O. Philips and T.A. Furness, "Conflicting motion cues to the visual and vestibular selfmotion systems around 0.06hz evoke simulator sickness," Human Factors: The Journal of the Human Factors and Ergonomics Society, vol. 46, no. 1, pp.142-153, 2004. 

  15. T.A. Stoffregen and L.J. Jr Smart LJ, "Postural instability precedes motion sickness," Brain research bulletin, vol.47, no. 5, pp.437-448, 1998. 

  16. Y. Kim, Gun A. Lee, Do. Jo, U. Yang, G. Kim and J. Park, "Analysis on virtual interaction-induced fatigue and difficulty in manipulation for interactive 3D gaming console," Consumer Electronics (ICCE), 2011 IEEE International Conference on, pp.269-270, 2011. 

  17. J. Lee, M. Kim, C. Jeon and J. Kim, "A Study on Gamepad/Gaze based Input Processing for Mobile Platform Virtual Reality Contents," Journal of the Korea Computer Graphics Societ, vol. 22, no. 3, pp.31-41, 2016. 

  18. B.-G. Witmer, C.-J. Jerome, and M.-J. Singer, "The Factor Structure of the Presence Questionnaire," Presence: Teleoper. Virtual Environ., vol. 14, no. 3, pp.298-312, 2005. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로