본 연구는 모바일 플랫폼의 가상현실 환경에 적합한 사용자 중심의 상호작용을 제공하기 위하여 시선기반 사용자 인터페이스를 제안한다. 이를 위해 제안하는 인터페이스가 모바일 가상 환경에서 사용자에게 상호작용의 만족도를 높이는지 여부를 실험하기 위하여 모바일 플랫폼 기반의 3차원 대화형 콘텐츠를 제작한다. 그리고 모바일 가상현실 콘텐츠의 입력 처리 방법으로 가장 일반적인 시선을 활용한 인터페이스를 시야 범위, 피드백 시스템의 2단계로 나누어 설계한다. 제안한 인터페이스 방법이 사용자에게 몰입감 향상의 효과, 기존과 차별화된 형식, 콘텐츠를 조작하는데 편리함을 제공하는 지 여부를 실험을 통해 분석한다.
본 연구는 모바일 플랫폼의 가상현실 환경에 적합한 사용자 중심의 상호작용을 제공하기 위하여 시선기반 사용자 인터페이스를 제안한다. 이를 위해 제안하는 인터페이스가 모바일 가상 환경에서 사용자에게 상호작용의 만족도를 높이는지 여부를 실험하기 위하여 모바일 플랫폼 기반의 3차원 대화형 콘텐츠를 제작한다. 그리고 모바일 가상현실 콘텐츠의 입력 처리 방법으로 가장 일반적인 시선을 활용한 인터페이스를 시야 범위, 피드백 시스템의 2단계로 나누어 설계한다. 제안한 인터페이스 방법이 사용자에게 몰입감 향상의 효과, 기존과 차별화된 형식, 콘텐츠를 조작하는데 편리함을 제공하는 지 여부를 실험을 통해 분석한다.
This study proposes a gaze-based user interface to provide user oriented interaction suitable for the virtual reality environment on mobile platforms. For this purpose, a mobile platform-based three-dimensional interactive content is produced, to test whether the proposed interface increases user sa...
This study proposes a gaze-based user interface to provide user oriented interaction suitable for the virtual reality environment on mobile platforms. For this purpose, a mobile platform-based three-dimensional interactive content is produced, to test whether the proposed interface increases user satisfaction through the interactions in a mobile virtual reality environment. The gaze-based interface, the most common input method for mobile virtual reality content, is designed by considering two factors: the field of view and the feedback system. The performance of the proposed gaze-based interface is analyzed by conducting experiments on whether or not it offers motives for user interest, effects of enhanced immersion, differentiated formats from existing ones, and convenience in operating content.
This study proposes a gaze-based user interface to provide user oriented interaction suitable for the virtual reality environment on mobile platforms. For this purpose, a mobile platform-based three-dimensional interactive content is produced, to test whether the proposed interface increases user satisfaction through the interactions in a mobile virtual reality environment. The gaze-based interface, the most common input method for mobile virtual reality content, is designed by considering two factors: the field of view and the feedback system. The performance of the proposed gaze-based interface is analyzed by conducting experiments on whether or not it offers motives for user interest, effects of enhanced immersion, differentiated formats from existing ones, and convenience in operating content.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
시야 범위는 공간전체로 확대와 시선 범위 내로 한정된 시야두 가지로 나누어 설계하였다. 따라서 두 시야 범위에 대한 반응을 확인하도록 하였다.
[1기은 기억력을 소재로 한 보드게임을 가상현실 콘텐츠로 선택하는 것이 집중과 긴장의 측면에서 적합하다는 실험 결과를 유도하였다. 따라서 본 연구에서는 가상현실환경에서 기억력을통해 가상 객체와상호작용할 수 있는 대화형 콘텐츠를 제작하며, 진행 흐름은 다음과 같다.
제안하는 시선기반사용자 인터페이스의 기술적 구현만큼이나 사용자가 콘텐츠를 경험하는 과정에서 제공된 새로운 인터페이스가 사용자에게 얼마만큼 높은 몰입감, 현존감 그리고 편리함을 제공하는지 확인하는 과정이 필요하다. 따라서 제안한 2가지 시선기반 사용자 인터 페이스가 사용자의 콘텐츠 체험과정에 미치는 심 리 적 요인을 분석 및 평가하도록 한다.
이는 가상공간 전체를 활용하여 가상의 객체를 탐색하는 과정과 함께 객체와 상호작용하는 과정에서 발생하는 정보들을 사용자에게 피드백하는 구조를 모두 포함하고 있다. 본 연구는 객체 탐색과 피드백 과정에서의 인터페이스가 사용자의 몰입감을 높이고 편리한 제어환경에 미치는 영향을 체계적으로 분석하기 위하여 시야 범위와 피드백 시스템으로 구성된 2단계의 시선기반 인터페이스를 제안하였다. 우선 가상 환경에서 정보를 습득하는 과정에서 사용자의 시야 범위가 시선에 제한적이거나 공간 전체를 활용하느냐에 따라 몰입감과 편리함에 미치는 영향을 분석하였다.
본 연구는 모바일 플랫폼의 가상현실 콘텐츠를 제작하는데 있어 사용자의 몰입감을 높이면서 편리한 상호작용을 제공할 수 있는 시선기반 인터페이스에 대한 다양한 설계 방법을 제안하였다. 이를 위해 우선 제안한 시선기반 인터 페이스를 적용할 수 있는 대화형 콘텐츠를 제작하였다.
본 연구는 모바일 환경에 적합한 대화형 가상현실 콘텐츠를 구현하고 상호작용 과정에서 사용자의 흥미와 몰입감을 높이고 가상 객체와의 상호작용을 편리하게 제공할 수 있는 시선기반 인 터 페이스를 다양한 방식으로 설 계한다. 그리고 일반 사용자들을 대상으로 제안한 2단계의 시선기반 인터페이스의 흥미유발, 몰입감, 편리성 등의 요인들을 실험 및 분석하여 가상현실 환경에서 혁신적 인 모바일 사용자 인터 페이스를 제시하도록 한다.
따라서 모바일 가상현실에 적합한 입력 처리 기술로 우선적으로 고려되어야할 요인은 사용자의 시선이다. 본 연구는 사용자가 가상현실 환경에서 가상 객체들과 다양하게 상호작용할 수 있는 모바일 플랫폼의 대화형 콘텐츠를 제작하고, 시선기 반 사용자 인터 페이스를 다양한 측면에서 접근하여 설계하도록 한다. 제안하는 시선기반 사용자 인터 페이스는 2가지로 구성된다.
두 번째는 사용자와 가상객체와의 상호작용 과정에서 사용자의 행동이 정확히 이루어지고 있는지를 확인하는 피드백 시스템이다. 본 연구는 피드백 시스템을 4가지로 나누어 구성하고 실험을 통해 가상현실환경에 적합한 시스템을 고안하고자 한다.
본 연구에서는 모바일 가상현실 기반의 대화형 3차원 콘텐츠를 제작하고, 여기 에 사용자의 흥미 유발, 몰입감 향상 그리고 편리한 조작이 가능한 시선기반 인터 페이스를 제안함을 목표로 한다. 이를 위해 우선 실험에 사용될 3차원 대화형 콘텐츠를 제작한다.
본연구는 이러한과정의 대화형 콘텐츠를모바일 환경의 가상현실 콘텐츠로 제작하기 위하여 Unity 3D 엔진에 구글 가상현실 개발도구(Google VR SDK)를 통합하여 개발환경을 구축한다. 구글 가상현실 개발도구의 경우 사용자의 머 리 움직 임을 바탕으로 HMD를 통해 전달되는 양안 시차 정보를 렌더 링하기 위한 핵심요소(GvrMain)를 Unity 3D 환경에 맞게 제공한다.
단, 사용자는 첫 번째와 비교하여 공간 전체를 사용하고 있다는 경험은 덜 받을 수 있을 것이다. 시야 범위 설계를 통해 가상현실 콘텐츠에서 사용자에게 정보를 제공하는 범위를 어디까지 확대시키는 것이 몰입감 높은 상호작용을 제공하는지를 실험을 통해 분석함으로써 시야 범위에 대한 체계적 인 설계를 하고자 한다.
이는 현재 가상현실 콘텐츠에서 많이 사용되는 방법으로 이 방법 외에 다른 피드백 시스템이 사용자의 상호작용에 도움이 되는지를 확인해보고자 하는 것이다.
제안 방법
우선 구글 가상현실 개발도구에서 제공하는 카메라가 바라보는 방향, 즉 사용자의 시선을 광선(ray)으로 나타낸다. 그리고 광선과 객체와의 충돌 검사를 통해 나열된 도형의 선택 유무를 결정한다. 사용자의 시선이 어디를 향하고 있는지를 정확히 가상공간에 표현하기 위하여 시선 광선이 도달하는 지점에 임의의 포인터(reticle)를 설정한다.
페이스를 다양한 방식으로 설 계한다. 그리고 일반 사용자들을 대상으로 제안한 2단계의 시선기반 인터페이스의 흥미유발, 몰입감, 편리성 등의 요인들을 실험 및 분석하여 가상현실 환경에서 혁신적 인 모바일 사용자 인터 페이스를 제시하도록 한다.
사용자의 시선이 어디를 향하고 있는지를 정확히 가상공간에 표현하기 위하여 시선 광선이 도달하는 지점에 임의의 포인터(reticle)를 설정한다. 그리고 카메라의 위치에서 카메라의 정면 방향으로 향하는 광선을 자동으로 계산하는 유니 티 3D의 기능(Physics Raycaster)을 사용하여 시선이 향하는 지점을 정확히 표현한다.
우선 가상 환경에서 정보를 습득하는 과정에서 사용자의 시야 범위가 시선에 제한적이거나 공간 전체를 활용하느냐에 따라 몰입감과 편리함에 미치는 영향을 분석하였다. 다음은 가상객체와의 상호작용 과정에서 발생하는 정보를 어떠한 방식으로 사용자에게 피드백하는 것이 가상현실 콘텐츠로 적합한지 여부를 확인하기 위하여 사운드, 투명도, 원형 슬라이더 그리고 버튼 인터페이스의 4단계로 나누어 설계하고 이를 비교, 분석하였다. 그 결과 3차원 공간을 전체적으로 활용하고, 3차원 객체를 직접 활용하는 것이 사용자의 몰입감 향상에 도움이 됨을 설문 실험을 통해 확인할 수 있었다.
두 번째로 시선을 통해 가상 객체와 상호작용하는 과정에서 발생하는 정보를 사용자에게 피드백하는 시스템으로 사운드, 투명화, 원형 슬라이더, 버튼 인터페이스의 4단계 구조로 나누어 설계한다. 제안하는 시선기반사용자 인터페이스의 기술적 구현만큼이나 사용자가 콘텐츠를 경험하는 과정에서 제공된 새로운 인터페이스가 사용자에게 얼마만큼 높은 몰입감, 현존감 그리고 편리함을 제공하는지 확인하는 과정이 필요하다.
일반적으로 가상현실 콘텐츠의 메뉴를 선택하는 과정은 사용자의 시선과 슬라이 더를 사용하여 피드백하는 방법을 사용한다. 본 연구는 3D 가상객체와의 상호작용을 통한 피드백 시스템을 4단계로 나누어 설계하고자 한다. Figure 4는 이를 나타낸 것으로 사운드, 객체의 투명화, 2D 이미지를 활용한 원형 슬라이더, 버튼 형식의 인터페이스의 4단계 피드백 시스템으로 나누어 각각 구현한다.
본 연구는 두 가지 관점으로 나누어 시야 범위를 설계한다. 우선 시야 범위를 공간전체로 확대시키면서 중요한 정보를 사용자가 놓치지 않는다면 상호작용에서 긍정적 인 영향을 미칠 수 있는지를 고려한다.
요소에 미치는 영향을 실험 및 분석한다. 본 연구는 시선 기반 인터페이스를가상의 공간에서 시야 범위, 피드백 시스템의 두 단계로 나누고 두 가지 물음에 대한 답을 기록하여 총 12가지의 결과를 도출하였다.
이때 정보의 전달 방식을 어떻게 표현하는지가 사용자 인터페이스의 핵심이다. 본 연구는 이를 시선 기반의 인터페이스로 설계하고 콘텐츠의 진행 흐름에 따라 2단계의 시스템을 나누어 제안한다.
객체가 선택되기까지 일정한 시간 동안 현재 작업이 정상적으로 진행되고 있음을 사용자에게 전달해 주어야 한다. 본 연구는 이를 위한 피드백 시스템으로 우선 사운드 효과를 활용한다. 시선을 통해 객체를 선택하면 일정 시간 동안 사운드를 사용자에게 들려준다.
본 연구에서 제안하는 몰입형 3차원 콘텐츠 제작과 가상현실 기술의 구현에는 Unity 3D 5.3.4fl, 구글 가상현실 개발도구(gvr- unity-sdk)를 이용하여 구현하였고, 개발에 사용된 PC 환경은 In- tel(R) coretm 15-4690, 8GB RAM, Geforce GTX 960 GPU를 탑재하고 있다. 또한 실험을 위해 사용된 모바일은 삼성 갤럭시 S7 이 며, NOON VR HMD를 활용하였다.
본 연구에서 제안하는 시선기반 인터페이스가 실제 사용자의 심리적 요소에 미치는 영향을 실험 및 분석한다. 본 연구는 시선 기반 인터페이스를가상의 공간에서 시야 범위, 피드백 시스템의 두 단계로 나누고 두 가지 물음에 대한 답을 기록하여 총 12가지의 결과를 도출하였다.
시야 범위는 공간전체로 확대와 시선 범위 내로 한정된 시야두 가지로 나누어 설계하였다. 따라서 두 시야 범위에 대한 반응을 확인하도록 하였다.
실험은 크게 두 단계로 나누어 진행하였다. 첫 번째는 제안한 가상현실기반의 대화형 콘텐츠를 효과적으로 제작하고 2단계의 시선 기반 인터 페이스가 모두 정확히 동작하는지를 확인하는 것이다.
실험의 첫 번째는 가상의 공간에서 시각적 인 요소로 사용자에게 얼마나 높은 몰입과 현실감을 주는지에 대한 실험이다. 시야 범위는 공간전체로 확대와 시선 범위 내로 한정된 시야두 가지로 나누어 설계하였다.
본 연구는 객체 탐색과 피드백 과정에서의 인터페이스가 사용자의 몰입감을 높이고 편리한 제어환경에 미치는 영향을 체계적으로 분석하기 위하여 시야 범위와 피드백 시스템으로 구성된 2단계의 시선기반 인터페이스를 제안하였다. 우선 가상 환경에서 정보를 습득하는 과정에서 사용자의 시야 범위가 시선에 제한적이거나 공간 전체를 활용하느냐에 따라 몰입감과 편리함에 미치는 영향을 분석하였다. 다음은 가상객체와의 상호작용 과정에서 발생하는 정보를 어떠한 방식으로 사용자에게 피드백하는 것이 가상현실 콘텐츠로 적합한지 여부를 확인하기 위하여 사운드, 투명도, 원형 슬라이더 그리고 버튼 인터페이스의 4단계로 나누어 설계하고 이를 비교, 분석하였다.
이때 시야 범위의 조절이 사용자의 상호작용에 도움을 주는지를 확인하는 것을 첫 번째 인터페이스 요소로 설계한다. 두 번째는 사용자와 가상객체와의 상호작용 과정에서 사용자의 행동이 정확히 이루어지고 있는지를 확인하는 피드백 시스템이다.
제안하였다. 이를 위해 우선 제안한 시선기반 인터 페이스를 적용할 수 있는 대화형 콘텐츠를 제작하였다. 이는 기존 연구 [1 기를 바탕으로 간단한 보드 게임 형식의 콘텐츠로 구현하였다.
제안하는 콘텐츠의 진행흐름에서 임의로 생성되는 객체를 기억하고 나면 테이블 위에 펼쳐진 15개의 도형 중 하나를 기억한 순서대로 선택하여 정답을맞춰가게 된다. 이때 정답을맞춰가는과정을 4단계의 피드백 시스템으로 각각 제공한다.
첫 번째는 가상현실 콘텐츠를 체험하는 사용자의 시야 범위가 가상현실 콘텐츠의 상호작용에 영향을 미치는지 여부를 확인한다. 두 번째로 시선을 통해 가상 객체와 상호작용하는 과정에서 발생하는 정보를 사용자에게 피드백하는 시스템으로 사운드, 투명화, 원형 슬라이더, 버튼 인터페이스의 4단계 구조로 나누어 설계한다.
실험은 크게 두 단계로 나누어 진행하였다. 첫 번째는 제안한 가상현실기반의 대화형 콘텐츠를 효과적으로 제작하고 2단계의 시선 기반 인터 페이스가 모두 정확히 동작하는지를 확인하는 것이다. 대화형 콘텐츠의 전체적인 진행 흐름은 인터 페이스와 상관없이 동일하다.
대상 데이터
4fl, 구글 가상현실 개발도구(gvr- unity-sdk)를 이용하여 구현하였고, 개발에 사용된 PC 환경은 In- tel(R) coretm 15-4690, 8GB RAM, Geforce GTX 960 GPU를 탑재하고 있다. 또한 실험을 위해 사용된 모바일은 삼성 갤럭시 S7 이 며, NOON VR HMD를 활용하였다.
[18] 이 제한한 현존감 설문지 문항의 일부를 활용하였다. 설문에 참가한 참가자는 가상현실 콘텐츠를 처음 접하는 사용자부터 경험부터 경험이 있는사용자까지 21~27세의 총 15명의 대상자를 선정하여 진행하였다. Figure 6은 제작된 모바일 플랫폼의 가상현실 콘텐츠의 동작 과정과 사용자가 체험 하는 장면을 담은 것으로 대상자 모두 같은 환경에서 실험을 진행하였다.
이론/모형
[18] 이 제한한 현존감 설문지 문항의 일부를 활용하였다. 설문에 참가한 참가자는 가상현실 콘텐츠를 처음 접하는 사용자부터 경험부터 경험이 있는사용자까지 21~27세의 총 15명의 대상자를 선정하여 진행하였다.
성능/효과
다음은 가상객체와의 상호작용 과정에서 발생하는 정보를 어떠한 방식으로 사용자에게 피드백하는 것이 가상현실 콘텐츠로 적합한지 여부를 확인하기 위하여 사운드, 투명도, 원형 슬라이더 그리고 버튼 인터페이스의 4단계로 나누어 설계하고 이를 비교, 분석하였다. 그 결과 3차원 공간을 전체적으로 활용하고, 3차원 객체를 직접 활용하는 것이 사용자의 몰입감 향상에 도움이 됨을 설문 실험을 통해 확인할 수 있었다.
우선 설문에 참가한 사용자에게 4가지 피드백 시스템에 대하여 같은 물음을 각각의 값으로 기록하였다. 그 결과 몰입감의 측면에서는 가장 높은 만족을 나타내는 피드백 시스템은 투명도 변화(평균: 6.23)이고, 원형 슬라이더(평균: 6.03), 사운드(평균: 5.93), 버튼 인터페이스(평균: 4.73)순으로 기록되었다. 피드백 시스템의 경우 편리함의 측면에서 분석하였을 때 역시 같은 순서로 결과가 나타남을 알 수 있었다.
우선시야 범위의 경우 몰입감에 측면에서 분석해보면 한정된 시야 범위(평균: 5.92)보다 360° 공간 전체(평균: 6.36)를 시야 범위로 설정하였을 때 더 높은 몰입을 사용자에게 제공함을 알 수 있었다. 하지만 객체 선택과 인지 과정에서의 편리함의 측면에서 확인하였을 때 한정된 시야범위(평균: 6.
피드백 시스템의 경우 편리함의 측면에서 분석하였을 때 역시 같은 순서로 결과가 나타남을 알 수 있었다. 이를 종합적으로 분석해보면 투명도 변화는 유일하게 3차원 객체에 직접 피드백 과정을 반영한 것을 알 수 있다. 즉, 2차원 이미지를 활용한 인터페이스 보다 3 차원 객체를 직접 활용한 인터 페이스를 설계한다면 몰입감 뿐 아니 라 사용자에 게 편 리함도 동시 에 제 공할 수 있다는 것을 확인할 수 있었다.
이를 종합적으로 분석해보면 투명도 변화는 유일하게 3차원 객체에 직접 피드백 과정을 반영한 것을 알 수 있다. 즉, 2차원 이미지를 활용한 인터페이스 보다 3 차원 객체를 직접 활용한 인터 페이스를 설계한다면 몰입감 뿐 아니 라 사용자에 게 편 리함도 동시 에 제 공할 수 있다는 것을 확인할 수 있었다. 원형 슬라이더의 경우 모바일 가상현실 콘텐츠에서 자주 사용되는 인터페이스 방식으로 사용자에게 친숙하여 높은 점수를 기록한 것으로 판단되었다.
36)를 시야 범위로 설정하였을 때 더 높은 몰입을 사용자에게 제공함을 알 수 있었다. 하지만 객체 선택과 인지 과정에서의 편리함의 측면에서 확인하였을 때 한정된 시야범위(평균: 6.4)가 더 나은 만족감을 제공하는 것으로 나타났다.
후속연구
유용한 상호작용 방법을 제시하고자 한다. 또한, 설문에 참여한 사용자 집단을 늘리고 질문 역시 현존감 설문지 전체로 확대함으로써 제안한 인터페이스에 대하여 보다 유의미한 결과를 도출할 수 있도록 할 것이다.
두 번째로 시선을 통해 가상 객체와 상호작용하는 과정에서 발생하는 정보를 사용자에게 피드백하는 시스템으로 사운드, 투명화, 원형 슬라이더, 버튼 인터페이스의 4단계 구조로 나누어 설계한다. 제안하는 시선기반사용자 인터페이스의 기술적 구현만큼이나 사용자가 콘텐츠를 경험하는 과정에서 제공된 새로운 인터페이스가 사용자에게 얼마만큼 높은 몰입감, 현존감 그리고 편리함을 제공하는지 확인하는 과정이 필요하다. 따라서 제안한 2가지 시선기반 사용자 인터 페이스가 사용자의 콘텐츠 체험과정에 미치는 심 리 적 요인을 분석 및 평가하도록 한다.
향후 메뉴 등과 같이 모바일 환경에서 시선을 기반으로 한 사용자 인터 페이스로 고려할 수 있는 여러 요인들을 추가로 설계하고, 비교 실험을 진행함으로써 다양한 모바일 플랫폼 가상현실 콘텐츠에 유용한 상호작용 방법을 제시하고자 한다. 또한, 설문에 참여한 사용자 집단을 늘리고 질문 역시 현존감 설문지 전체로 확대함으로써 제안한 인터페이스에 대하여 보다 유의미한 결과를 도출할 수 있도록 할 것이다.
참고문헌 (18)
M. E. Feisst, "Enabling virtual reality on mobile devices: enhancing students' learning experience," Proc. SPIE 8065, SPIE Eco-Photonics 2011: Sustainable Design, Manufacturing, and Engineering Workforce Education for a Green Future, 2011.
M. M. Hayhoe, A. Shrivastava, R. Mruczek and J. Pelz, "Visual memory and motor lanning in a natural task," Journal of Vision, vol. 3, no. 1, pp.49-63, 2003.
I.E. Sutherland, "A head-mounted three dimensional display," In Proceedings of the AFIPS '68, pp. 757-764, 1968.
M. Ortega and S. Coquillart, "Prop-based haptic interaction with co-location and immersion: an automotive application," IEEE International Workshop on Haptic Audio Visual Environments and their Applications, Ottawa, ON, Canada, 1-2 October, 2005.
J. P. Schulze, C. E. Hughes, L. Zhang, E. Edelstein and E. Macagno, "CaveCAD: a tool for architectural design in immersive virtual environments," Proc. SPIE 9012, The Engineering Reality of Virtual Reality 2014, 2014.
P. Hoberman, D. M. Krum, E. A. Suma and M. Bolas, "Immersive training games for smartphone-based head mounted displays," Proc. of 2012 IEEE Virtual Reality Workshops (VRW), pp.151-152, 2012.
R.S. Johansson, G. Westling, A. Bckstrm and J.R. Flanagan, "Eye-hand coordination in object manipulation," The Journal of Neuroscience, vol. 21, no. 17, pp.6917-6932, 2001.
J.B. Pelz, R. Canosa, J. Babcock and J. Barber, "Visual perception in familiar, complex tasks," Proceedings of the 2001 International Conference on Image Processing, pp.12-15, 2001.
C. Antonya, "Accuracy of gaze point estimation in immersive 3D interaction interface based on eye tracking," Control Automation Robotics Vision (ICARCV), 2012 12th International Conference on, pp.1125-1129, 2012.
N. Sidorakis, G. A. Koulieris and K. Mania, "Binocular eyetracking for the control of a 3D immersive multimedia user interface," Everyday Virtual Reality (WEVR), 2015 IEEE 1st Workshop on, pp.15-18, 2015.
J.D. Moss and E.R. Muth, "Characteristics of head-mounted displays and their effects on simulator sickness," Human Factors: The Journal of the Human Factors and Ergonomics Society, vol. 53, no. 3, pp.308-319, 2011.
H,B,-L. Duh, D.E. Parker, J.O. Philips and T.A. Furness, "Conflicting motion cues to the visual and vestibular selfmotion systems around 0.06hz evoke simulator sickness," Human Factors: The Journal of the Human Factors and Ergonomics Society, vol. 46, no. 1, pp.142-153, 2004.
Y. Kim, Gun A. Lee, Do. Jo, U. Yang, G. Kim and J. Park, "Analysis on virtual interaction-induced fatigue and difficulty in manipulation for interactive 3D gaming console," Consumer Electronics (ICCE), 2011 IEEE International Conference on, pp.269-270, 2011.
J. Lee, M. Kim, C. Jeon and J. Kim, "A Study on Gamepad/Gaze based Input Processing for Mobile Platform Virtual Reality Contents," Journal of the Korea Computer Graphics Societ, vol. 22, no. 3, pp.31-41, 2016.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.