가상 및 증강현실과 같은 확장현실(XR: Extended Reality)은 몰입형 데이터 시각화 및 분석을 위한 거대한 잠재력을 가지고 있다. 확장현실에서 사용자는 3차원 가상 공간을 활용하여 데이터 및 여러 사용자와 사실적으로 상호 작용할 수 있으므로 보다 직관적인 데이터 분석이 가능하다. 그러나 확장현실의 장점을 제대로 활용하기 위한 시각화를 생성하는 것은 복잡한 프로그래밍이 필요하기 때문에 상당히 어려운 일이다. 본 논문에서는 손 제스처만으로 XR을 위한 시각화 전 과정을 수행하고, 모든 3차원 공간을 활용할 수 있는 가젯암(Gadget Arms) 시스템을 제안한다. 이 시스템에서 분석가는 데스크탑 기반 환경이나 복잡한 프로그래밍을 사용할 필요 없이 XR 기기를 착용한 상태에서 직관적으로 전체 시각화 공간을 디자인할 수 있으며, 가상의 손을 임의의 3차원 공간에 자유자재로 위치시킬 수 있는 인터랙션을 통해 거대한 3차원 공간을 효과적으로 활용할 수 있다. 우리는 사용자 연구를 통해 제안된 시스템이 시각화 제작과 공간 활용의 사용성을 크게 향상시시키는 것을 확인하였다.
가상 및 증강현실과 같은 확장현실(XR: Extended Reality)은 몰입형 데이터 시각화 및 분석을 위한 거대한 잠재력을 가지고 있다. 확장현실에서 사용자는 3차원 가상 공간을 활용하여 데이터 및 여러 사용자와 사실적으로 상호 작용할 수 있으므로 보다 직관적인 데이터 분석이 가능하다. 그러나 확장현실의 장점을 제대로 활용하기 위한 시각화를 생성하는 것은 복잡한 프로그래밍이 필요하기 때문에 상당히 어려운 일이다. 본 논문에서는 손 제스처만으로 XR을 위한 시각화 전 과정을 수행하고, 모든 3차원 공간을 활용할 수 있는 가젯암(Gadget Arms) 시스템을 제안한다. 이 시스템에서 분석가는 데스크탑 기반 환경이나 복잡한 프로그래밍을 사용할 필요 없이 XR 기기를 착용한 상태에서 직관적으로 전체 시각화 공간을 디자인할 수 있으며, 가상의 손을 임의의 3차원 공간에 자유자재로 위치시킬 수 있는 인터랙션을 통해 거대한 3차원 공간을 효과적으로 활용할 수 있다. 우리는 사용자 연구를 통해 제안된 시스템이 시각화 제작과 공간 활용의 사용성을 크게 향상시시키는 것을 확인하였다.
Extended Reality (XR), such as virtual and augmented reality, has huge potential for immersive data visualization and analysis. In XR, users can interact with data and other users realistically by navigating the shared virtual space, allowing for more intuitive data analysis. However, creating a vis...
Extended Reality (XR), such as virtual and augmented reality, has huge potential for immersive data visualization and analysis. In XR, users can interact with data and other users realistically by navigating the shared virtual space, allowing for more intuitive data analysis. However, creating a visualization in XR also poses a challenge because complicated, low-level programming is required, which hinders broad adaptation in visual analytics. This paper proposes an interactive visualization authoring tool based on hand gesture for immersive data visualization-Gadget Arms. The proposed system provides a novel user interaction to create and place visualization in the 3D virtual world. This simple, but intuitive, user interaction enables user designs the entire visualization space in the XR without using a host computer and low-level programming. Our user study also confirmed that the proposed user interaction significantly improves the usability of the visualization authoring tool.
Extended Reality (XR), such as virtual and augmented reality, has huge potential for immersive data visualization and analysis. In XR, users can interact with data and other users realistically by navigating the shared virtual space, allowing for more intuitive data analysis. However, creating a visualization in XR also poses a challenge because complicated, low-level programming is required, which hinders broad adaptation in visual analytics. This paper proposes an interactive visualization authoring tool based on hand gesture for immersive data visualization-Gadget Arms. The proposed system provides a novel user interaction to create and place visualization in the 3D virtual world. This simple, but intuitive, user interaction enables user designs the entire visualization space in the XR without using a host computer and low-level programming. Our user study also confirmed that the proposed user interaction significantly improves the usability of the visualization authoring tool.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 논문은 XR 기기를 착용한 상태로 몰입형 시각화 디자인 전체 과정을 대화형으로 진행하고, 시각화를 3 차원 공간에 자유롭게 배치할 수 있는 인터랙션 시스템인 가젯암(Gadget Arms)을 소개한다. 이 시스템을 통해 사용자는 XR 환경 안에서 가장 직관적인 방법인 손 제스처를 이용하여 원하는 시각화를 디자인하고, 3 차원 공간 상에 자유롭게 배치할 수 있다.
본 시스템의 주요 목표는 누구든지 XR을 위한 데이터 시각화를 쉽게 디자인할 수 있게 하는 것이다. 이를 위해서는 사용자가 복잡한 프로그래밍 없이 손쉽게 원하는 시각화를 만들어 낼 수 있어야 한다.
DXR은 XR을 위한 시각화를 디자인하기 위한 목적으로 개발된 가장 완성도가 높은 툴킷이다. 가젯암 시스템의 시각화 생성 백엔드로써 DXR 툴킷이 사용되었으며, 가장 주된 구현 목표는 DXR의 모든 시각화 디자인 기능을 XR 상에서 사용자 인터랙션 만으로 가능하게 하는 것이다. 가젯암 시스템은 4개의 모듈(손 컨트롤, 물체 컨트롤, 가이드 패널 컨트롤, 시각화 컨트롤)로 구성되어 있다.
가설 설정
(i): 실제 손의 위치는 0.5m이지만 가상의 손의 위치는 5m가 되어 먼 곳의 물체도 쉽게 조작할 수 있다.
(a): 사용자가 팔을 몸쪽으로 당기면 가상의 손이 사용자에게 가까이 돌아온다.(b), (c): 가상의 손이 실제 손과 같은위치(0.5m)에 있어 가까운 물체를 조작할 수 있다. (d): 사용자의 손이 일정범위 안에 있으면 가상 손의 움직임이 멈추고 해당위치에서 물체를 조작할 수 있다.
5m)에 있어 가까운 물체를 조작할 수 있다. (d): 사용자의 손이 일정범위 안에 있으면 가상 손의 움직임이 멈추고 해당위치에서 물체를 조작할 수 있다.(e), (f): 가상의 손을 3m 지점으로 보낸 후 멈춰 물체를 조작하는 모습이다.
(a): 사용자가 Object generation 인터랙션을 통해 평면을 생성하게 되면, 2차원의 새로운 시각화가 생성된다. (b): 또는, 직육면체를 생성하게 되면, 3차원의 새로운 시각화가 생성된다.
(a): Object generation 인터랙션을 통해시각화 틀을 생성한다. (b): 처음 시각화 틀을 생성하면시각화 파라미터들이 랜덤으로 설정되어 초기 시각화가 생성된다. (c): Menu control 인터랙션을 통해 가이드 패널을 띄우게 되면 시각화에 조작 가능한 영역이 빨간색과 노란색 박스로 표시된다.
(a):실험이 시작되면 조작할 물체(파란색 큐브)와 타겟 지점(빨간색 큐브)이 가상 공간에 나타난다. (b): 물체를 인터랙션을 통해 타겟 지점으로 성공적으로 이동시키게 되면 타겟 지점이 초록색으로 바뀌며 다음 실험으로 이동한다.
제안 방법
본 시스템의 인터랙션 성능 및 시각화 디자인 능력을 검증하기 위해 두가지 사용자 연구(인터랙션 실험, 시각화 디자인 실험)을 진행하였다. 이 실험을 통해 본 시스템이 인터랙션의 효율을 높이고, 손 제스처 만으로 원하는 시각화를 성공적으로 만들어 내고 3 차원 공간에 정확히 배치할 수 있는 것을 검증하였다.
기존의 ‘Go-Go’ 기법은 가상의 손을 멀리 보낼 수록 사용자가 가상의 손을 보기 어려워지고, 정밀한 물체의 조작이 힘들어 지는 한계가 있다. 본 연구에서는 이러한 한계를 해결하기 위해 거리에 비례해서 가상의 손과 피드백 볼, 상태 바의 크기는 키우고, 손가락의 굵기는 얇게 함으로써 가상의 손이 멀리 있을 때도 쉽게 인터랙션 위치를 확인할 수 있으면서, 손의 크기 때문에 시각화가 가려지지 않도록 하였다.
손 컨트롤 모듈은 손 추적 센서와 손 사이의 거리를 계산하여 손의 위치를 결정하고, LeapMotion API를 통해 해당 위치에 가상의 손을 시각화 한다. 또한, 사용자가 현재 물체를 조작하고 있는지, 가이드 패널이 활성화되어 있는지, 시각화를 조작하는 중인지를 판단하여 각 모듈을 활성화 또는 비활성화시킨다.
물체 컨트롤 모듈로부터 시각화 틀 생성 정보가 들어오면 해당 정보를 DXR 툴킷으로 전달하여 초기 시각화를 생성한다. 또한, 가이드 패널 컨트롤 모듈에서 시각화 수정 정보가 들어오면 해당 정보를 DXR 툴킷으로 전달하여 시각화를 수정한다.
우리는 본 시스템이 3.1에서 설명한 두가지 설계 목표를 얼마나 잘 달성하였는지 검증하기 위해 두가지 실험을 설계하고 수행하였다. 첫번째 실험에서는 사용자 인터랙션이 얼마나 직관적이 효과적인지 검증하기 위해, 대표적인 AR 기기인 Microsoft HoloLens 제스처 시스템과 제안한 시스템의 인터랙션 사용하여 물체를 배치시키는 것을 비교하였다.
1에서 설명한 두가지 설계 목표를 얼마나 잘 달성하였는지 검증하기 위해 두가지 실험을 설계하고 수행하였다. 첫번째 실험에서는 사용자 인터랙션이 얼마나 직관적이 효과적인지 검증하기 위해, 대표적인 AR 기기인 Microsoft HoloLens 제스처 시스템과 제안한 시스템의 인터랙션 사용하여 물체를 배치시키는 것을 비교하였다. 여기서, HoloLens 제스처는 시선의 가운데에 위치한 커서를 물체에 가져간 다음 에어 탭 제스처를 통해 물체를 잡아 손을 움직여 물체를 이동시키는 것을 말한다.
인터랙션 방법 이외에 변수를 최소화하기 위해 두 방법 모두 XR 기기로 Microsoft HoloLens를 사용하였다. 두번째 실험에서는 인터랙션 만으로 원하는 시각화를 제작할 수 있는지를 검증하기 위해, 기존의 DXR 툴킷과 본 시스템의 시각화 제작 시스템을 비교하였다.
총 14명(남자 10명, 여자 4명, 나이 19~27, 모두 VR/AR 경험 있음)이 실험에 참가하였으며 실험 참가자는 가젯암 인터랙션과 HoloLens 제스처를 사용하여 XR 상의 파란색 큐브를 빨간색으로 표시된 타겟 지점으로 이동시켜야 한다. 각 참가자는 각 인터랙션에 대해 16번의 이동 작업을 수행하였고, 수행 시간을 측정하였다. 이 실험은 [10]의 연구에서 모티브를 얻어 진행되었다.
DXR 툴킷은 데스크탑 기반의 프로그램 작성과 XR 상에서의 메뉴조작을 모두 사용하고, 가젯암 시스템은 XR 상에서의 인터랙션만을 사용한다. 총 4개의 디자인을 만들도록 했으며, 디자인을 완성시킬 때까지 수행시간이 측정되었다.
참가자는 실험 시작 전에 두가지 방법에 대해 익숙해질 때까지 연습을 하였다. 그 후, 참가자는 4가지 다른 디자인에 대해 실험을 진행하였다.
본 연구를 통해 데이터 시각화 분야에서 XR 장치를 소비 위주에서 완벽하게 기능하는 제작자로 전환시켰다. 우리는 직관적인 손 제스처를 통해 시각화 모든 과정을 수행하고 모든 3차원 공간에 시각화를 배치할 수 있는 가젯암 시스템을 제안하였다. 또한 사용자 연구를 통해 본 시스템의 인터랙션이 모든 3차원 공간을 효과적으로 활용할 수 있고, XR 기기를 착용한 상태에서 인터랙션 만으로 원하는 시각화를 빠른 시간안에 효과적으로 디자인할 수 있다는 것을 검증하였다.
대상 데이터
본 시스템은 Unity Game Engine과 LeapMotion API를 통해 개발되었으며, Windows 10, Intel i7-6700 CPU, 64GB RAM, NVIDIA GTX Geforce 1080ti GPU 성능의 데스크탑과 연결된 HTC VIVE (VR 기기)와 Microsoft Hololens (AR 기기)에서 테스트되었다.
총 14명(남자 10명, 여자 4명, 나이 19~27, 모두 VR/AR 경험 있음)이 실험에 참가하였으며 실험 참가자는 가젯암 인터랙션과 HoloLens 제스처를 사용하여 XR 상의 파란색 큐브를 빨간색으로 표시된 타겟 지점으로 이동시켜야 한다. 각 참가자는 각 인터랙션에 대해 16번의 이동 작업을 수행하였고, 수행 시간을 측정하였다.
총 12명의 참가자(남자 9명, 여자 3명, 나이 19~27, 모두 AR/VR 경험 있음)가 실험에 참가하였으며 실험 참가자는 기존의 DXR 툴킷과 가젯암 시스템을 사용하여 주어진 시각화 디자인과 같은 디자인을 만들고, 3차원 공간에 배치해야 한다. DXR 툴킷은 데스크탑 기반의 프로그램 작성과 XR 상에서의 메뉴조작을 모두 사용하고, 가젯암 시스템은 XR 상에서의 인터랙션만을 사용한다.
이론/모형
우리는 손 제스처의 직관성과 함께 모든 3차원 공간을 효과적으로 활용할 수 있게 하기 위해 손 제스처에 ‘Go-Go’ 기법을 결합하였다.
여기서, HoloLens 제스처는 시선의 가운데에 위치한 커서를 물체에 가져간 다음 에어 탭 제스처를 통해 물체를 잡아 손을 움직여 물체를 이동시키는 것을 말한다. 인터랙션 방법 이외에 변수를 최소화하기 위해 두 방법 모두 XR 기기로 Microsoft HoloLens를 사용하였다. 두번째 실험에서는 인터랙션 만으로 원하는 시각화를 제작할 수 있는지를 검증하기 위해, 기존의 DXR 툴킷과 본 시스템의 시각화 제작 시스템을 비교하였다.
성능/효과
확장 현실(XR)을 기반으로 하는 몰입형 데이터 시각화는 시각적 분석을 위한 새로운 기술로서 주목받고 있다. 이 기술의 이점은 3 차원 가상 공간에서 분석가들이 효과적으로 협업이 가능하고, 데이터와 직관적으로 상호 작용할 수 있다는 것이다. 예를 들어 가상 현실에 최적의 조명 조건을 갖춘 방사선 판독실을 만들거나 [25], 뇌 속에 들어가 뉴런을 추적하거나 [27], 가상의 분석실에서 여러 명의 분석가가 만나 함께 데이터를 분석하는 등의 일들이 가능하다 [13].
본 시스템의 인터랙션 성능 및 시각화 디자인 능력을 검증하기 위해 두가지 사용자 연구(인터랙션 실험, 시각화 디자인 실험)을 진행하였다. 이 실험을 통해 본 시스템이 인터랙션의 효율을 높이고, 손 제스처 만으로 원하는 시각화를 성공적으로 만들어 내고 3 차원 공간에 정확히 배치할 수 있는 것을 검증하였다.
두 인터랙션 방법에 대한 작업 수행 시간의 차이를 t 검정을 통해 검증하였으며, 결과는 가젯암 인터랙션의 수행 시간(8.5초, 표준 편차: 3.4초)이 HoloLens 제스처의 수행 시간(28.9초, 표준 편차: 13.9초)에 비해 현저히 낮은 것으로 나타났다(Figure 10a). 즉, 가젯암의 인터랙션이 HoloLens 제스처에 비해 주어진 작업을 훨씬 빠르게 수행할 수 있음을 나타낸다.
타겟의 크기(20cm, 30cm)의 차이에 따른 수행시간의 차이는 Figure 10b에 나타나있다. 두 인터랙션 모두 타겟의 크기가 작아 짐에 따라 수행속도가 증가하였는데, HoloLens 제스처에 비해 가젯암 인터랙션의 수행속도의 증가 비율이 큰 것을 볼 수 있다. 이는 가젯암 인터랙션이 손 추적을 기반으로 되어 있기 때문에 작업의 난이도가 올라갈수록 정밀한 작업을 하기가 어려워지는 것으로 보인다.
위치의 차이에 상관없이 가젯암 인터랙션이 빠른 시간안에 작업을 완료할 수 있었다. 이는 제안된 인터랙션이 모든 3차원 공간을 효과적으로 활용할 수 있음을 보여준다.
두 시각화 디자인 방법에 대한 작업 수행 시간의 차이를 t 검정을 통해 검증하였으며, 결과는 가젯암 시스템의 수행시간(132.9초, 표준 편차: 45.6초)이 DXR 툴킷의 수행시간(242.8초, 표준 편차: 43.9초)에 비해 현저히 낮은 것으로 나타났다(Figure 13a). 즉, 가젯암 시스템이 DXR 툴킷에 비해 훨씬 적은 시간을 들여 원하는 시각화를 디자인할 수 있는 것으로 나타났다.
9초)에 비해 현저히 낮은 것으로 나타났다(Figure 13a). 즉, 가젯암 시스템이 DXR 툴킷에 비해 훨씬 적은 시간을 들여 원하는 시각화를 디자인할 수 있는 것으로 나타났다. 또한, DXR 툴킷은 디자인이 복잡 해질수록 훨씬 많은 시간이 소요된 반면 가젯암 시스템은 많은 차이를 보이지 않았다(Figure 13b).
이는 가젯암 시스템의 대화식 시각화 디자인 방법이 복잡한 디자인도 쉽게 해낼 수 있는 것을 나타낸다. 결론적으로 가젯암 시스템이 원하는 시각화를 인터랙션만으로 만들어 낼 수 있으며, 적은 시간안에 효과적으로 원하는 디자인을 만들어 낼 수 있음을 알 수 있다.
본 연구를 통해 데이터 시각화 분야에서 XR 장치를 소비 위주에서 완벽하게 기능하는 제작자로 전환시켰다. 우리는 직관적인 손 제스처를 통해 시각화 모든 과정을 수행하고 모든 3차원 공간에 시각화를 배치할 수 있는 가젯암 시스템을 제안하였다.
우리는 직관적인 손 제스처를 통해 시각화 모든 과정을 수행하고 모든 3차원 공간에 시각화를 배치할 수 있는 가젯암 시스템을 제안하였다. 또한 사용자 연구를 통해 본 시스템의 인터랙션이 모든 3차원 공간을 효과적으로 활용할 수 있고, XR 기기를 착용한 상태에서 인터랙션 만으로 원하는 시각화를 빠른 시간안에 효과적으로 디자인할 수 있다는 것을 검증하였다. 향후 인터랙션의 정확도를 높이기 위한 연구가 필요해 보이며, 햅틱 피드백을 결합시키는 연구가 가능해 보인다.
후속연구
또한 사용자 연구를 통해 본 시스템의 인터랙션이 모든 3차원 공간을 효과적으로 활용할 수 있고, XR 기기를 착용한 상태에서 인터랙션 만으로 원하는 시각화를 빠른 시간안에 효과적으로 디자인할 수 있다는 것을 검증하였다. 향후 인터랙션의 정확도를 높이기 위한 연구가 필요해 보이며, 햅틱 피드백을 결합시키는 연구가 가능해 보인다.
앞으로 XR 기기를 사용하기 위해 데스크탑이 전혀 필요하지 않는 날이 올 것이다. 대신, XR 기기를 착용하고 XR 공간 안에서 XR 콘텐츠나 소프트웨어를 만들게 될 것이다. 우리는 본 연구가 이러한 발전의 첫번째 단계가 될 것이라 믿는다.
질의응답
핵심어
질문
논문에서 추출한 답변
몰입형 데이터 시각화는 무엇을 기반을 두고 있는가?
확장 현실(XR)을 기반으로 하는 몰입형 데이터 시각화는 시각적 분석을 위한 새로운 기술로서 주목받고 있다. 이 기술의 이점은 3 차원 가상 공간에서 분석가들이 효과적으로 협업이 가능하고, 데이터와 직관적으로 상호 작용할 수 있다는 것이다.
로우 레벨 프로그래밍을 필요로 하는 몰입형 데이터 시각화가 분석가들로 부터 활용되지 못하는 이유는 무엇인가?
몰입형 데이터 시각화 디자인은 데스크탑 기반 환경에서의 복잡한 로우 레벨 프로그래밍을 필요로 한다. 시각화를 주로 사용하는 분석가들은 대체로 이러한 복잡한 프로그래밍이 익숙하지 않고, 전문적인 프로그래머라 하더라도 몰입형 시각화를 구현하기 위해 많은 시간과 노력을 필요로 한다. 이러한 이유로 많은 이점에도 불구하고 몰입형 데이터 시각화는 널리 활용되지 못하고 있다 [24].
가젯암은 무엇인가?
본 논문은 XR 기기를 착용한 상태로 몰입형 시각화 디자인 전체 과정을 대화형으로 진행하고, 시각화를 3차원 공간에 자유롭게 배치할 수 있는 인터랙션 시스템인 가젯암(Gadget Arms)을 소개한다. 이 시스템을 통해 사용자는 XR 환경 안에서 가장 직관적인 방법인 손 제스처를 이용하여 원하는 시각화를 디자인하고, 3 차원 공간 상에 자유롭게 배치할 수 있다.
Microsoft Docs. https://docs.microsoft.com/en-us/windows/mixed-reality/gestures
Unity. https://unity3d.com/
Hassan Abu Alhaija, Siva Karthik Mustikovela, Lars Mescheder, Andreas Geiger, and Carsten Rother. Augmented Reality Meets Computer Vision: Efficient Data Generation for Urban Driving Scenes. International Journal of Computer Vision 126, 9, 961-972, 2018.
Rahul Arora, Rubaiat Habib Kazi, Tovi Grossman, George Fitzmaurice, and Karan Singh. SymbiosisSketch: Combining 2D & 3D Sketching for Designing Detailed 3D Objects in Situ. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. ACM, 185, 2018.
Benjamin Bach, Ronell Sicat, Hanspeter Pfister, and Aaron Quigley. Drawing into the AR-CANVAS: Designing embedded visualizations for augmented reality. In Workshop on Immersive Analytics, IEEE Vis, 2017.
Hrvoje Benko, Christian Holz, Mike Sinclair, and Eyal Ofek. Normaltouch and texturetouch: High-fidelity 3d haptic shape rendering on handheld virtual reality controllers. In Proceedings of the 29th Annual Symposium on User Interface Software and Technology. ACM, 717-728, 2016.
Simon Butscher, Sebastian Hubenschmid, Jens Muller, Johannes Fuchs, and Harald Reiterer. Clusters, Trends, and Outliers: How Immersive Technologies Can Facilitate the Collaborative Analysis of Multidimensional Data. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (CHI '18). ACM, New York, NY, USA, Article 90, 12 pages. 2018.
Yeonjoo Cha and Rohae Myung. Extended Fitts' law for 3D pointing tasks using 3D target arrangements. International Journal of Industrial Ergonomics 43, 4, 350-355, 2013.
Inrak Choi, Eyal Ofek, Hrvoje Benko, Mike Sinclair, and Christian Holz. CLAW: A Multifunctional Handheld Haptic Controller for Grasping, Touching, and Triggering in Virtual Reality. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. ACM, 654. 2018.
Maxime Cordeil, Andrew Cunningham, Tim Dwyer, Bruce H. Thomas, and Kim Marriott. 2017. ImAxes: Immersive Axes As Embodied Affordances for Interactive Multivariate Data Visualisation. In Proceedings of the 30th Annual ACM Symposium on User Interface Software and Technology (UIST '17). ACM, New York, NY, USA, 71-83. https://doi.org/10.1145/3126594.3126613
Maxime Cordeil, Tim Dwyer, Karsten Klein, Bireswar Laha, Kim Marriott, and Bruce H Thomas. Immersive collaborative analysis of network connectivity: Cave-style or head-mounted display? IEEE transactions on visualization and computer graphics 23, 1 (2017), 441-450. 2017.
Ciro Donalek, S. George Djorgovski, Scott Davidoff, Alex Cioc, Anwell Wang, Giuseppe Longo, Jeffrey S. Norris, Jerry Zhang, Elizabeth Lawler, Stacy Yeh, Ashish Mahabal, Matthew J. Graham, and Andrew J. Drake. Immersive and collaborative data visualization using virtual reality platforms. 2014 IEEE International Conference on Big Data (Big Data), 609-614. 2014.
Adrien Fonnet, Florian Melki, Yannick Prie, Fabien Picarougne, and Gregoire Cliquet. Immersive Data Exploration and Analysis. In Student Interaction Design Research conference. 2018.
Joon Hyub Lee, Sang-Gyun An, Yongkwan Kim, and Seok-Hyung Bae. Projective Windows: Bringing Windows in Space to the Fingertip. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. ACM, 218. 2018.
James R Lewis. IBM computer usability satisfaction questionnaires: psychometric evaluation and instructions for use. International Journal of HumanComputer Interaction 7, 1, 57-78. 1995.
Martin Luboschik, Philip Berger, and Oliver Staadt. On spatial perception issuesin augmented reality based immersive analytics. In Proceedings of the 2016 ACM Companion on Interactive Surfaces and Spaces. ACM, 47-53. 2016.
Longfei Ma, Zhe Zhao, Fang Chen, Boyu Zhang, Ligong Fu, and Hongen Liao. Augmented reality surgical navigation with ultrasound-assisted registration for pedicle screw placement: a pilot study. International journal of computer assisted radiology and surgery 12, 12, 2205-2215. 2017.
Patrick Millais, Simon L. Jones, and Ryan Kelly. Exploring Data in Virtual Reality: Comparisons with 2D Data Visualizations. In Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems (CHI EA '18). ACM, New York, NY, USA, Article LBW007, 6 pages. 2018.
Patrick Millais, Simon L Jones, and Ryan Kelly. Exploring Data in Virtual Reality: Comparisons with 2D Data Visualizations. In Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems. ACM, LBW007. 2018.
Ekaterina Olshannikova, Aleksandr Ometov, Yevgeni Koucheryavy, and Thomas Olsson. Visualizing Big Data with augmented and virtual reality: challenges and research agenda. Journal of Big Data 2, 1 (01 Oct 2015), 22. 2015.
Scott Riddle, Daniel Wasser, and Michael McCarthy. Touching The Human Neuron: User-Centric Augmented Reality Viewing and Interaction of in-vivo Cellular Confocal Laser Scanning Microscopy (CLSM) Utilizing High Resolution zStack Data Sets. Journal of Biocommunication 41, 1, 2017.
Ronell Sicat, Jiabao Li, JunYoung Choi, Maxime Cordeil, Won-Ki Jeong, Benjamin Bach, and Hanspeter Pfister. DXR: A Toolkit for Building Immersive Data Visualizations. IEEE Transactions on Visualization and Computer Graphics. 2018.
Mauricio Sousa, Daniel Mendes, Soraia Paulo, Nuno Matela, Joaquim Jorge, and Daniel Simoes Lopes. VRRRRoom: Virtual Reality for Radiologists in the Reading Room. In Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems (CHI '17). ACM, New York, NY, USA, 4057-4062. 2017.
Daniele Sportillo, Alexis Paljic, Mehdi Boukhris, Philippe Fuchs, Luciano Ojeda, and Vincent Roussarie. An immersive Virtual Reality system for semiautonomous driving simulation: a comparison between realistic and 6-DoF controller-based interaction. In Proceedings of the 9th International Conference on Computer and Automation Engineering. ACM, 6-10. 2017.
Will Usher, Pavol Klacansky, Frederick Federer, Peer-Timo Bremer, Aaron Knoll, Jeff Yarch, Alessandra Angelucci, and Valerio Pascucci. A virtual reality visualization tool for neuron tracing. IEEE transactions on visualization and computer graphics 24, 1. 994-1003. 2018.
Eric Whitmire, Hrvoje Benko, Christian Holz, Eyal Ofek, and Mike Sinclair. Haptic Revolver: Touch, Shear, Texture, and Shape Rendering on a Reconfigurable Virtual Reality Controller. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. ACM, 86. 2018.
Ivan Poupyrev, Mark Billinghurst, Suzanne Weghorst, Tadao Ichikawa: The Go-Go Interaction Technique: Non-Linear Mapping for Direct Manipulation in VR. ACM Symposium on User Interface Software and Technology 79-80, 1996.
Bowman, D. A., & Hodges, L. F. An evaluation of techniques for grabbing and manipulating remote objects in immersive virtual environments. In Proceedings of the 1997 symposium on Interactive 3D graphics(pp. 35-ff). ACM. 1997.
D. Filonik, T. Bednarz, M. Rittenbruch, and M. Foth. Glance: Generalized geometric primitives and transformations for information visualization in AR/VR environments. In Proceedings of the 15th ACM SIGGRAPH Conference on Virtual-Reality Continuum and Its Applications in Industry-Volume 1, VRCAI '16, pp. 461-468. ACM, New York, NY, USA, 2016
이 논문을 인용한 문헌
저자의 다른 논문 :
연구과제 타임라인
LOADING...
LOADING...
LOADING...
LOADING...
LOADING...
활용도 분석정보
상세보기
다운로드
내보내기
활용도 Top5 논문
해당 논문의 주제분야에서 활용도가 높은 상위 5개 콘텐츠를 보여줍니다. 더보기 버튼을 클릭하시면 더 많은 관련자료를 살펴볼 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.