언택트 시대가 도래함에 따라 원격 협업 연구에 대한 관심이 증가하고 있다. 원격 협업은 지리적 위치에 관계없이 시간과 비용을 절약하면서 협력을 할 수 있는 장점이 있지만 대면 협업에 비해 의사소통은 제한적일 수 있다. 이러한 제한들은 확장현실 (eXtended Reality, XR)을 이용하여 의사소통과 이해력을 향상시킴으로써 극복될 수 있다. 이는 물리적 작업을 위한 XR 기반 원격 협업 기술 탐구의 가치를 높인다. 가상 복제본을 활용하여 VR 원격 전문가가 ...
언택트 시대가 도래함에 따라 원격 협업 연구에 대한 관심이 증가하고 있다. 원격 협업은 지리적 위치에 관계없이 시간과 비용을 절약하면서 협력을 할 수 있는 장점이 있지만 대면 협업에 비해 의사소통은 제한적일 수 있다. 이러한 제한들은 확장현실 (eXtended Reality, XR)을 이용하여 의사소통과 이해력을 향상시킴으로써 극복될 수 있다. 이는 물리적 작업을 위한 XR 기반 원격 협업 기술 탐구의 가치를 높인다. 가상 복제본을 활용하여 VR 원격 전문가가 AR 로컬 작업자에게 시연/가이드를 제공하는 기존 연구가 있었지만 가상과 실제 현장의 차이로 인해 실제 환경을 이해하고 파악하기는 어렵다. 이를 위해 가상 공간 사용자가 현실 세계의 공간을 참조하면서 협업을 할 수 있는 환경인 동기화 된 AR과 VR 협업 환경과 효과적인 상호작용을 제공하기 위해 시각적인 단서를 제공하는 것이 필요하다. 본 연구는 VR 사용자가 로컬 작업 환경 및 상황을 종합적으로 이해 및 탐색하며 실제 환경과 상호작용할 수 있는 XR 원격 협업 시스템을 제안한다. 공간 참조를 위해 AR 로컬 환경을 3D 재구성하고, AR과 VR 좌표계를 동기화 시킨다. VR 사용자는 XR 뷰를 보며 손 제스처, 3D 가상복제본과 딥 러닝 기반 2D 가상복제본을 활용하여 AR 사용자가 작업을 수행할 수 있도록 가이드를 한다. AR 사용자는 VR 사용자의 지시와 딥 러닝 기반 위치정보 및 주석을 통해 작업을 수행한다. 딥 러닝 기반 시각적 단서 및 상호작용이 XR 원격 협업에 미치는 효과를 탐구하기 위해 사용자 연구를 수행하였다. 실험 결과 딥 러닝 기반 위치 정보와 주석 및 2D 가상 복제본을 활용하여 협업을 했을 때 작업 실행 시간이 단축되어 더 효과적이었다. 또한 인지부하가 낮음을 확인할 수 있었으며 작업 지원 측면에서 도움이 되었다. 시선이 제공될 때는 사회적 존재감이 제공되지 않을 때보다 더 높았다. 연구 결과는 원격 협업 애플리케이션에서 더 나은 XR 인터페이스를 설계하는 데 도움이 될 수 있다.
언택트 시대가 도래함에 따라 원격 협업 연구에 대한 관심이 증가하고 있다. 원격 협업은 지리적 위치에 관계없이 시간과 비용을 절약하면서 협력을 할 수 있는 장점이 있지만 대면 협업에 비해 의사소통은 제한적일 수 있다. 이러한 제한들은 확장현실 (eXtended Reality, XR)을 이용하여 의사소통과 이해력을 향상시킴으로써 극복될 수 있다. 이는 물리적 작업을 위한 XR 기반 원격 협업 기술 탐구의 가치를 높인다. 가상 복제본을 활용하여 VR 원격 전문가가 AR 로컬 작업자에게 시연/가이드를 제공하는 기존 연구가 있었지만 가상과 실제 현장의 차이로 인해 실제 환경을 이해하고 파악하기는 어렵다. 이를 위해 가상 공간 사용자가 현실 세계의 공간을 참조하면서 협업을 할 수 있는 환경인 동기화 된 AR과 VR 협업 환경과 효과적인 상호작용을 제공하기 위해 시각적인 단서를 제공하는 것이 필요하다. 본 연구는 VR 사용자가 로컬 작업 환경 및 상황을 종합적으로 이해 및 탐색하며 실제 환경과 상호작용할 수 있는 XR 원격 협업 시스템을 제안한다. 공간 참조를 위해 AR 로컬 환경을 3D 재구성하고, AR과 VR 좌표계를 동기화 시킨다. VR 사용자는 XR 뷰를 보며 손 제스처, 3D 가상복제본과 딥 러닝 기반 2D 가상복제본을 활용하여 AR 사용자가 작업을 수행할 수 있도록 가이드를 한다. AR 사용자는 VR 사용자의 지시와 딥 러닝 기반 위치정보 및 주석을 통해 작업을 수행한다. 딥 러닝 기반 시각적 단서 및 상호작용이 XR 원격 협업에 미치는 효과를 탐구하기 위해 사용자 연구를 수행하였다. 실험 결과 딥 러닝 기반 위치 정보와 주석 및 2D 가상 복제본을 활용하여 협업을 했을 때 작업 실행 시간이 단축되어 더 효과적이었다. 또한 인지부하가 낮음을 확인할 수 있었으며 작업 지원 측면에서 도움이 되었다. 시선이 제공될 때는 사회적 존재감이 제공되지 않을 때보다 더 높았다. 연구 결과는 원격 협업 애플리케이션에서 더 나은 XR 인터페이스를 설계하는 데 도움이 될 수 있다.
With the advent of the non-contact era, research on remote collaboration is receiving much attention from various fields. Remote collaboration offers advantages such as time and cost savings and the ability to collaborate regardless of geographical location. However, remote collaboration may have li...
With the advent of the non-contact era, research on remote collaboration is receiving much attention from various fields. Remote collaboration offers advantages such as time and cost savings and the ability to collaborate regardless of geographical location. However, remote collaboration may have limitations in terms of communication and social presence when compared to face-to-face collaboration. These limitations can be overcome by improving communication and understanding leveraging eXtended Reality (XR). This increases the value of exploring XR-based remote collaboration technologies for physical tasks. Previous studies have utilized virtual replicas to provide demonstrations and task guidance from VR remote experts to AR local workers, but understanding the actual environment was difficult due to the differences between the virtual and real environments. To address this, there is a need for a synchronized environment where users in the virtual space can reference the physical space of the real world, which should provide seamless AR and VR environments with effective visual cues for interaction and collaboration. The proposed approach presents an XR remote collaboration system where VR users can comprehensively understand and explore the local working environment and interact with AR local workers effectively. This study reconstructed the spatially synchronized AR and VR environments. Thus, VR experts can provide visual guidance to AR users more effectively through hand gestures, 3D virtual replicas, and deep learning-based 2D virtual replicas, while observing the local environment through the XR view. AR users can perform tasks based on VR users' instructions, deep learning-based location information and annotations. A user study was conducted to investigate the effectiveness of the proposed deep learning-based visual cues and interaction on XR remote collaboration. Experimental results showed that the utilization of deep learning-based task assistance led to shorter task execution time. Additionally, it was found that the proposed approach caused lower cognitive load and provided more effective task guidance. Furthermore, when gaze cues were provided, there was a higher sense of social presence compared to when they were not provided. The research findings can be beneficial in designing XR interfaces and interactions in various remote collaboration applications.
With the advent of the non-contact era, research on remote collaboration is receiving much attention from various fields. Remote collaboration offers advantages such as time and cost savings and the ability to collaborate regardless of geographical location. However, remote collaboration may have limitations in terms of communication and social presence when compared to face-to-face collaboration. These limitations can be overcome by improving communication and understanding leveraging eXtended Reality (XR). This increases the value of exploring XR-based remote collaboration technologies for physical tasks. Previous studies have utilized virtual replicas to provide demonstrations and task guidance from VR remote experts to AR local workers, but understanding the actual environment was difficult due to the differences between the virtual and real environments. To address this, there is a need for a synchronized environment where users in the virtual space can reference the physical space of the real world, which should provide seamless AR and VR environments with effective visual cues for interaction and collaboration. The proposed approach presents an XR remote collaboration system where VR users can comprehensively understand and explore the local working environment and interact with AR local workers effectively. This study reconstructed the spatially synchronized AR and VR environments. Thus, VR experts can provide visual guidance to AR users more effectively through hand gestures, 3D virtual replicas, and deep learning-based 2D virtual replicas, while observing the local environment through the XR view. AR users can perform tasks based on VR users' instructions, deep learning-based location information and annotations. A user study was conducted to investigate the effectiveness of the proposed deep learning-based visual cues and interaction on XR remote collaboration. Experimental results showed that the utilization of deep learning-based task assistance led to shorter task execution time. Additionally, it was found that the proposed approach caused lower cognitive load and provided more effective task guidance. Furthermore, when gaze cues were provided, there was a higher sense of social presence compared to when they were not provided. The research findings can be beneficial in designing XR interfaces and interactions in various remote collaboration applications.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.