최근 센서와 가상공간의 융합 어플리케이션 개발이 증가함에 따라 실제 공간에서의 물리적 센서를 3 차원 가상공간에서 표현하고 직접 제어, 관리할 수 있는 방법에 대한 요구도 증가하고 있다. 본 연구에서는 물리적 센서와 가상공간의 디지털 객체가 공존하며 시각화를 생성하는 가상세계와 현실세계를 혼합한 증강 현실을 이용하여, 3D 가상공간에서의 물리적 센서 장치를 표현하는 기법을 정의한다. 이것은 이기종 컴퓨팅 환경에서 증강 혼합현실 응용프로그램에서의 데이터 공유와 상호 교환을 통하여 네트워크상의 다양한 물리 센서들을 관리 제어하는 것을 목적으로 한다. 현실 세계에 존재하는 수많은 센서들을 구분하기 위하여 대표적인 센서 타입을 분류하고 센서별 기능을 3D 가상공간에 표현하기 위한 센서 장면 그래프를 정의하고 데이터 모델을 정의하였다. 이를 기반으로 3D 가상공간에서 센서 장치들의 기능을 시뮬레이션 할 수 있는 물리적 센서 뷰어를 개발하였다.
최근 센서와 가상공간의 융합 어플리케이션 개발이 증가함에 따라 실제 공간에서의 물리적 센서를 3 차원 가상공간에서 표현하고 직접 제어, 관리할 수 있는 방법에 대한 요구도 증가하고 있다. 본 연구에서는 물리적 센서와 가상공간의 디지털 객체가 공존하며 시각화를 생성하는 가상세계와 현실세계를 혼합한 증강 현실을 이용하여, 3D 가상공간에서의 물리적 센서 장치를 표현하는 기법을 정의한다. 이것은 이기종 컴퓨팅 환경에서 증강 혼합현실 응용프로그램에서의 데이터 공유와 상호 교환을 통하여 네트워크상의 다양한 물리 센서들을 관리 제어하는 것을 목적으로 한다. 현실 세계에 존재하는 수많은 센서들을 구분하기 위하여 대표적인 센서 타입을 분류하고 센서별 기능을 3D 가상공간에 표현하기 위한 센서 장면 그래프를 정의하고 데이터 모델을 정의하였다. 이를 기반으로 3D 가상공간에서 센서 장치들의 기능을 시뮬레이션 할 수 있는 물리적 센서 뷰어를 개발하였다.
Applications about systems integration of sensors and virtual environments have been developed increasingly. Accordingly, there is a need for the ability to represent, control, and manage physical sensors directly in a 3D virtual environment. In this research, a method of representing physical senso...
Applications about systems integration of sensors and virtual environments have been developed increasingly. Accordingly, there is a need for the ability to represent, control, and manage physical sensors directly in a 3D virtual environment. In this research, a method of representing physical sensor devices in a 3D virtual environment has been defined using mixed and augmented reality, including virtual and real worlds, where sensors and virtual objects co-exist. The research is intended to control and manage various physical sensors through data sharing and interchange between heterogeneous computing environments. In order to achieve this, general sensor types have been classified, and a sensor based 3D scene graph for representing the functions of sensors has been defined. In addition, a sensor data model has been defined using the scene graph. Finally, a sensor 3D viewer has been implemented based on the scene graph and the data model so as to simulate the functions of sensors in indoor and outdoor 3D environments.
Applications about systems integration of sensors and virtual environments have been developed increasingly. Accordingly, there is a need for the ability to represent, control, and manage physical sensors directly in a 3D virtual environment. In this research, a method of representing physical sensor devices in a 3D virtual environment has been defined using mixed and augmented reality, including virtual and real worlds, where sensors and virtual objects co-exist. The research is intended to control and manage various physical sensors through data sharing and interchange between heterogeneous computing environments. In order to achieve this, general sensor types have been classified, and a sensor based 3D scene graph for representing the functions of sensors has been defined. In addition, a sensor data model has been defined using the scene graph. Finally, a sensor 3D viewer has been implemented based on the scene graph and the data model so as to simulate the functions of sensors in indoor and outdoor 3D environments.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 논문에서는 3D 가상공간에 물리적 센서와 그 기능을 표현하고 시뮬레이션할 수 있도록 기존의 3차원 장면 그래프 에 센서를 포함시킬 수 있도록 새롭게 정의하고, 이를 구현하기 위해서 3D 데이터모델과 시스템 아키텍춰를 정의하고 시스템 구현에 대해 기술하였다.
본 연구에서는 센서 장면 그래프를 이용하여 센서 장면을 구성하고 센서로부터의 신호에 의해 3차원 가상공간 장면을 변화시키도록 하여 현실 공간에서의 설비나 장치에 의한 변화가 가상공간에서 표현되도록 하여 설비나 장치관리가 가상공간에서 가능하도록 한다.
본 연구의 목적은 3D 가상 세계에 여러 가지 센서 장치를 표현하는 방법을 정의하고, 센서 기능을 표현하고 시뮬레이션할 수 있도록 하여 센서의 데이터 교환과 센서 기능을 제어 관리할 수 있도록 하는 것이다.
Figure 1 은 현재 ISO/IEC SC24 WG9 에서 국제표준화를 추진하고 있는 AR 참조 모델을 기반으로 해서 센서 표현 모델을 정의한 것이다【11]. 이 센서 표현 모델을 기반으로 하는 GPS 혼합현실 (MR) 세계에서는 실제 센서의 스트림데이터를 가상 공간에 입출력하는 것을 이벤트로 표현함으로써 물리적 센서의 제어를 가능하게 하는 것을 목표로 한다. 물리적 센서의 트래킹 데이터와 이벤트 데이터가 MR 가상 공간에 표현되고 시뮬레이션 되 며 결과는 혼합 현실 콘텐츠로서 화면에 렌더링된匸+.
제안 방법
구성하였다.3D 센서 장면 그래프를 기반으로 한 물리적 센서 표현을 위한 가상공간 모델을 구현하였고 가상공간과 센서 표현은 X3D(Extensible 3D) 를사용하였다. 물리적 센서의 이벤트 정의를 위해서는 실제 센서 장치에서 발생할 수 있는 이벤트들에 대하여 X3D 문서에서 구현하기 위한 목록의 정리가 필요하다.
시스템 구현 수준은 현 단계에서는 실제 장비와의 통신 및 통합 이벤트 서버가 없어서 해당 내용에 대해서는 임의의 무작위 샘플 데이터 생성프로그램으로 대제했다. 극, 샘플 이벤트 정보를 수신받은 상태에 장비의 상태값 변경을 뷰어에서 표현하도록 구성하였다.
표현시스템 구성에 대해 기술한다. 또한, 이를 이용하여 GPS, 카메라, 조명, 사운드, RFID, CCTV, 보안온도, 습도 센서 등을 구현한 시뮬레이션 사례를 소개한다. 본 연구와 가장 관련 있는 연구로 센서 장치의 데이터 모델에 관한 표준화 연구로는 국제 민간표준화 단체인 OGC (Open Geospatial Consortium) 에 서 많이 진행되고 있다.
본 연구의 실험 모델로서 3차원 공간에 일부 센서들을 표현하고 센서들의 기능을 화면에 표현하는 시뮬레이션 모델을 구성하였다.3D 센서 장면 그래프를 기반으로 한 물리적 센서 표현을 위한 가상공간 모델을 구현하였고 가상공간과 센서 표현은 X3D(Extensible 3D) 를사용하였다.
이러한 혼합헌실구헌을 위한 3D 데이터 모델은 3차원 가상환경에 물리적 센서 모델을 추가하여 정의 할 수 있도록, 기존의 모양과 속성 기반의 3D 가상공간 장면 二L래프름 확장하여 실세계 센서의 정확한 위치와 방향을 포함하여 실세계 센서의 정보를 실측 기반으로 정확하게 표현할 수 있는 3차 원 장면 그래프를 구성하였다.
개별적 인 센서 속성구현이 아니라 대표적인 센서 타입을 정의하는 것이 필요하다. 이를 위해 본 연구에서는 대표적인 센서 타입을 분류하고 속성들을 정의하였다.
후속연구
추상화시키는 일이 포함된다. 본 시스템은 향후 다양한 이기종 컴퓨팅 환경에서 혼합 증강현실응용 프로그램 간 상호 연동할 수 있도록 호환성 있는 센서 데이터 형식을 제공하여 3D 가 상 환경에서 물리적 센서를 관리하고 및 제어할 수 있도록 할 것이다.
향후 연구로는 각 센서 타입의 응용개발을 지원할 수 있도록 각 타입별 센서의 대표적인 속성을 정확하게 정의하여 추상화시키는 일이 포함된다. 본 시스템은 향후 다양한 이기종 컴퓨팅 환경에서 혼합 증강현실응용 프로그램 간 상호 연동할 수 있도록 호환성 있는 센서 데이터 형식을 제공하여 3D 가 상 환경에서 물리적 센서를 관리하고 및 제어할 수 있도록 할 것이다.
참고문헌 (11)
F. Zhou, H. Duh, M. Billinghurst, "Trends in augmented reality tracking, interaction and display: A review of ten years of ISMAR", 2008 7th IEEE/ACM International Symposium on Mixed and Augmented Reality, pp. 193-202, 2008
D. Hong, J. Looser, H. Seichter, M. Billinghurst, W. Woo, "A Sensor-Based Interaction for Ubiquitous Virtual Reality Systems," isuvr, 2008 International Symposium on Ubiquitous Virtual Reality, pp. 75-78, 2008.
C. Richter, "Visualizing Sensor Data", Media Informatics Advanced Seminar on Information Visualization, 2008/2009.
D. Cook. Making Sense of Sensor Data. IEEE PERVASIVE COMPUTING, pp. 105-108, 2007.
Sunnyvale, "Modeling and Simulation of Dynamical Systems", IEEE Control Systems Society Santa Clara Valley, 2011.
Bashima Islam, Md Tamzeed Islam, Shahriar Nirjon, "Glimpse. 3D: a motion-generated stereo body camera for 3D experience capture and peview", IPSN'18: Proceedings of the 17th ACM/IEEE International Conference on Information Processing in Sensor Networks, IEEE Press, April 2018.
Arne Broring, David Vial, Thorsten Reitz, "Processing Real-Time Sensor Data Streams for 3D Web Visualization", IWGS'14 Proceedings of the 5th ACM SIGSPATIAL International Workshop on GeoStreaming, pp. 72-80, November 2014.
Mike Botts, Alexandre Robin, "OpenGIS Sensor Model Language Implementation Specification", Open Geospatial Consortium, OGC 07-000, 2007. 07. 17.
Arne Broring, Johannes Echterhoff, Simon Jirka, Ingo Simonis, Thomas Everding, Christoph Stasch, Steve Liang and Rob Lemmens, "New Generation Sensor Web Enablement", Sensors, ISSN 1424-8220, 2652-2699, 2011.
HyungSeok Kim , Hanku Lee, Sung-Ryul Kim, "VRBased Sensor Management System for USN-Based Air Quality Monitoring", Computer Sciences and Convergence Information Technology. pp. 330-334, 2009.
Myeong Won Lee, Kwan-Hee Yoo, Gerard J. Kim, "A Standard Reference Model for Generic Sensors and Events in Mixed and Augmented Reality", The 6th Korea-Japan Workshop on Mixed Reality (KJMR 2013), 2013.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.