$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

RGB-D 카메라 기반 실시간 3차원 복원기술 동향
Recent Trends of Real-time 3D Reconstruction Technology using RGB-D Cameras 원문보기

전자통신동향분석 = Electronics and telecommunications trends, v.31 no.4, 2016년, pp.36 - 43  

김영희 (실감인터랙션연구실) ,  박지영 (실감인터랙션연구실) ,  이준석 (실감인터랙션연구실)

초록
AI-Helper 아이콘AI-Helper

실 환경에 존재하는 모든 것을 3차원 모델로 쉽게 복원할 수 있을 것이라는 생각과 원격지에 있는 환경과 사람을 같은 공간에 있는 듯 상호작용할 수 있게 된 것은 그리 오래되지 않았다. 이는 일정 해상도를 보장해주는 RGB-D 센서의 개발과 이러한 센서들을 사용한 3차원 복원 관련 연구들이 활발히 수행되면서 가능하게 되었다. 본고에서는 널리 쓰이고 있는 RGB-D 카메라를 사용하여 실시간으로 때로는 온라인상에서 3차원으로 복원하고 가시화하는 기술에 대하여 살펴보고자 한다. 하나 또는 여러 개의 RGB_D 카메라를 사용하거나 모바일 장치에 장착된 RGB-D 센서를 사용하여 넓은 공간, 움직이는 사람, 온라인 상태의 환경 등을 실시간으로 복원하기 위한 기술들을 세부적으로 설명한다. 또한, 최근에 발표된 기술들이 다루고 있는 이슈들을 설명하고 향후 3차원 복원기술의 연구개발 방향에 대해서 논의한다.

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • Google의 Project Tango 팀은 인간이 공간을 돌아다니는 것과 동일하게 실공간을 네비게이션할 수 있는 모바일 장치를 만들고자 하였다. Tango 디바이스를 스캐너처럼 움직여서 실 환경을 복원하고 텍스쳐가 있는 3 차원 폴리곤을 실시간으로 만들어 파일로 출력하는 SHISEL 방법을 발표하였다[18][(그림 7) 참조].
  • 본고에서는 최근 활발히 연구되고 있는 RGB-D 카메라 기반의 3차원 복원기술 연구 동향을 살펴본다. H 장에서는 하나의 카메라를 움직이면서 연속적으로 입력되는 데이터들을 결합하여 넓은 공간과 정적인 물체, 동적인 사람을 복원하는 기술 동향을, 皿장에서는 다수의 카메라를 사용하여 동시에 입력되는 데이터들을 결합하여 실시간 또는 온라인으로 3차원 공간 및 사람을 복원하는 기술동향을 기술한다.
  • 본고에서는 최근에 다양한 분야에서 널리 사용되고 있는 RGB-D 센서를 이용한 실시간 3차원 복원기술의 동향에 대해서 살펴보았다.
본문요약 정보가 도움이 되었나요?

참고문헌 (24)

  1. S. Izadi et al., "KinectFusion: Real-Time Dynamic 3D Surface Reconstruction and Interaction," Procceding ACM SIGGRAPH Talks, Article no. 23, 2011. 

  2. F. Endres et al., "An Evaluation of the RGB-D SLAM System," Proc. IEEE Int. Conf. Robotics and Automation (ICRA), St. Paul, MA, USA, May 2012, pp. 1691-1696. 

  3. T. Whelan et al., "Robust Real-Time Visual Odometry for Dense RGB-D Mapping," IEEE Inter. Conf. Robotics and Automation (ICRA), May 2013, pp. 5724-5731. 

  4. An open source implementation of KinectFusion, http://pointclouds.org/news/2011/12/08/kinectfusion-opensource/ 

  5. T. Whelan et al., "Kintinuous: Spatially Extended Kinect-Fusion," In Workshop on RGB-D: Advanced Reasoning with Depth Cameras, in conjunction with Robotics: Science and Systems, 2012. 

  6. P. Henry et al., "Patch Volumes: Segmentation-based Consistent Mapping with RGBD Cameras," International Conference on 3D Vision (3DV), June 2013, pp. 1550-6185. 

  7. R. Newcomne, D. Fox, and S.M. Seitz, "DynamicFusion: Reconstruction and Tracking of Non-rigid Scenes in Real-Time," CVPR, 2015. 

  8. M. Zollhofer et al., "Real-time Non-rigid Reconstruction Using an RGB-D Camera," ACM Transactions on Graphics(TOG), vol. 33, no. 4, July 2014. 

  9. G. Ye et al., "Performance Capture of Interacting Characters with Handheld Kinects," Computer Vision-ECCV, LNCS, vol. 7573, 2012, pp. 828-841. 

  10. P. Henry et al., "RGB-D Mapping: Using Kinect-style Depth Cameras for Dense 3D Modeling of Indoor Environments," International Journal of Robotics Research, vol. 31, 2012, pp. 647-663. 

  11. D. Gallup et al., "3D Reconstruction Using an n-Layer Heightmap," DAGM, LNCS, vol. 6376, 2010, pp. 1-10. 

  12. M. Zeng et al., "Octree-based Fusion for Realtime 3D Reconstruction," Journal Graphical Models, vol. 75, no. 3, May 2012, pp. 126-136. 

  13. M. NieBner et al., "Real-time 3D Reconstruction at Scale Using Voxel Hashing," ACM Transactions on Graphics (TOG), 2013. 

  14. T.K. Lee at al., "Indoor Mapping Using Planes Extracted from Noisy RGB-D Sensors," Proc. IEEE Inter. Conf. Intelligent Robots and Systems, 2012, pp. 1727-1733. 

  15. N. Silberman et al., "A Contour Completion Model for Augmenting Surface Reconstructions," Computer Vision-ECCV, LNCS, vol. 8691, 2014, pp. 488-503. 

  16. Y. Zhang et al., "Online Structure Analysis for Real-time Indoor Scene Reconstruction," ACM Transactions on Graphics, vol. 34, no. 159, Oct. 2015. 

  17. O. Kahler et al., "Very High Frame Rate Volumetric Integration of Depth Images on Mobile Devices," Proceedings International Symposium on Mixed and Augmented Reality, vol. 22, no. 11, 2015. 

  18. M. Klingensmith et al., "CHISEL: Real Time Large Scale 3D Reconstruction Onboard a Mobile Device using Spatially-Hashed Signed Distance Fields," Proceedings of Robotics: Science and Systems, July, 2015. 

  19. P. Ondruska et al., "MobileFusion: Real-time Volumetric Surface Reconstruction and Dense Tracking on Mobile Phones," IEEE Transactions on Visualization and Computer Graphics, vol. 21, 2015, pp. 1251-1258. 

  20. A. Maimone and H. Fuchs, "Encumbrance-Free Telepresence System with Real-Time 3D Capture and Display Using Commodity Depth Cameras," In Mixed and Augmented Reality (ISMAR), 2011. 

  21. A. Maimone and H. Fuchs, "A First Look at a Telepresence System with Room-Sized Real-Time 3D Capture and Large Tracked Display Wall," 21st International Conference on Artificial Reality and Telexistence (ICAT), 2011. 

  22. A. Maimone and H. Fuchs, "Real-Time Volumetric 3D Capture of Room-Sized Scenes for Telepresence," 3DTV-Conference: The True Vision-Capture, Transmission and Display of 3D Video, Oct. 2012, pp. 1-4. 

  23. D.S. Alexiadis et al., "Real-Time, Realistic Full-body 3D Reconstruction and Texture Mapping from Multiple Kinects," IVMSP Workshop, June 2013, pp. 1-4. 

  24. M. Kowalski et al., "LiveScan3D: A Fast and Inexpensive 3D Data Acquisition System for Multiple Kinect v2 Sensors," International Conference on 3D Vision, Oct. 2015, pp. 318-325. 

LOADING...
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로