$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

Kinect(RGB-Depth Camera)를 활용한 실내 공간 정보 모델(BIM) 획득
Microsoft Kinect-based Indoor Building Information Model Acquisition 원문보기

한국전산구조공학회논문집 = Journal of the computational structural engineering institute of Korea, v.31 no.4, 2018년, pp.207 - 213  

김준희 (단국대학교 건축공학과) ,  유세웅 (단국대학교 건축공학과) ,  민경원 (단국대학교 건축공학과)

초록
AI-Helper 아이콘AI-Helper

본 연구에서는 건물 실내 공간 정보 획득을 위해 Microsoft사의 $Kinect^{(R)}$ v2를 활용한 point cloud 기법을 도입하였다. 카메라로 취득한 2차원의 투영 공간 이미지 픽셀 좌표를 각 카메라의 보정을 거쳐 3차원 이미지 변환하며 이를 토대로 공간 정보를 구현하였다. 기준점을 중심으로 $360^{\circ}$ 회전하여 취득한 3차원 이미지를 통해 거리 측정이 불가한 기존의 2차원 이미지의 한계를 개선하였으며, 이 과정을 통해 얻은 point cloud를 통해 3차원 map을 형성하였다. 형성된 3차원 map은 기존의 공간정보 융 복합을 위한 센서와 비슷한 수준의 측정 효율을 가지면서 동시에 렌즈 왜곡 현상에 대한 후처리 과정을 통해 공간 정보를 정확하게 측정할 수 있도록 하였다. 측정한 결과를 2D 도면과 실제 공간 및 구조부재의 길이 및 위치 등과 비교하여 검증하였다.

Abstract AI-Helper 아이콘AI-Helper

This paper investigates applicability of Microsoft $Kinect^{(R)}$, RGB-depth camera, to implement a 3D image and spatial information for sensing a target. The relationship between the image of the Kinect camera and the pixel coordinate system is formulated. The calibration of the camera p...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 Kinect v2를 이용하여 3차원 이미지를 구현하고 이를 활용해 공간 정보를 획득하는 방법을 파악하였다. 세부적으로, 카메라의 이미지, 픽셀 좌표계 간의 관계를 파악하였으며 각 카메라의 보정을 거쳐 깊이 정보와 RGB 정보를 취득하고 실험을 통해 실내 공간을 구현하였다.
  • 본 논문에서는 카메라로 취득한 3차원 좌표를 2차원의 투영 공간 이미지 픽셀 좌표로 변환하고 IR 공간 좌표를 RGB 공간 좌표 및 이미지로 투영하는 방법에 대해 논한다(Branko, 2015). Matlab의 pcfromKinect 함수를 사용하여 얻은 IR 이미지와 RGB 이미지를 토대로 식 (5)로부터 얻은 IR 카메라의 공간상의 좌표를 RGB 카메라의 공간상의 좌표로 변환한다.
  • 본 논문의 목적은 RGB, Depth 좌표(6개의 공간 좌표)를 획득하고 이를 통해 실내 공간 정보를 구현하는 것으로 단국대학교 제1공학관 건축동역학 실험실(Fig. 6)의 가로 7m, 세로 7.2m 공간에서 실험을 진행하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
Kinect v2란 무엇인가? Kinect v2는 RGB 카메라, IR(infrared) Emitter와 IR 카메라로 구성된 복합 장치로서 깊이 정보와 이미지 및 3차원 좌표를 인식할 수 있는 카메라이다. Fig.
Kinect v2의 장점은? Microsoft사의 Kinect v2는 v1의 후속 모델로 센서의 정확성 및 측정 가능 범위를 향상시킨 모델이다. 22만 개의 복수 포인트 센서를 사용하는 Kinect v2는 한 번에 많은 양의 데이터를 얻을 수 있으며 경제성이 우수하고 조작이 간단하다. 또한 4.
3차원 이미지의 취득 후 활용은? 3차원 이미지는 기존의 2차원 이미지에 깊이 정보가 추가된 형태이며 이러한 이미지 정보는 카메라와 레이저 센서를 이용해 취득한다. 또한 취득한 정보를 바탕으로 3D map을 형성하여 건물 실내·외 공간 정보 획득에 활용하고 이를 통해 다방면의 미래 산업의 부가가치를 창출한다. 이러한 행보에 발맞추어 구글은 2014년, Tango Project[1]를 발표하였다.
질의응답 정보가 도움이 되었나요?

참고문헌 (18)

  1. Bc, J.S. (2011) 3D Camera Calibration, Center For Machine Perception, pp.4-34. 

  2. Branko, K. (2015) Calibration of Kinect type RGB-D Sensors for Robotic Applications, FME Trans., 47, pp.47-54. 

  3. Dal Mutto, C., Zanuttigh, P., Cortelazzo, G.M. (2013) Time of Flight Cameras and Microsoft Kinect, pp.3-68. 

  4. Lembit, V. (2016) 3D Reconstruction using Kinect v2 Camera, Bachelor's thesis (12 ECTP). 

  5. Michae, J.L., Benjamin, Y.C., Peter, A.B. (2016) Simulating Kinect Infrared and Depth Images, IEEE Trans. Cybern., 6(12), pp.3018-3031. 

  6. Nima, R., Jie, G., Mohsin, K.S., Chris, G., H. Elix, L. (2012) Analysis of XBOX Kinect Sensor Data for use on Construction Sites: Depth Accuracy and Sensor Interference Assessment, Construction Research Congress, pp.848-857. 

  7. Smisek, J., Jancosek, M., Paidla, T. (2011) 3D with Kinect, 2011 IEEE Int. Conf. Computer Vision Workshops, Barcelona, Spain, pp.1154-1160. 

  8. Walid, D., Shenjum, T., Wenbin, L., Wu, C. (2017) A New Calibration Method for Commercial RGB-D Sensors, Sensor, 17. 

  9. Yulu, L.C., Mohamed, A., Mohammad, R.J., Sami, F.M. (2017) Color and Depth Data Fusion using and RGB-D Sensor for Inexpensive and Contactless Dynamic Displacement Field Measurement, Wiley, pp.1-14. 

  10. https://en.wikipedia.org/wiki/Tango_(platform) 

  11. https://en.wikipedia.org/wiki/Velodyne_LiDAR 

  12. https://en.wikipedia.org/wiki/Quanergy 

  13. https://en.wikipedia.org/wiki/Faro 

  14. https://en.wikipedia.org/wiki/Sick_AG 

  15. http://www.zf-laser.com/Z-F-PROFILER-R-9012.2d_laserscanner.0.html?&L1 

  16. http://www.riegl.com/company/about-riegl/ 

  17. https://www.ibeo-as.com/projects/ 

  18. https://autonomoustuff.com/product-category/lidar/hokuyo-laser-scanners/ 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로