$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

Multi-view Stereo에서 Dense Point Cloud를 위한 Fusing 알고리즘
Fusing Algorithm for Dense Point Cloud in Multi-view Stereo 원문보기

방송공학회논문지 = Journal of broadcast engineering, v.25 no.5, 2020년, pp.798 - 807  

한현덕 (세종대학교 전자정보통신공학과) ,  한종기 (세종대학교 전자정보통신공학과)

초록
AI-Helper 아이콘AI-Helper

디지털 카메라와 휴대폰 카메라의 발달로 인해 이미지를 기반으로 3차원 물체를 복원하는 기술이 크게 발전했다. 하지만 Structure-from-Motion(SfM)과 Multi-view Stereo(MVS)를 이용한 결과인 dense point cloud에는 여전히 듬성한 영역이 존재한다. 이는 깊이 정보를 추정하는데 있는 어려움과, 깊이 지도를 point cloud로 fusing할 때 이웃 영상과의 깊이 정보가 불일치할 경우 깊이 정보를 삭제하고 point를 생성하지 않았기 때문이다. 본 논문에선 평면을 모델링하여 삭제된 깊이 정보에 새로운 깊이 정보를 부여하고 point를 생성하여 기존 결과보다 dense한 point cloud를 생성하는 알고리즘을 제안한다. 실험 결과를 통해 제안하는 알고리즘이 효과적으로 기존의 방법보다 dense한 point cloud를 생성함을 확인할 수 있다.

Abstract AI-Helper 아이콘AI-Helper

As technologies using digital camera have been developed, 3D images can be constructed from the pictures captured by using multiple cameras. The 3D image data is represented in a form of point cloud which consists of 3D coordinate of the data and the related attributes. Various techniques have been ...

주제어

표/그림 (11)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에선 [6][7]과 같은 기존의 방법들이 깊이 지도를 fusing하여 point cloud를 만드는 단계에서 각각의 조건에 따라 point를 만드는 것을 포기하고 깊이 정보를 삭제한 픽셀들에게 올바른 깊이 정보를 부여하여 point로 생성될 수 있도록 하는 알고리즘을 제안한다.
  • 본 논문에선 생성된 point cloud를 이용하여 평면을 모델링하여 깊이 지도를 fusing하는 단계에서 현재 영상의 깊이 정보와 이웃 영상의 깊이 정보가 불일치하여 깊이 정보가 제거된 픽셀에 새로 올바른 깊이 정보를 구해 point를 생성하도록 하는 알고리즘을 제안한다. 본 논문의 구성은 다음과 같다.
  • 평면의 경우 edge 부근의 point만을 이용하더라도 유효한 평면을 모델링할 수 있지만 곡면의 경우 올바른 모델링을 하기 위해선 가운데 영역의 point의 기하 정보가 꼭 필요하다. 본 논문에선 정확한 point만을 추가하기 위해 기하 정보가 부족하여 정확한 모델링이 불가능한 곡면에 대해선 point를 추가하지 않고 edge 부근의 point만으로도 정확한 모델링이 가능한 평면에 대해서만 point를 추가하는 방법을 선택했다.
  • 본 논문은 생성된 point cloud를 이용해 평면을 모델링하고 이를 기반으로 point를 생성하지 못하고 깊이 정보가 제거된 픽셀에 깊이 정보를 부여하여 point를 생성하도록 하는 알고리즘을 제안한다. 제안하는 알고리즘은 크게 두 단계로 구성된다.
  • 본 논문은 영상들로부터 point cloud를 생성하는 기존의 MVS 방법들에 존재하는 sparse한 영역에 point를 추가하여 dense하게 만드는 알고리즘을 제안한다. 제안하는 방법은 생성된 point cloud를 이용하여 평면을 모델링하여 point가 존재하지 않는 픽셀에 새로 깊이 정보를 부여해 point를 생성할 수 있도록 하는 알고리즘이다.
  • 앞서 그림 4의 (b), (c), (d)와 같이 영상의 edge로 둘러싸인 영역을 추출하고 나면 이 영역에 해당하는 픽셀들 중일부는 point cloud에 point가 존재하고 나머지는 point가존재하지 않는다. 우리의 목적은 이 point들을 이용해 평면을 모델링 한 후 point가 존재하지 않는 픽셀들에 올바른 깊이 정보를 부여하고 point로 생성되도록 하는 것이다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
Point cloud의 완성도와 quality를 높이기 위한 기존의 연구는 크게 두 분류로 나눌 수 있는데 이는 무엇인가? Point cloud의 완성도와 quality를 높이기 위한 기존의 연구는 크게 두 분류로 나눌 수 있다. 하나는 깊이 정보를 추정하는 방법[10][11]에 대한 연구이고 또 다른 하나는 깊이 지도를 fusing하는 방법[6][7]에 대한 연구다.
Dense point cloud에서 sparse한 부분이 존재하게 되는 이유는 무엇인가? MVS를 이용하면 dense point cloud를 얻을 수 있지만 여전히 sparse한 부분이 존재할 수 있다. Dense point cloud에서 sparse한 부분이 존재하게 되는 이유는 영상에 특징이 없을 경우 깊이 정보를 추정할 때 정확한 깊이 정보를 구하기 힘들기 때문이다. 깊이 정보를 추정하는 단계에서 영상에 특징이 없는 부분은 이웃 영상과의 시차를 정확히 구하기가 힘들어 부정확한 깊이 정보를 추정하게 된다.
MVS에서 sparse point cloud를 dense하게 만드는 두 개의 과정은 무엇인가? MVS에서 sparse point cloud를 dense하게 만드는 과정은 크게 두 개의 과정으로 볼 수 있다. 첫 번째 과정은 SfM에서 구한 카메라 내부 파라미터와 외부 파라미터를 이용해 각각의 영상마다 깊이 정보를 추정하여 깊이 지도를 생성한다. 두 번째 과정은 앞서 추정한 깊이 지도를 이용하여 각 영상의 픽셀마다 추정된 깊이 정보 값을 이웃 영상의 픽셀에서 추정된 깊이 정보 값과 비교한다. 이를 이용해 월드 좌표계에 알맞은 위치를 구하고 point를 생성하는 과정이 깊이 지도를 fusing하는 과정이다.
질의응답 정보가 도움이 되었나요?

참고문헌 (17)

  1. D. Lowe, "Distinctive image features from scale-invariant keypoints," IJCV, 2004 

  2. P. F. Alcantarilla, A. Bartoli, and A. J. Davison, "KAZE features," In Eur. Conf. on Computer Vision (ECCV), pages 214-227, 2012. 

  3. N. Snavely, S. M. Seitz, and R. Szeliski, "Modeling the world from internet photo collections," Int. J. Comput. Vis., vol. 80, no. 2, pp. 189-210, 2008. 

  4. Schonberger JL, and Frahm JM: Structure-from-motion revisited. In: Agapito L, Berg T, Kosecka J, et al. (eds) Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV, June, 2016 

  5. M. Goesele, B. Curless, and S. M. Seitz, "Multi-View Stereo Revisited," Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, IEEE Computer Society, Washington, DC, USA, pp. 2402-2409, 2006. 

  6. Shuhan Shen, "Accurate Multiple View 3D Reconstruction Using Patch-Based Stereo for Large-Scale Scenes," IEEE transactions on image processing, 22(5):1901-1914, 2013. 

  7. Johannes L. Schonberger, Enliang Zheng, Jan-Michael Frahm, and Marc Pollefeys, "Pixelwise View Selection for Unstructured Multi-View Stereo," In European Conference on Computer Vision, pages 501-518. Springer, 2016. 

  8. M. Jancosek and T. Pajdla. "Multi-view reconstruction preserving weakly-supported surfaces," In Proc. CVPR, 2011. 

  9. Zhou, Y.; Shen, S.; Hu, Z. "Detail Preserved Surface Reconstruction from Point Cloud," Sensors, 2019, 19(6): 1278, doi:10.3390/s19061278. 

  10. Michael Bleyer, Christoph Rhemann, and Carsten Rother, "Patchmatch Stereo-Stereo Matching with Slanted Support Windows," In BMVC, volume 11, pages 1-11, 2011. 

  11. A. Romanoni and M. Matteucci. "TAPA-MVS: Texturelessaware PatchMatch multi-view stereo," In IEEE International Conference on Computer Vision (ICCV), Seoul, Korea, 2019. 

  12. Michael Van den Bergh, Xavier Boix, Gemma Roig, and Luc Van Gool, "SEEDS: Superpixels Extracted via Energy-Driven Sampling," International Journal of Computer Vision, 111(3):298-314, 2015. 

  13. B. Green, "Canny Edge Detection Tutorial", http://www.pages.drexel.edu/-weg22/can_tut.html, 2002. 

  14. E. F. Moore, "The shortest path through a maze," In Int. Symp. on Th. of Switching, pp. 285-292, 1959. 

  15. Pierre Soille, Morphological image analysis: Principles and applications. 2nd edition. Berlin, Germany: Springer-Verlag, 2003. 

  16. M. A. Fischler and R. C. Bolles, "Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography", Communications of the ACM, vol. 24, no. 6, pp. 381-395, Jun. 1981. 

  17. T. Schops, J. L. Schonberger, S. Galliani, T. Sattler, K. Schindler, M. Pollefeys, A. Geiger, "A Multi-View Stereo Benchmark with High-Resolution Images and Multi-Camera Videos," Conference on Computer Vision and Pattern Recognition (CVPR), 2017. 

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로