$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 무인 자동차를 위한 기하학적 특징 복셀을 이용하는 도시 환경의 구조물 인식 및 3차원 맵 생성 방법
Geometrical Featured Voxel Based Urban Structure Recognition and 3-D Mapping for Unmanned Ground Vehicle 원문보기

제어·로봇·시스템학회 논문지 = Journal of institute of control, robotics and systems, v.17 no.5, 2011년, pp.436 - 443  

최윤근 (한국과학기술원 로봇공학학제) ,  심인욱 (한국과학기술원 로봇공학학제) ,  안승욱 (한국과학기술원 로봇공학학제) ,  정명진 (한국과학기술원 로봇공학학제)

Abstract AI-Helper 아이콘AI-Helper

Recognition of structures in urban environments is a fundamental ability for unmanned ground vehicles. In this paper we propose the geometrical featured voxel which has not only 3-D coordinates but also the type of geometrical properties of point cloud. Instead of dealing with a huge amount of point...

Keyword

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • fVoxel은 복셀 내부에 포함하고 있었던 점군의 분포 정보만 가지고 있으므로 많은 수의 fVoxel로 조합된 3차원 도시 환경 데이터에서는 구조물의 종류와 위치에 따라 fVoxel을 군집화(clustering)할 필요가 있다. 예를 들자면 건물, 도로, 나무의 경우 여러 가지 종류의 fVoxel로 구성되어 있는데, 본 과정의 목적은 이러한 구조물을 종류와 위치에 맞게 fVoxel을 군집화하고 구조물의 종류를 구분하는 것이다.
  • 본 논문에는 기하학적 특징을 가진 복셀을 제안하여 실외 환경에서 획득한 점군 데이터의 기하학적 분포 특성을 보존하고 효율적으로 저장하였다. 점군 데이터의 분포 특성을 분류하기 위해 SVM을 이용하여 복셀에 점군 분포 특성을 저장하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
무인 자동차, 항공기와 같은 시스템을 무인으로 운용하기 위해서 필수적인 능력은? 최근에는 무인 자동차[1,2], 무인 항공기[3] 등과 같이 실외 환경에서 운용하는 시스템을 무인화 하는 것이 추세이다. 이러한 시스템을 무인으로 운용하기 위해선 주변환경으로부터 받아들이는 센서 데이터를 지형(地形), 지물(地物)에 따라 분류하고 처리하여 인식하는 능력이 반드시 필요하다. 주변 환경을 인식하는 기술은 기본적으로 지형의 주행 가능성 여부를 판별하는 것과 더 나아가 실외 환경의 구조물의 종류를 구분하여 그것들의 위치를 맵으로 생성하는 것이다.
실외 환경의 거리 정보를 얻을 때 사용하는 센서에는 무엇이 있는가? 위와 같은 중요성 때문에 실외 환경의 구조물을 인식하여 3차원 맵을 생성하는 기술은 로보틱스 분야와 컴퓨터 비전 분야에서 최근 수년 간 지속적으로 다루어졌다[4-7]. 실외 환경의 거리 정보를 얻을 때 사용하는 센서는 크게 레이저 거리센서와 카메라가 있는데, 이 두 가지 센서는 주변 환경의 거리 데이터를 점군(point cloud) 형태로 제공한다. 대부분의 실외 환경 인식 알고리즘은 위 센서에서 제공하는 점군 데이터를 구조물에 따라 분류하고 3차원 맵을 생성한다.
MRF 계열의 통계적 추론 방법의 한계는? 현재까지 인식률에서 최고 성능을 보이는 알고리즘은 MRF (Markov Random Field)의 일종인 AMN (Associative Markov Networks,[8])과 같은 통계적 추론 방법(statistical inference techniques)을 사용하여 점군을 지형에 따라 3~4가지로 분류했다[9,10]. 그러나 이런 MRF 계열의 추론방법은 각각 학습 과정(learning)에서 Quadratic Programming, 추론 과정(inferring)에서 Linear Programming 과정이 필요하기 때문에, 실외 환경에서 획득한 많은 양의 점군 데이터를 온라인으로 연산하여 구조물에 따라 분류하는 것이 불가능하다[11]. 따라서 좋은 인식률에도 불구하고 실시간으로 실외 환경을 인식하고 명령을 수행해야 하는 무인 자동차나 로봇에는 적합하지 못하다. 또한 최근 레이저 센서의 비약적인 발전으로 인하여 360도 전방위 거리데이터를 초당 130만개의 점군 데이터로 획득 할 수 있는데, 기존의 알고리즘들은 이렇게 많은 양의 데이터를 처리하기에도 부적합하다.
질의응답 정보가 도움이 되었나요?

참고문헌 (22)

  1. B. J. Patz, Y. Papelis, R. Pillat, G. Stein, and D. Harper, "A practical approach to robotic design for the DARPA urban challenge," Journal of Field Robotics, vol. 25, no. 8, pp. 528-566, 2008. 

  2. C. M. Chun, S. B. Suh, S. H. Lee, C.-W. Roh, S. C. Kang, and Y. S. Kang, "Autonomous navigation of KUVE (KIST Unmanned Vehicle Electric)," Journal of Institute of Control, Robotics and Systems(in Korean), vol. 16, no. 7, pp. 617-624, 2010. 

  3. K. M. Jung, J. M. Sung, B. S. Kim, J.-H. Je, and S.-G. Lee, "Design and flight test of path following system for an unmanned airship," Journal of Institute of Control, Robotics and Systems(in Korean), vol. 16, no. 5, pp. 498-509, 2010. 

  4. N. Vandapel, D. F. Huber, A. Kapuria, and M. Hebert, "Natural terrain classification using 3-D ladar data," Proc. of the 2004 IEEE International Conference on Robotics and Automation (ICRA 2004), pp. 5117-5122, 2004. 

  5. J. Lalonde, N. Vandapel, D. F. Huber, and M. Hebert, "Natural terrain classification using three-dimensional ladar data for ground robot mobility," Journal of Field Robotics, vol. 23, no. 10, pp. 839-861, Oct. 2006. 

  6. R. Triebel, K. Kersting, and W. Burgard, "Robust 3D scan point classification using associative Markov networks," Proc. of the 2006 IEEE International Conference on Robotics and Automation(ICRA 2006), pp. 2603-2608, 2006. 

  7. D. Munoz, N. Vandapel, and M. Hebert, "Onboard contextual classification of 3-D point clouds with learned high-order Markov random fields," Proc. of the 2009 IEEE International Conference on Robotics and Automation(ICRA 2009), pp. 2009-2016, 2009. 

  8. B. Taskar, V. Chatalbashev, and D. Koller, "Learning associative Markov networks," Proc. of the twenty-first International Conference on Machine Learning(ICML 2004), 2004. 

  9. D. Anguelov, B. Taskar, V. Chatalbashev, D. Koller, D. Gupta, G. Heitz, and A. Ng, "Discriminative learning of Markov random fields for segmentation of 3D scan data," Proc. of the 2005 IEEE computer Society Conference on Computer Vision and Pattern Recognition(CVPR 2005), pp. 169-176, 2005. 

  10. D. Munoz, J. A. Bagnell, N. Vandapel, and M. Hebert, "Contextual classification with functional max-margin Markov networks," Proc. of the 2009 IEEE computer Society Conference on Computer Vision and Pattern Recognition(CVPR 2009), pp. 975-982, 2009. 

  11. J. Behley, K. Kersting, D. Schulz, V. Steinhage, and A. B. Cremers, "Learning to hash logistic regression for fast 3D scan point classification," Proc. of the 2010 IEEE International Conference on Intelligent Robots and Systems(IROS 2010), pp. 5960-5965, 2010. 

  12. R. Rocha, J. Dias, and A. Carvalho, "Cooperative multi-robot systems: a study of vision-based 3-D mapping using information theory," Robotics and Autonomous Systems, vol. 53, no. 3-4, pp. 282-311, Dec. 2005. 

  13. J. Ryde and M. Brunig, "Non-cubic occupied voxel lists for robot maps," Proc. of the 2009 IEEE International Conference on Intelligent Robots and Systems(IROS 2009), pp. 4771-4776, 2009. 

  14. Y. G. Choe, S. U. Park, I. W. Shim, and M. J. Chung, "Laser and GPS/IMU based 3-D world modeling system for robot navigation," 2010 IEEK Conference, Seoul, Korea, pp. 617-618, Nov. 2010. 

  15. I. W. Shim, Y. G. Choe, S. U. Park, J. W. Kang, and M. J. Chung, "Enhanced sensor architecture with fusion of LIDAR and camera for a robotic vehicle in urban environments," 2010 IEEK Conference, Seoul, Korea, pp. 623-624, Nov. 2010. 

  16. B. Douillard, J. Underwood, N. Melkumyan, S. Singh, S. Vasudevan, C. Brunner, and A. Quadros, "Hybrid elevation maps: 3D surface models for segmentation," Proc. of the 2010 IEEE International Conference on Intelligent Robots and Systems(IROS 2010), pp. 1532-1538, 2010. 

  17. B. Siciliano, O. Khatib, Eds, Handbook of Robotics: Chap. 36. World Modeling(W. Burgard, M. Hebert, pp. 853-869), Springer, Berlin, Heidelberg, 2008. 

  18. C. M. Bishop, Pattern Recognition and Machine Learning, Springer, New York, 2006. 

  19. T. Hastie, R. Tibshirani, and J. Friedman, The Elements of Statistical Learning: Data Mining, Inference and Prediction, 2nd Ed., Springer, New York, 2009. 

  20. C. Chang and C. Lin, LIBSVM: a library for support vector machines, 2001. Software available at http://www.csie.ntu.edu.tw/cjlin/libsvm 

  21. C.-W. Hsu, C.-C. Chang, and C.-J. Lin, "A practical guide to support vector classification," 2003. Manual available at http://www.csie.ntu.edu.tw/-cjlin/papers.html. 

  22. Velodyne Lidar Inc, 3D Laser Scanner: HDL 64E-S2, 2008. User's manual at www.velodyne. com/lidar/. 

저자의 다른 논문 :

활용도 분석정보

상세보기
다운로드
내보내기

활용도 Top5 논문

해당 논문의 주제분야에서 활용도가 높은 상위 5개 콘텐츠를 보여줍니다.
더보기 버튼을 클릭하시면 더 많은 관련자료를 살펴볼 수 있습니다.

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로