$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

여러 개의 조명등을 이용한 이동 로봇의 위치 추정
Localization of a Mobile Robot Using Multiple Ceiling Lights 원문보기

제어·로봇·시스템학회 논문지 = Journal of institute of control, robotics and systems, v.19 no.4, 2013년, pp.379 - 384  

한연주 (충북대학교 제어로봇공학과) ,  박태형 (충북대학교 제어로봇공학과)

Abstract AI-Helper 아이콘AI-Helper

We propose a new global positioning method for the indoor mobile robots. The multiple indoor lights fixed in ceiling are used as the landmarks of positioning system. The ceiling images are acquired by the fisheye lens camera mounted on the moving robot. The position and orientation of the lights are...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문은 여러 개의 실내 조명등을 사용하여 이동로봇의 위치를 추정하는 방법을 새로이 제안한다. 먼저, 어안렌즈를 사용하여 천장 전체의 영상을 획득하고, 각 조명등의 위치를 추출한다.

가설 설정

  • 위 실험에서는 획득한 영상의 중심을 로봇의 위치라 가정한다. 로봇의 위치를 추정하는 과정은 다음과 같다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
인공표식 방법이란? 인공표식 방법의 경우, 천장, 벽 등의 미리 알려진 위치에 특정 표식을 부착하고, 이동 중인 로봇에 장착된 카메라가 마크의 영상을 획득하여, 영상좌표계에서의 마크의 위치로부터 로봇의 현재 위치를 인식하는 방법이다[4-7]. 여러 개의 표식이 부착되어야 하므로, 각 표식을 구분하기 위한 코드가 마크에 포함된다.
자연표식 방법의 단점은? 이들 표식물체들은 경계선이 뚜렷하여, 배경으로부터 분리시키는 것이 상대적으로 용이하다. 그러나 주변 환경이 복잡한 경우 표식물체의 영상분리가 어려워 신뢰성이 저하될 수 있으며, 장애물이 나타나는 경우 영상획득이 실패할 수 있다.
천장 영상으로부터 이동 로봇의 현재 위치를 추정하는 시스템은 어떤 단계로 구분되는가? 천장 영상으로부터 이동 로봇의 현재 위치를 추정하는 시스템은 획득된 영상으로부터 조명등 위치를 추출하는 단계, 천장과 벽 사이의 천장 경계선을 추출하는 단계, 조명등 중심 위치와 천장 경계선으로부터 각 조명등의 아이디 식별하는 단계, 로봇의 위치를 추출하는 단계로 구분된다.
질의응답 정보가 도움이 되었나요?

참고문헌 (18)

  1. L. Moreno, J. M. Armingol, S. Garrido, A. De La Escalera, and M. A. Salichs, "A genetic algorithm for mobile robot localization using ultrasonic sensors," Journal of Intelligent and Robotic Systems, vol. 34, no. 2 pp. 135-154, 2002. 

  2. S. Y. Kim and K. S. Yoon, "Improved ultrasonic satellite system for the localization of mobile robots" Journal of Institute of Control, Robotics and Systems (in Korean), vol. 17, no. 12 pp. 1240-1247, 2011. 

  3. Y. Zhou, W. Lu, and P. Huang, "Laser-activated RFID-based indoor localization system for mobile robots," Proc. IEEE International Conference on Robotics and Automation, pp. 4600-4605, 2007. 

  4. G. Jang, S. Kim, W. Lee, and I. Kweon, "Color landmark- based self localization for indoor mobile robots," Proc. IEEE International Conference on Robotics and Automation, pp. 1037-1042, 2002. 

  5. H. Chae, J. Lee, W. Yu, and N. L. Doh, "StarLITE: A new artificial landmark for the navigation of mobile robots," Proc. of the 1st Japan Korea Joint Symposium Network Robot System pp. 11-14, 2005. 

  6. D. H. Heo, A. R. Oh, and T. H. Park, "A localization system of mobile robots using artificial landmarks," Proc. IEEE International Conference on Automation Science and Engineering, pp. 139-144, 2011. 

  7. K. S. You and C. T, Choi, "Development of localization sensor system for intelligent robots," Journal of Institute of Control, Robotics and Systems (in Korean), vol. 17, no. 2 pp. 116-124, 2011. 

  8. X. Yang and Y. Tian, "Robust door detection in unfamiliar environments by combining edge and corner features," IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp. 57-64, 2010. 

  9. Z. Chen and S. T. Birchfield, "Visual detection of lintel- occluded doors from a single image," Workshop of International Conference on Computer Vision and Pattern Recognition, pp. 1-8, 2008. 

  10. Y. Li and S. T. Birchfield, "Image-based segmentation of indoor corridor, floors for a mobile robot," in IEEE/RSJ International Conference on Intelligent Robots and Systems, pp. 837-843, 2010. 

  11. L. M. Surhone, M. T. Tennoe, and S. F. Henssonow, "Scale-invariant feature transform," Betascript Publishing, 2010. 

  12. D. G. Lowe, "Object recognition from local scale invariant features," Proc. IEEE International Conference on Computer Vision, pp. 1150-1157, 1999. 

  13. S. Se, D. G. Lowe, and J. J. Little, "Mobile robot localization and mapping with uncertainty using scale-invariant visual landmarks," International J. of Robotic Research, vol. 21, no. 8, pp. 735-758, 2002. 

  14. C. H. Choi and B. J. Choi, "A study on fisheye lens based features on the ceiling for self-localization," Journal of Intelligence and Information Systems (in Korean), vol. 21, no. 4, pp. 442-448. 2011. 

  15. D. Xu, L. Han, M. Tan, and Y. F. Li, "Ceiling-based visual positioning for an indoor mobile robot with monocular vision," IEEE Trans. on Industrial Electronics, vol. 56, no. 5, pp. 1617-1628, 2009. 

  16. H. K. Park and M. J. Chung, "Localization for mobile robot using indoor lights," Proc. of the 1998 Annual Conf. of IEEK (in Korean), pp. 426-429, 1998. 

  17. J. Kannala and S. Brandt, "A genetic camera model and calibration method for conventional, wide-angle, and fish-eye lenses," IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 28, no. 8, pp. 1335-1340, 2006. 

  18. R. C. Gonzalez and R. E. Woods, Digital Image Processing, 3rd. ed., Prentice-Hall, 2007. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로