$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

비전시스템 기반 군집주행 이동로봇들의 삼차원 위치 및 자세 추정
Three-Dimensional Pose Estimation of Neighbor Mobile Robots in Formation System Based on the Vision System 원문보기

제어·로봇·시스템학회 논문지 = Journal of institute of control, robotics and systems, v.15 no.12, 2009년, pp.1223 - 1231  

권지욱 (아주대학교 전자공학부) ,  박문수 (대한항공 MUAV 개발사업단 비행체개발팀) ,  좌동경 (아주대학교 전자공학부) ,  홍석교 (아주대학교 전자공학부)

Abstract AI-Helper 아이콘AI-Helper

We derive a systematic and iterative calibration algorithm, and position and pose estimation algorithm for the mobile robots in formation system based on the vision system. In addition, we develop a coordinate matching algorithm which calculates matched sequence of order in both extracted image coor...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 군집 이동 로봇들의 상대적인 위치를 추정하기 위해 한 대의 카메라를 이용하여 실제 이동로봇에 적용 가능한 주변 로봇들에 대한 자세 추정 알고리즘을 구성하고, 실험적인 결과를 통해 알고리즘의 실효성과 적용을 논의한다. 제안하는 알고리즘을 구성하기 위해, 앞서 [2이에서 연구된 방법을 바탕으로 군집 이동로봇 시스템에 적합한 자세 및 위치 추정 알고리즘을 재구성하였다.
  • 본 논문에서는 군집을 이루는 이동 로봇들의 상대적인 위치와 자세 변화를 추정하기 위해 단방향 카메라를 사용하여 3D 머신 비전의 카메라 왜곡 보정과 자세추정 알고리즘을 도입하였다. 이동로봇에 장착된 표적을 획득하여 영상에서 발생하는 왜곡을 보상하여 정확한 영상을 생성하고, 표적정보를 생성함으로써 빠르고 정확하게 위치와 자세를 추정할 수 있는 시스템을 구성하였다.
  • 변화에 대한 모의실험을 수행한다. 본 논문에서는 표현의 편의성을 위해 이동로봇에 부착되는 표적 정보만 표시하였다. 그림 13은 부착된 표적의 이동을 영상으로 관찰한 것을 보여준다.

가설 설정

  • 본 논문에서는 이동로봇에 장착되는 카메라를 보편적으로 사용되어온 핀홀 카메라로 가정하고 영상의 왜곡 보정 및 자세 추정을 위한 모델로 사용한다. 그림 3은 핀홀 카메라의 영상 획득에 대한 기구학을 보여준다[21].
  • 가정한다[7, 11]. 이동로봇은 다음과 같은 기구학 모델을 갖는 것을 가정한다.
  • 이동로봇의 위치와 자세를 추정하는 시스템을 구성하기 위해 본 논문에서는 리더 로봇-추종로봇Qeader-ft>llower) 시스템을 가정한다[7, 11]. 이동로봇은 다음과 같은 기구학 모델을 갖는 것을 가정한다.
본문요약 정보가 도움이 되었나요?

참고문헌 (16)

  1. M. Haid and J. Breitenbach, 'Low cost inertial orientation tracking with Kalman filter,' Applied Mathematics and Computation, vol. 153, no. 2, pp, 567-575, Jun. 2004 

  2. N. S. Kumar and T. Jann, 'Estimation of attitudes from a lowcost miniaturized inertial platform using Kalman filter-based sensor fusion algorithm,' Sadhana-Academic Proceedings in Engineering Sciences, vol. 29, pp. 217-235, Apr. 2004 

  3. J. Garc $\acute{i}$ a, J. Carb $\acute{o}$ , and J. M. Molina, 'Agent-based coordination of cameras,' International Journal of Computer Science and Applications, vol. 2, no. 1, pp. 33-17, 2005 

  4. H.lshigoro, 'Distributed vision system: a perceptual information infrastructure for robot navigation,' Proc. IJCAI, pp. 36-41, 1997 

  5. N. Ukita and T. Matsuyama, 'Real-time cooperative multi-target tracking by communicating active vision agents,' Computer Vision and Image Understanding, vol. 2002, no. 2, pp. 29-36, 2002 

  6. S. Y. Chiem and E. Cervera, 'Vision-based robot formations with Bzier trajectories,'in Intelligent Autonomous Systems (F.G. et al., ed.), vol. 8,pp.191-198,IOS Press, 2004 

  7. O. A. A. Orqueda and R. Fierro, 'Visual tracking of mobile robots in formation,' Proc. of American Control Conference, pp.5940-5945, USA, Jul. 2007 

  8. A. K. Das, R. Fierro, V. Jumar, J. P, Ostrowski, J. Spletzer, and C. J. Taylor, 'A vision-based formation control framework,' IEEE Trans. on Robotics and Automation, vol. 18, no. 5, Oct. 2002 

  9. N. Cowan, O. Shakemia, R, Vidal, and S. Sastry, 'Vision-based follow-the-leader,' Proc. of Intl. Conference on Intelligent Robots and Systems, pp. 1796-1801, USA, Oct. 2003 

  10. R. Vidal, O. Shakemia, and S. Sastry, 'Formation control of nonholonomic mobile robots with omnidirectional visual servoing and motion segmentation,' Proc. of the IEEE International Conference on Robotics and Automation, pp. 583- 589, Taiwan, Sep. 2003 

  11. D. Cruz, J. McClintock, B. Perteet, O. A. A. Orqueda, C. Yuan, and R. Fierro, 'Decentralized cooperative control,' IEEE Control Systems Magazine, vol. 27, no. 3, pp. 58-78, Jun. 2007 

  12. O. Faugeras, Computer Vision. a Geometric Viewpoint, MIT Press, 1993 

  13. R. Tsai, 'A Versatile camera calibration techniquefor highaccuracy 3D machine vision metrology using off-the-shelf tv cameras and lenses,' IEEE J. of Robotics and Automation, vol. 3, no.4,pp.323-344, 1987 

  14. Z. Zhang, 'A flexible new technique for camera calibration,' IEEE Trans. Pattern Anal. Mach. Intell., vol. 23, no. 11, pp. 1330-1334, 2000 

  15. M. M. Y. Chang and K. H. Wong, 'Model reconstruction and pose acquisition using extended Lowe's method,' IEEE Trans. Multimedia, vol. 7, no. 2, pp. 253-260, 2005 

  16. X. Zhang, S. Fronz, and N. Navab, 'Visual marker detection and decoding in AR systems: A comparative study,' Int. Symp. Mixed and Augmented Reality, 2002 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로