$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 비전기술에 의한 모바일 로봇의 정밀 자세 제어 알고리즘 개발에 관한 연구
A study on Development of Precise Orientation control Algorithm of the Mobile Robot Based Vision Technology 원문보기

한국산업응용학회 논문집 = Journal of The Korean Society of Industrial Application, v.18 no.2, 2015년, pp.129 - 138  

심현석 ((주)동산테크) ,  김태관 ((주)티엔지)

Abstract AI-Helper 아이콘AI-Helper

This study describe a new method to control posture and velocity for a wheeled mobile robot using visual feedback control method with a position based visual feedback. To slove the problem of vibration phenomena which were shown in the previous researches using a simple switching function based on a...

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

제안 방법

  • 본 논문에서는 비전 시스템을 사용하며 미리 정해진 인공적인 마커와 이동로봇간의 상대적 위치 및 자세를 추정한다.
  • 본 논문에서는 위치 추정 시 생길 수 있는 카메라의 오차보상을 위해 칼만필터 사용을 제안하였다. 실제 위치 x축으로 49cm, y축으로 7cm 상의 거리서 측정한 결과 그림 6를 통해 알 수 있듯이 칼만필터를 사용하여 영상정보로부터 위치를 추정한 결과가 필터를 사용하지 않은 결과 보다 정확하였다.
  • 본 논문에서는 제어기 혼합을 이용한다. 실시간으로 선속도 값과 각속도 값을 각각 구하여 다음과 같이 혼합하여 제안한다.
  • 본 연구에서는 보다 정밀하고 향상된 성능을 보이기 위해 견실한 제어기법을 사용한 영상 피드백 제어 기법을 제안하였다. 이를 위하여 목표점에 미리 정해진 인공의 마커를 설치하고 비전 카메라로부터 특징점을 찾아 검출하는 알고리즘을 사용하였고 검출된 결과를 이용해 마커와 이동로봇의 상대적인 위치와 자세정보를 추정한 후 추정오차를 보완하기 위해 이미지기반 제어방법을 사용한 제어 방법을 제안하였다.
  • 이를 위하여 목표점에 미리 정해진 인공의 마커를 설치하고 비전 카메라로부터 특징점을 찾아 검출하는 알고리즘을 사용하였고 검출된 결과를 이용해 마커와 이동로봇의 상대적인 위치와 자세정보를 추정한 후 추정오차를 보완하기 위해 이미지기반 제어방법을 사용한 제어 방법을 제안하였다. 위치기반 비쥬얼 서보제어의 문제점인 카메라 시야각에서 벗어날 수 있는 단점을 해결하기 위한 위치기반 비쥬얼 서보제어와 이미지기반 비쥬얼 피드백제어방법을 결합한 방법을 사용하였고, 표적으로의 위치와 진입각을 고려하기 위하여 특정한 자세로의 비선형 안정화 제어기를 사용하였다. 모의실험을 통해 제시된 제어기의 안정성 검증과 성능 향상을 보일 뿐만 아니라, 이를 실제 로봇 실험에 적용하여 알고리즘의 성능을 검증하였다.
  • 본 연구에서는 보다 정밀하고 향상된 성능을 보이기 위해 견실한 제어기법을 사용한 영상 피드백 제어 기법을 제안하였다. 이를 위하여 목표점에 미리 정해진 인공의 마커를 설치하고 비전 카메라로부터 특징점을 찾아 검출하는 알고리즘을 사용하였고 검출된 결과를 이용해 마커와 이동로봇의 상대적인 위치와 자세정보를 추정한 후 추정오차를 보완하기 위해 이미지기반 제어방법을 사용한 제어 방법을 제안하였다. 위치기반 비쥬얼 서보제어의 문제점인 카메라 시야각에서 벗어날 수 있는 단점을 해결하기 위한 위치기반 비쥬얼 서보제어와 이미지기반 비쥬얼 피드백제어방법을 결합한 방법을 사용하였고, 표적으로의 위치와 진입각을 고려하기 위하여 특정한 자세로의 비선형 안정화 제어기를 사용하였다.

데이터처리

  • 본 절에서는 모의실험을 통해 제안한 제어기의 타당성을 보인다. 모의실험에서는 비선형 자세 제어를 적용하여 최단 거리로 수렴함을 보이고 본 논문에서 제안한 자세 제어기의 성능을 확인하기 위하여 다른 방법의 비선형 제어기(20)과 선형 제어기 (14-16)을 비교하였다. 그림 3을 통하여 제어기 각각의 성능을 비교한 결과 본 논문에서 제안한 제어기가 다른 제어기들보다 카메라 시야각과 목표지점으로의 입사각을 고려한 이동을 하는 데 있어 나은 성능을 보임을 확인 하였다.

이론/모형

  • 레이블링을통해서도 특징점 들의 좌표를 구할 수 있지만 영상에 보이는 마커 형태에 따라 오차가 발생할 수 있다. 따라서 본 연구에서는 정확한 정보 획득을 위해 앞서 설명한 코너 검출 방법을 사용하였다[6].
  • 이동로봇 제어를 위해 특징점 들의 좌표를 구해야 하는데 본 논문에서는 해리스 코너 검출기법[21]을 사용하여 특징점 들의 좌표를 구하였다. 레이블링을통해서도 특징점 들의 좌표를 구할 수 있지만 영상에 보이는 마커 형태에 따라 오차가 발생할 수 있다.
  • 하지만 패닝과 틸팅을 하기 위하여 추가적으로 장비를 장착하여야 하고 이 모델 또한 이동로봇 제어에 영향을 주기 때문에 보다 복잡한 알고리즘을 설계해야 한다. 한편, 기존 연구에서 사용된 위치기반제어 방식으로 비선형성을 평형점 부근에서 선형화 시킨 모델[14]을 바탕으로 안정화 제어기를 적용하였다[15-16]. 하지만 이 경우 비선형 영역에서의 제어 기능에 한계를 가져올 수 있다는 문제점을 가지고 있기 때문에 이를 해결하기 위하여 새로운 연구가 필요하다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
위치기반제어는 어떻게 수행되는가? 위치기반제어는 3차원 공간 속에 존재하는 대상과 2차원 공간으로 사영된 영상과의 관계를 이용하여 제어 기법을 설계하는 방식이다. 이 과정에서 카메라의 내부 와 외부 매개 변수를 알고 있어야 하며 영상 왜곡으로 인한 불확실성을 정확히 보상해주어야 한다.
비전시스템의 장점은 무엇인가? 로봇이 어떠한 환경에서든 자율주행을 하기 위해 현재 상태와 주변 환경을 파악하고 인지하는 것이 중요하므로 비전시스템, 초음파센서, 레이저스캐너 등 다양한 센서를 사용하여 정확한 정보를 얻기 위해 끊임없는 노력을 하고 있다[4-5]. 그 중에서 비전시스템은 영상만으로 장애물 또는 목표물을 구별할 수 있고 거리정보도 획득할 수 있는 장점으로 인해 많은 관심을 받고 있다[6]. 실제로 영상 정보는 로봇의 동작을 제어하기 위한 궤환 출력으로 간주되어지며, 영상 정보기반의 로봇제어는 위치기반 시각적 제어와 이미지기반 시각적 제어 방식으로 구분되어 사용되어 왔다[7-9].
비전시스템의 영상 정보는 무엇으로 간주되는가? 그 중에서 비전시스템은 영상만으로 장애물 또는 목표물을 구별할 수 있고 거리정보도 획득할 수 있는 장점으로 인해 많은 관심을 받고 있다[6]. 실제로 영상 정보는 로봇의 동작을 제어하기 위한 궤환 출력으로 간주되어지며, 영상 정보기반의 로봇제어는 위치기반 시각적 제어와 이미지기반 시각적 제어 방식으로 구분되어 사용되어 왔다[7-9].
질의응답 정보가 도움이 되었나요?

참고문헌 (16)

  1. P. I. Corke and S. A. Hutchinson, "A new hybrid image-based visual servo control scheme," IEEE Conf. Decision and Control, vol. 3, pp. 2521-2526, Dec. 2000 

  2. A.H. Aabdul Hafez, E. Cervera and C. V. Jawahar, "Hybrid Visual Servoing by Boosting IBVS and PBVS," Information and Communication Technologies: From Theory to Applications, pp. 1-6, Apr. 2008. 

  3. Y. Wang, H. Lang, C. W. de Silva, "A Hybrid Visual Servo Controller for Robust Grasping by Wheeled Mobile Robots," IEEE/ASME Trans. Mechatronics, vol. 15, no. 5, pp. 757-769, 2010. 

  4. E. Malis, "Visual servoing invariant to changes in camera-intrinsic parameters," IEEE Trans. Robotics and Automation Magazine, vol 20, no. 1, pp. 72-81, Feb. 2004. 

  5. F. Chaumette and S. Hutchinson, "Visual servo Control Part II:Advanced approaches[tutorial]," IEEE Trans. Robotics and Automation Magazine, vol 14, no. 1, pp. 109-118, Mar. 2007. 

  6. F. Chaumette and S. Hutchinson, "Visual servo Control Part I:Basic approaches," IEEE Trans. Robotics and Automation Magazine, vol. 13, no. 4, pp, 82-90, Dec. 2006. 

  7. R. Cassinis, F. Tampalini, P. Bartolini and R.Fedrigotti, "Docking and charging system for autonomous mobile robots," Technical report, Universita degli Studi di Bres- cia, 2005. 

  8. 나두영, 김용태, "모듈형 로봇의 자가 결합을 위한 퍼지 주행제어 및 장애물 회피제어," 한국지능시스템학회 논문지, 제19권, 제 4호, pp. 470-477, 2009. 

  9. Z. Jiang and R. Ordonez. "On-line robust trajectory generation on approach and landing for reusable launch vehicles," Automatica, vol. 45, no. 7, pp.1668-1678, 2009. 

  10. B. Jung and G. S. Sukhatme, "Tracking multiple moving targets using a camera and laser rangefnder," Institute for Robotics and Intelligent Systems Technical Report IRIS-01-397, University of Southern California, 2001. 

  11. M. Kim, H. W. Kim, and N. Y. Chong, "automated robot docking using direction sensing RFID," Proc. IEEE Int. Conf. Robotics and Automation, pp. 4588-4593, Apr. 2007. 

  12. A.K.Das, R. Fierro, V. Kumar, J.P.Ostrowski, J. Spletzer, and C. J. Taylor, "A vision-based formation control framework," IEEE Trans. Robotics and Automation, vol 18, no. 5, pp. 813-825, Oct. 2002. 

  13. K.G. Derpanis, "The Harris Corner Detector", Technical Report, York University, Oct. 2004. 

  14. D. Chwa, S. K. Hong and B. Song, "Robust posture stabilization of wheeled mobile robots in polar coordinates", The 17th International Symposium on Math- ematical Theory of Networks and Systems, pp. 343-348, Jul. 2006. 

  15. J. M. Toibero, C. M. Soria, F. Roberti, R. Carelli, P. Carelli, "Switching visual servoing approach for stable corridor navigation," Int. Conf. Advanced Robotics, pp. 1-6, Jun. 2009. 

  16. M. S. Park, J. W. Kwon, J. S. Kin, S. K. Hong, "Experimental Study on Camera Calibration and Pose Estimation for the Application to Vehicle's Wheel Alignment," Int. Joint Conf. SICE-ICASE, pp. 2952-2957, Oct. 2006. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로