$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

카메라 영상기반 전방향 이동 로봇의 제어
Control of an Omni-directional Mobile Robot Based on Camera Image 원문보기

한국지능시스템학회 논문지 = Journal of Korean institute of intelligent systems, v.24 no.1, 2014년, pp.84 - 89  

김봉규 (서울과학기술대학교 전기정보공학과) ,  류정래 (서울과학기술대학교 전기정보공학과)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 카메라를 탑재한 전방향 이동 로봇에서의 표적 추종을 위한 영상기반 시각 서보 제어를 다룬다. 기존 연구에서는 카메라 영상에서 추출한 표적의 영상 좌표로부터 표적 추종을 위한 바퀴의 회전 각속도를 구하기 위하여 카메라의 수학적 모델과 이동 로봇의 기구학 특성으로부터 구한 수학적 영상 자코비안을 널리 활용하였다. 본 논문에서는 표적의 영상 좌표 정보를 이용한 단순한 규칙기반 제어 방식과 영상에 포착된 표적의 크기 정보를 조합하여 바퀴의 회전 각속도를 생성하는 새로운 방식을 제안한다. 카메라 영상을 몇 개의 영역으로 분할하고, 표적이 포함된 영역에 따라 미리 정의한 규칙을 적용하는데, 복잡한 수학적 표현을 사용하지 않으면서도 비교적 적은 수의 규칙을 사용하므로 구현이 용이한 장점이 있다. 제안된 방식은 실제 시스템으로 구현하여 실험하고, 전체 실험 시스템에 대한 설명과 함께 실험 결과를 제시하여 제안하는 방식의 타당성을 입증한다.

Abstract AI-Helper 아이콘AI-Helper

In this paper, an image-based visual servo control strategy for tracking a target object is applied to a camera-mounted omni-directional mobile robot. In order to get target angular velocity of each wheel from image coordinates of the target object, in general, a mathematical image Jacobian matrix i...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 한편, 영상 자코비안의 경우 카메라 모델과 로봇의 기구 학식을 조합하여 선형화한 것으로 매우 복잡한 수학적 표현이 필요하므로 실제 시스템으로의 적용에 어려움이 있다. 본 논문에서는 복잡한 수식으로 표현되는 영상 자코비안을 대신하여 일련의 규칙에 기반하여 영상 자코비안의 기능을 대신하는 방식을 제안한다.
  • 본 논문에서는 복잡한 수식의 영상 자코비안 대신 일련의 단순한 규칙을 활용하여 영상 좌표로부터 이동 로봇의 동작을 제어하는 방식을 제안한다. 카메라 영상을 몇 개의 영역으로 분할하고, 표적이 포함된 영역에 따라 미리 정의한 로봇의 이동 규칙을 적용한다.
  • 본 논문에서는 카메라를 장착한 전방향 이동 로봇(omni-directional mobile robot)에서 표적을 추종하기 위한 영상기반 시각 서보 제어의 새로운 방법을 제시한다. 전방향 이동 로봇에서는 로봇의 2차원 위치와 방향을 독립적으로 제어할 수 있으므로 표적을 카메라의 시야각 범위에 유지하면서 로봇의 위치를 변경할 수 있다[4-8].
  • 본 논문에서는 카메라를 탑재한 전방향 이동 로봇에서의 표적 추종을 위한 새로운 영상기반 시각 서보 제어 방식을 제안하였다. 복잡한 수학적 표현의 영상 자코비안을 활용하는 기존 방식과 달리 제안하는 방식에서는 표적이 위치한 영상 공간 좌표에 따라 미리 설정된 간단한 규칙을 적용한다.
  • 카메라가 탑재된 전방향 이동 로봇이 움직이는 표적을 추종하기 위해서는 표적의 영상 좌표를 확인하여야 하는데, 이를 위해서는 우선 카메라 영상에서 미리 정의된 표적을 감지하여야 한다. 본 논문에서는 표적 오인식을 방지하기 위하여 두 개의 크기가 다른 직사각형이 중첩된 형태를 표적으로 정의하였다. 그림 3에는 한 장의 영상에서 표적을 감지하기 위한 영상 처리 절차를 나타내었다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
시각 서보 제어는 무엇이고, 어떤 방식으로 분류되는가? 시각 서보 제어(visual servo control)는 컴퓨터 비전과 로봇 제어 알고리즘을 하나의 시스템에 조합하여 적용하는 분야로서 위치기반과 영상기반 방식의 두 가지로 분류할 수 있다. 위치기반 시각 서보 제어(position-based visual servo control)는 영상 정보로부터 추출한 표적의 3차원 위치 정보를 로봇 제어에 활용하는 반면, 영상기반 시각 서보 제어(image-based visual servo control)에서는 표적의 영상 좌표로부터 로봇의 관절 각도를 직접 결정한다[2,3].
2차원 평면상에서 동작하는 이동 로봇은 어떤 특징을 가지고 있는가? 2차원 평면상에서 동작하는 이동 로봇은 평면상의 위치와 회전 각도의 3 자유도를 가진다. 일반적인 이동 로봇에서는 이 3개의 자유도를 독립적으로 제어하는 것이 불가능하다.
이동 로봇이 표적을 감지하기 위한 영상 처리 절차는 어떻게 되는가? 단계 1 : 카메라 영상을 메모리에 저장한다. 단계 2 : 영상의 빨간색 성분을 기준으로 이진화한다. 단계 3 : 배경의 잡음 제거와 객체의 크기 확장을 위한 팽창 연산과 가우시안 필터 연산을 적용한 후, 표적의 내부 외곽선 및 꼭짓점을 검출한다. 단계 4 : 검출된 꼭짓점을 이용하여 내부 외곽선으로 이어진 도형이 사각형인지 판단한다. 단계 5 : 사각형의 넓이와 중심 좌표를 연산한다.
질의응답 정보가 도움이 되었나요?

참고문헌 (10)

  1. K. Watanabe, Y. Shiraishi, S. G. Tzafestas, J. Tang, and T. Fukuda, "Feedback control of an omnidirectional autonomous platform for mobile service robots," Journal of Intelligent and Robotic Systems, vol. 22, no. 3-4, pp. 315-330, July 1998. 

  2. J. R. Ryoo, D.-Y. Kim, H. K. Park, and M. J. Chung, "Position-based visual servo control of active head-eye system without camera calibration," Proceedings of International Conference on Automation, Robotics, and Computer Vision, 2000. 

  3. S. Hutchinson, G. D. Hager, and P. I. Corke, "A tutorial on visual servo control," IEEE Trans. on Robotics and Automation, vol. 12, no. 5, pp. 651-670, Oct. 1996. 

  4. J. E. M. Salih, M. Rizon, and S. Yaacob, "Designing omni-directional mobile robot with Mecanum wheel," American Journal of Applied Sciences, vol. 3, no. 5, pp. 1831-1835, May 2006. 

  5. Dickerson SL and Lapin BD, "Control of an omni- directional robotic vehicle with Mecanum wheels," Proceedings of National Telesystems Conference, vol. 1, pp. 323-328, 1991. 

  6. P. Viboonchaicheep, A. Shimada, and Y. Kosaka, "Position rectification control for Mecanum wheeled omni-directional vehicles," The 29th Annual Conference of the IEEE, vol. 1, pp. 854-859, 2003. 

  7. N. Tlale and M. Villiers, "Kinematics and dynamics modelling of a Mecanum wheeled mobile platform," 15th International Conference on Mechatronics and Machine Vision in Practice, pp. 657-662, 2008. 

  8. K. Nagatani, S. Tachibana, M. Sofue, and Y. Tanaka, "Improvement of odometry for omnidirectional vehicle using optical flow information," Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems, vol. 1, pp. 468-473, 2000. 

  9. J. S. Park and M. J. Chung, "Path planning with uncalibrated stereo rig for image-based visual servoing under large pose discrepancy," IEEE Trans. on Robotics and Automation, vol. 19, no. 2, pp. 250-258, April 2003. 

  10. E. Malis, F. Chauette, and S. Boudet, "2-1/2-D visual servoing," IEEE Trans. on Robotics and Automation, vol. 15, no. 2, pp. 238-250, April 1999. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로