최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기제어·로봇·시스템학회 논문지 = Journal of institute of control, robotics and systems, v.16 no.9, 2010년, pp.883 - 890
임세준 (인하대학교 전기공학부) , 임현 (서울대학교 기계항공공학부) , 이영삼 (인하대학교 전기공학부)
This paper proposes tip position control system which uses a visual marker to determine the tip position of a robot manipulator. The main idea of this paper is to introduce visual marker for the tracking control of a robot manipulator. Existing researches utilize stationary markers to get pattern in...
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
영상센서를 이용하는 방법을 구분하라. | 영상센서를 이용하면 가변적인 목표물의 추종을 보다 정밀하게 할 수 있으며 외부의 변화에 민감하게 대처가 가능해진다. 영상센서를 이용한 방법은 크게 카메라와 목표물 사이의 상대적인 위치와 자세에 의해 표현되는 위치를 이용하는 제어(position-based control)와 이미지 평면상에 주어지는 목표물의 특징점을 이용하는 제어(featurebased control)로 나눌 수 있다[1]. 이렇게 영상센서는 어떤 물체를 특징점을 추적하거나 현재 위치를 파악하고 물체와의 거리를 측정하는 경우 등 많은 곳에서 쓰이고 있다. | |
로봇 매니퓰레이터은 무엇이며 어디에 이용되고 있는가? | 로봇 매니퓰레이터는 위치 제어 장치로 산업현장에서 물건의 이동, 수송, 용접 등을 위한 중요 도구로 이용되고 있다. 이를 위해 많은 종류의 센서들이 사용되고 있으며 현재 개발 중에 있다. | |
영상의 객체를 인식함에 있어 자연적인 방법의 단점은 무엇인가? | 영상의 객체를 인식함에 있어 자연적인 방법은 넓은 환경 범위에서 다양하게 사용이 가능하지만 크게 두 가지 문제를 담고 있다. 첫 번째는 인식에 관한 문제이다. 작은 물체나 먼 곳의 물체를 식별하는 경우 오류발생 확률이 상당히 커지게 되고 복잡한 환경에서의 다양한 대응이 어렵다. 두 번째는 좌표 정보에서의 문제점이다. 어떤 표적 물체까지의 거리와 좌표를 측정하려면 적어도 두 대의 카메라를 사용해야만 한다[2]. |
S. Hutchinson, G. D. Hager, and P. I. Corke, “A Tutorial on visual servo control,” IEEE Trans. On Robotics and Automation, vol. 12, no. 5, Oct. 1996.
H. J. Lee, M. G. Park, and M. C. Lee, “Visual Servoing of a Mobile Manipulator Based on Stereo Vision,” ICCAS, Gyeongju, October 2003.
H. Kato and M. Billinghurst, “Marker tracking and hmd calibration for a video-based augmented reality conferencing system,” Proc. of the 2nd International Workshop on Augmented Reality (IWAR99), Sanfrancisco, USA, Oct. 1999.
K. Ohara, T. Sugawara, J. H. Lee, T. Tomizawa, H. M. Do, X. Liang, Y. S. Kim, B. K. Kim, Y. Sumi, T. Tanikawa, H. Onda, and K. Ohba, “Visual marker for robot manipulation and its RTMiddleware component,” Advanced Robotics 22 , pp. 633-655, 2008
W. Daniel and S. Diester, “ARToolKitPlus for pose tracking on mobile devices,” Proc. of 12th Computer Vision Winter Workshop (CVWW’ 07), 2007.
신효필, 이종광, 강이석, “비전 센서를 이용한 유연한 로봇팔의 끝점 위치 측정,” 제어.자동화.시스템공학 논문지, 제6권 제8호, pp. 682-688, 2000.
왕한흥, 장영희, 김종수, 이종붕, 한성현, “로봇 매니퓰레이터의 자세 보정을 위한 카메라 모델링,” 한국 공작 기계학회, 2002 춘계 학술대회 논문집, pp. 179-183, 2002.
J. Kofman, X. Wu, T. J. Luu, and S. Verma, “Teleoperation of a robot manipulator using vision-based human-robot interface,” IEEE Transactions on industrial electronics, vol. 52, no. 5, October 2005.
M. Fiala, “Artag, a fiducial marker system using digital techniques,” Proc. of the Computer Vision and Pattern Recognition (CVPR’05), 2005.
H. Tanaka, T. Tomizawa, Y. Sumi, J. H. Lee, H. M. Do, Y. S. Kim, B. K. Kim, T. Tanikawa, H. Onda, and K. Ohba, “Visual marker system for control of flexible manipulator supporting daily living,” ICROS-SICE International Joint Conference 2009, pp. 1666-1670, August 2009.
J. Heikkila and O. Silven, “A four-step camera calibration procedure with implicit image correction,” IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 1106-1112, 1997.
J. Denavit and R. S. Hartenberg, “A kinematic notation for lower-pair mechanisms based on matrices,” ASME Journal of Applied Mechanics, pp. 215-221, June 1955.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.