불확실한 환경에서 N-R방법을 이용한 로봇 비젼 제어기법 개발에 대한 연구 A Study on the Development of a Robot Vision Control Scheme Based on the Newton-Raphson Method for the Uncertainty of Circumstance원문보기
본 논문은 로봇이 이동하는 동안 장애물이 출현하는 불확실한 환경에서 N-R방법을 이용하여 개발된 로봇 비젼제어 기법의 효율성을 알아보고자 한다. 본 연구에 사용되는 비젼 시스템 모델은 6개의 카메라 매개변수(C1~C6)를 포함한다. N-R방법의 일괄처리기법을 이용하여 사용한 각 카메라에 대한 6개의 카메라 매개변수의 추정을 개발하고, 각 카메라에 대한 6개의 매개변수를 사용한 로봇 관절각 기법을 개발하여 얇은 막대 배치 작업을 수행한다. 특히, 불확실한 환경에서 얇은 막대 배치 작업을 위해 장애물에 의한 불연속 궤적은 시작영역, 중간영역, 타겟 근처 영역 등 3개 영역으로 구분하였다. 제안된 로봇 비젼 제어기법을 사용하여 얇은 막대 배치 실험을 통해 각 장애물 영역에서 장애물의 개수 증가에 따른 영향을 조사하고자 한다.
본 논문은 로봇이 이동하는 동안 장애물이 출현하는 불확실한 환경에서 N-R방법을 이용하여 개발된 로봇 비젼제어 기법의 효율성을 알아보고자 한다. 본 연구에 사용되는 비젼 시스템 모델은 6개의 카메라 매개변수(C1~C6)를 포함한다. N-R방법의 일괄처리기법을 이용하여 사용한 각 카메라에 대한 6개의 카메라 매개변수의 추정을 개발하고, 각 카메라에 대한 6개의 매개변수를 사용한 로봇 관절각 기법을 개발하여 얇은 막대 배치 작업을 수행한다. 특히, 불확실한 환경에서 얇은 막대 배치 작업을 위해 장애물에 의한 불연속 궤적은 시작영역, 중간영역, 타겟 근처 영역 등 3개 영역으로 구분하였다. 제안된 로봇 비젼 제어기법을 사용하여 얇은 막대 배치 실험을 통해 각 장애물 영역에서 장애물의 개수 증가에 따른 영향을 조사하고자 한다.
This study aims to develop a robot vision control scheme using the Newton-Raphson (N-R) method for the uncertainty of circumstance caused by the appearance of obstacles during robot movement. The vision system model used for this study involves six camera parameters (C1-C6). First, the estimation sc...
This study aims to develop a robot vision control scheme using the Newton-Raphson (N-R) method for the uncertainty of circumstance caused by the appearance of obstacles during robot movement. The vision system model used for this study involves six camera parameters (C1-C6). First, the estimation scheme for the six camera parameters is developed. Then, based on the six estimated parameters for three of the cameras, a scheme for the robot's joint angles is developed for the placement of a slender bar. For the placement of a slender bar for the uncertainty of circumstances, in particular, the discontinuous robot trajectory caused by obstacles is divided into three obstacle regions: the beginning region, middle region, and near-target region. Then, the effects of obstacles while using the proposed robot vision control scheme are investigated in each obstacle region by performing experiments with the placement of the slender bar.
This study aims to develop a robot vision control scheme using the Newton-Raphson (N-R) method for the uncertainty of circumstance caused by the appearance of obstacles during robot movement. The vision system model used for this study involves six camera parameters (C1-C6). First, the estimation scheme for the six camera parameters is developed. Then, based on the six estimated parameters for three of the cameras, a scheme for the robot's joint angles is developed for the placement of a slender bar. For the placement of a slender bar for the uncertainty of circumstances, in particular, the discontinuous robot trajectory caused by obstacles is divided into three obstacle regions: the beginning region, middle region, and near-target region. Then, the effects of obstacles while using the proposed robot vision control scheme are investigated in each obstacle region by performing experiments with the placement of the slender bar.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 연구의 주요 관심사인 로봇이 이동하는 동안 장애물이 출현 시, 장애물이 출현하는 영역을 3개 영역으로 구분하여 각 영역에서 장애물 개수에 따른 영향을 제안된 제어기법을 사용하여 조사하고 효율성을 보이고자 한다.
여기서, 로봇이 이동하는 동안 선행연구(10)를 보완하여 장애물이 없는 경우의 제어기법을 기준으로 설정하고, 장애물 출현 등으로 인한 불확실한 작업 환경에서 로봇 비젼 제어기법을 제시하고자 한다.
이리하여, 본 연구는 선행연구(10)를 통해 보여준 카메라 및 로봇 위치 변화에 대해 카메라 매개변수를 능동적으로 조절하는 제어기법을 기반으로 장애물이 없는 경우와 장애물이 출현하는 경우로 구분하여 연구하였다. 특히, 장애물이 없는 경우는 선행연구(10)를 보완하여 연구를 수행하여 본 연구에서 제안한 장애물이 출현하는 경우의 연구 결과를 비교하기 위한 기준으로 설정하였다.
를 통해 보여준 카메라 및 로봇 위치 변화에 대해 카메라 매개변수를 능동적으로 조절하는 제어기법을 기반으로 장애물이 없는 경우와 장애물이 출현하는 경우로 구분하여 연구하였다. 특히, 장애물이 없는 경우는 선행연구(10)를 보완하여 연구를 수행하여 본 연구에서 제안한 장애물이 출현하는 경우의 연구 결과를 비교하기 위한 기준으로 설정하였다.
향후, 이 결과를 토대로 작업환경이 변하는 산업 현장에서 물체 배치작업을 위해 사용자가 상황에 맞게 조절할 수 있는 제어기법을 제시하였다.
제안 방법
2.2절의 비젼시스템 모델에 포함된 각 카메라에 대한 6개의 카메라 매개변수를 추정하며, 추정된 매개변수를 이용하여 고정된 타겟 지점에 얇은 막대 배치를 위한 로봇의 관절각을 추정하는 N-R방법을 적용한 수학적 모델링을 보여준다.
장애물 출현 시 3개 장애물 영역에서 장애물이 1개부터 10개 출현 할 때까지 N-R방법을 사용하여 로봇을 이용한 얇은 막대 배치 실험을 수행하였다. Fig. 6에서 보여준 장애물 출현 시 로봇 관절각 추정 기법을 이용하여 장애물 개수 증가에 따른 추정된 로봇 관절각과 이 관절각을 로봇 기구 학식 (1)에 대입하여 타겟에 대한 공간상 위치의 평균 오차 값을 계산하였다. 이에 대한 각 장애물 영역에서 결과 값은 Fig.
N-R방법을 사용하여 장애물 출현 시 얇은 막대 배치 작업을 위해 로봇이 이동하는 각 지점에서 추정된 카메라 매개변수를 이용한 비젼 시스템 모델 값과 각 지점에서 실제 획득된 비젼 데이터를 비교하여 제안된 비젼 시스템 모델의 적합성을 보이고자 한다. 3대 카메라 각각에 대한 실제 비젼 데이터와 비젼 시스템 모델의 추정 값 사이의 오차는 식 (12)와 같이 r.
5에서 보여주는 것처럼 장애물 구간을 크게 타겟 근처(Case 1), 운동궤적의 중간 영역(Case 2), 운동궤적의 시작 영역(Case 3) 3개의 영역으로 구분하였다. 각 영역에서 장애물이 하나씩 증가하여 10개 장애물이 출현하도록 설정하여 총 30번의 실험을 진행하였다.
로봇이 이동하는 각 지점에서 3대의 카메라에 대해 추정된 매개변수를 식 (3)에 적용한 비젼 시스템 모델 값과 로봇이 이동하는 동안 각 지점에서 3대의 카메라에서 획득된 실제 비젼 데이터를 비교하였다. Fig.
로봇이 타겟을 향해 이동하는 동안 각 지점에서 3대 카메라에 대해 추정된 매개변수를 식 (3)에 적용하여 계산된 비젼 시스템 모델 값과 3대의 카메라에서 획득된 실제 비젼 데이터를 비교하였다. Fig.
본 연구는 방위와 위치를 모두 고려해야 하는 얇은 막대 배치 실험을 위해 2cue 시험모형을 Fig. 10에서 보여준다. 비젼 데이터의 양을 최소화 시킴으로 인해 처리 속도를 향항 시키고자 물체 형상 전체를 사용하지 않고 cue를 이용하여 2개의 LED를 플라스틱 봉 양 끝에 부착하여 만든 얇은 막대 시험모형을 제작하였다.
10에서 보여준다. 비젼 데이터의 양을 최소화 시킴으로 인해 처리 속도를 향항 시키고자 물체 형상 전체를 사용하지 않고 cue를 이용하여 2개의 LED를 플라스틱 봉 양 끝에 부착하여 만든 얇은 막대 시험모형을 제작하였다.
앞 절에서 유도된 N-R방법의 수학적 모델링을 이용하여 방위와 위치를 고려한 2개큐를 부착한 얇은 막대 배치 작업에 적용하기 위해 로봇 비젼 제어기법을 제안하였다. 처리할 비젼데이터양을 최소화 하기 위해 Fig.
얇은 막대 배치작업은 N-R방법의 일괄처리기법을 사용하여 장애물이 없는 경우와 장애물이 출현하는 경우로 구분하여, 사용된 비젼시스템 모델의 적합성과 얇은 막대 배치 실험 결과를 제시하였다.
3은 장애물이 없는 경우 고정 타겟에 대한 N-R방법의 일괄처리 기법에 대한 데이터 처리 방법을 보여주고 있다. 얇은 막대를 부착한 로봇이 고정타겟을 향해 운동궤적을 따라 이동하는 동안 최적의 카메라 3대를 이용하여(11) 얇은 막대 양 끝점에 설치된 2개큐에 대한 비젼데이터를 측정한다.
장애물 출현 시 3개 장애물 영역에서 N-R방법의 일괄처리기법을 이용한 얇은 막대 배치실험을 수행하였다.
장애물 출현 시 3개 장애물 영역에서 장애물이 1개부터 10개 출현 할 때까지 N-R방법을 사용하여 로봇을 이용한 얇은 막대 배치 실험을 수행하였다. Fig.
장애물 출현 시 장애물 영역을 타겟 근처 영역 (Case1), 운동궤적의 중간 영역(Case2), 운동궤적의 시작 영역(Case3) 등 3개 영역으로 구분하고, 각 영역에서 장애물이 1개에서 10개까지 출현하도록 배치하여 실험을 총 30번 행하였다.
장애물 출현으로 인하여 제시된 제어기법들의 효율성을 보이기 위해 Fig. 5에서 보여주는 것처럼 장애물 구간을 크게 타겟 근처(Case 1), 운동궤적의 중간 영역(Case 2), 운동궤적의 시작 영역(Case 3) 3개의 영역으로 구분하였다. 각 영역에서 장애물이 하나씩 증가하여 10개 장애물이 출현하도록 설정하여 총 30번의 실험을 진행하였다.
장애물이 없는 경우는 장애물이 출현하는 경우의 결과와 비교하기 위한 기준으로 삼기 위해 수행하였으며, 본 연구의 주요 관심사인 장애물이 출현하는 영역을 3개 영역으로 구분하고, 각 영역에서 장애물 개수 변화에 따른 영향을 장애물이 없는 경우의 결과값과 비교하였다.
6은 장애물 출현 시 N-R방법의 일괄처리기법을 적용한 고정된 얇은 막대 배치 작업에 대한 제어기법의 전체적인 흐름을 보여주며, 사용된 각각의 카메라에 적용한다. 제안된 제어기법의 핵심 포인트는 4.1.2절에서 보여준 제어기법을 기초로 하여, 장애물 출현으로 인해 비젼데이터를 측정할 수 없는 출현 지점을 제외하고 측정 가능한 비젼 데이터와 이에 대응하는 로봇 관절각을 매칭시키는 것이다. 이것에 대한 설명은 Fig.
특히, LED 의 비젼데이터를 얻기 위해서 직접적인 빛 반사를 피하면서 KS 조도 기준 G 등급에 해당하는 약 500 Lux 의 실험실 환경에서 실험을 행하였으며, 예기치 못한 환경의 변화에 대해서는 LED 의 빛 세기를 조절하면서 모든 실험을 성공적으로 수행하였다.
대상 데이터
본 연구에 사용된 실험장치의 구성은 Fig. 8과 Fig. 9와 같이, 3대의 CCD카메라(SONY XC ES51)와 640×480해상도를 갖는 비젼보드(MATROX black-white metor2-MC4; Image level : 256, Maximum sampling rate:30MHz)를 포함한 비젼시스템, 4축 스카라 타입 로봇(Sansung SM7)과 시험모형을 포함하는 로봇 시스템, PC시스템(Intel Pentium4; CPU:2.8GHz, 512MB)으로 구성되었다.
본 연구에서 사용된 비젼시스템 모델은 6개의 카메라 매개변수(C1~C6)를 포함하고 있으며, C1~C4는 카메라의 초점거리 및 방향의 불확실성, C5와 C6은 카메라와 로봇사이의 상대적 위치에 대한 불확실성을 설명하는 매개변수이다. 이에 대한 비젼 시스템 모델은 식 (3)에 나타내었다.
본 연구에서 사용한 삼성 4축 스카라 타입 로봇에 대한 4개 관절의 링크 인자와 좌표계의 설정을 Fig. 1에서 보여준다.
이론/모형
반복기법인 N-R방법을 사용한 여러 가지 제어기법이 연구되었는데, Skaar 등(5)이 2개 이상의 카메라를 이용한 공간상 로봇 구동 알고리즘을 연구하였으며, Shahamiri(6)는 Newton 방법을 사용하여 궤적이 단수 또는 단수지역을 피하도록 온라인으로 궤적이 수정되는 방법과 간단한 시각 장애물의 회피를 위한 바이어스 방법을 제안하였다. 또한 Yang 등(7)은 6축 평형로봇에 N-R방법을 적용하여 정기구학에 대한 해석을 하였으며, Makoto 등(8)은 단일 변수 Newton- Raphson방법이 전통적인 방법보다 더 정확하고 빠르다는 것을 증명하고, 배민지 등(9)은 도파관 안테나 복사평판 설계이론으로 Elliott이 제안한 수식을 기반으로 슬롯 파라메터를 계산하는 프로그램을 작성하고, 비선형방정식의 해를 구하기 위해 Newton Raphson 방법을 사용하였다.
장애물이 없는 경우를 기준으로 설정하여 장애물 출현 시 제안된 N-R방법의 로봇 비젼 제어기법을 얇은 막대 배치 실험에 적용하여 얻어진 결론은 다음과 같다.
장애물이 존재하지 않는 경우 N-R방법을 이용한 얇은 막대 고정 타겟에 대한 실험을 수행하였다.
(12)를 사용하여 평균오차 eavg로 정의하였다. 특히, 타겟에 대한 추정된 위치값은 관절각 추정기법에 의해 구해진 관절각을 식 (1)의 로봇 기구학 모델에 적용하여 계산하였다.
성능/효과
(1) 장애물의 3개 영역에서 이용한 비젼시스템 모델식과 실제 비젼데이터를 비교하여 계산된 오차값은 기준으로 설정한 장애물이 없는 경우와 매우 근사하게 보여주므로, 본 연구에서 사용된 비젼시스템 모델의 적합함을 알 수 있다.
(3) 타겟 근처 영역(Case 1)에서 장애물이 발생하였을 경우는 보정해 나갈 수 있는 새로운 비젼데이터를 획득할 수 없으므로 운동궤적의 시작영역 (Case 3) 및 중간영역(Case 2)의 경우와 다르게 장애물 개수 증가에 따라 위치의 평균 오차값이 증가하였다. 다만, 허용오차를 ±1mm 이내로 할 경우 장애물이 4개(영역의 40%)가 존재할지라도 이 기법을 효율적으로 적용할 수 있다.
(4) 3개의 장애물 영역 모두에서 고정된 타겟에 대해 획득된 데이터를 모두 일괄적으로 처리하기 때문에 장애물 개수와 무관하게 데이터 처리시간은 비슷하게 나타났으며, 이 처리시간은 본 연구에서 사용된 프로그램이 처리 할 수 있는 1ms이 하로 보여주었다.
(2) 장애물 영역이 운동궤적의 시작영역(Case 3) 과 중간영역(Case 2)에서는 얇은 막대 배치 실험 결과 장애물이 없는 경우와 거의 유사한 결과를 얻었다. 그 이유는 로봇이 타겟으로 이동하는 동안 새로운 비젼데이터를 획득하여 위치를 보정해 주기 때문이다.
사용자가 결정할 수 있는 허용 오차 범위를 ±1mm미만을 기준으로 하면, 4개의 장애물이 발생하였을 때까지 상대적으로 안정적인 결과를 얻었다.
질의응답
핵심어
질문
논문에서 추출한 답변
로봇 비젼시스템을 실제 산업에 적용하기 위해 무엇이 필요한가?
로봇비젼에 대한 연구는 미국에서 시작되었고 거의 같은 시기에 일본에서도 도쿄 대학의 그룹을 중심으로 로봇의 시각기능으로서 주목할 만한 실시간 비젼에 대한 연구가 이루어졌으며, 또한 오사카대학을 중심으로 로봇의 시각에 대한 파노라마 비젼(Panoramic Vision)이나 전방위 시각(Omni-directional vision)이라고 불리는 연구가 활성화 되었다. 로봇 비젼시스템을 실제 산업현장에 적용하기 위해서는 로봇과 비젼시스템 간의 효과적인 보정에 필요한 3차원 공간에서 움직이는 로봇의 위치를 2차원 카메라 좌표계로 매핑하기 위해 2개 좌표계 사이의 상호관계 정보가 정확해야 하고, CCD카메라에 의해서 측정된 많은 양의 데이터 처리로 인한 처리 속도 저하에 대한 문제점이 대두된다. 3차원의 로봇 공간상 위치와 2차원 비젼 데이터간의 매핑 문제 해결을 위해 Kelly(1)가 평면상의 카메라 이미지에서 특징점 오차를 사용하는 제어기반 알고리즘을 제시하였으며, Yoshihiro 등(2)은 카메라와 로봇 사이의 상대적인 위치변화가 있는 경우에도 보정이 필요하지 않는 퍼지논리를 사용하였다.
비젼시스템이란 무엇인가?
인간의 시각기능을 로봇분야에 적용하기 위해서 사용되는 비젼시스템은 로봇에게 지능을 부여하여 다양하고 복잡한 작업조건을 판단하고 정확하게 처리하도록 하는 기술로, 1990년대부터 활발하게 연구되어 산업현장에 적용되고 있다. 로봇비젼에 대한 연구는 미국에서 시작되었고 거의 같은 시기에 일본에서도 도쿄 대학의 그룹을 중심으로 로봇의 시각기능으로서 주목할 만한 실시간 비젼에 대한 연구가 이루어졌으며, 또한 오사카대학을 중심으로 로봇의 시각에 대한 파노라마 비젼(Panoramic Vision)이나 전방위 시각(Omni-directional vision)이라고 불리는 연구가 활성화 되었다.
CCD카메라에 의해서 측정된 많은 양의 데이터 처리 때문에 발생된 처리 속도 저하를 개선하기 위한 연구는 무엇이 있는가?
또한, 많은 양의 데이터처리 때문에 발생된 처리속도 저하를 최소화하기 위해 1970년대 후반부터 이루어진 LSI(Large Scale Integrate)로 대표되는 대규모 기억소자의 꾸준한 개발로 인해 메모리 문제를 해결하였으며, 이치화 기법이나 큐(cue)를 사용해 데이터의 양을 최소로 하여 작업의 조건과 특성을 명확히 함으로써 비젼시스템을 특정 작업에만 적합하도록 적용하고, 획득되어지는 데이터의 양을 최소로 줄이는 등의 물리적인 작업환경을 통해 데이터 처리시간을 줄이는 방법들이(3,4) 연구되었다.
참고문헌 (12)
Kelly, R., Carelli, R., Nasisis, O., Kuchen, B. and Reyes, F., 2000, "Stable Visual Servoing of Camera-inhand Robotics Systems," IEE/ASME Trans, on Mechatronics, Vol. 5, No. 1, pp. 39-48.
Yoshihiro, T., Yasuo, K. and Hiroyuki, I., 1996, "Positioning-Control of Robot Manipulator Using Visual Sensor," Int. Conference on Control, Automation, Robotics and Vision, pp. 894-898.
Berthold, K. P. H., 1986, "Robot vision," Cambridge, Massachusetts, The MIT Press., pp. 46-48.
Peter, A. S., 1993, "Control of Eye and Arm Movements Using Active, Attentional Vision," Applications of AI, Machine Vision and Robotics, pp. 1471-1491.
Skaar, S. B., Brockman, W. H. and Jang, W. S., 1997, "Three-dimensional Camera Space Manipulation," International Journal of Robotics Research, Vol. 9, No. 4, pp. 22-39.
Shahamiri, M. and Jagersand, M., 2005, "Uncalibrated Visual Servoing using a Biased Newton Method for On-line Singularity Detection and Avoidance," IEEE/RSJ International Conference, pp.3953-3958.
Yang, C., Huang, Q., Ogbobe, P. O. and Han, J., 2009, "Forward Kinematics Analysis of Parallel Robots Using global Newton-Raphson Method," Proceedings of 2009 Second ICICTA, pp. 407-410.
Makoto, U. and Koizumi, H., 2012, "A Calculation Method of Photo Voltaic Array's Operational Point for MPPT Evaluation Based on One Variable Newton-Raphson Method," Sustainable Energy Technologies (ICSET), IEEE Third International Conference, pp. 451-456.
Bae, M. J., 2014, "Extraction of Slot Parameters for Waveguide Antennas Using the Newton Raphson Method," Journal of KIIT, Vol. 12, No. 5, pp. 33-41.
Son, J. K., Jang, W. S. and Hong, S. M., 2013, "Evaluation of Two Robot Vision Control Algorithms Developed Based on N-R and EKF Methods for Slender Bar Placement," Trans. Korean Soc. Mech. Eng. A, Vol. 37, No. 4, pp. 447-459.
Hong, S. M., 2015, "Development of Robot Vision Control Schemes Using the N-R and EKF Methods for the Moving Target Tracking and Slender Bar Placement Tasks," Thesis of Master of Engineering, School of Mechanical Engineering, Chosun University.
David, F., Robert, P. and Roger, P., 1978, "Statistic," Canada: W.W.Norton, pp.58-59.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.