$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

퍼지 로직을 적용한 로봇축구 전략 및 전술
A Robot Soccer Strategy and Tactic Using Fuzzy Logic 원문보기

퍼지 및 지능시스템학회 논문지 = Journal of fuzzy logic and intelligent systems, v.16 no.1, 2006년, pp.79 - 85  

이정준 (부경대학교 대학원 전자공학과) ,  지동민 (부경대학교 대학원 전자공학과) ,  이원창 (부경대학교 전자컴퓨터정보통신공학부) ,  강근택 (부경대학교 전자컴퓨터정보통신공학부) ,  주문갑 (부경대학교 전자컴퓨터정보통신공학부)

초록
AI-Helper 아이콘AI-Helper

본 논문은 인접한 두 로봇의 위치와 역할에 따라 로봇의 행동을 결정하는 퍼지 로직 중계자를 사용한 로봇 축구의 전략 및 전술을 제안한다. 기존의 Q 학습 알고리즘은 로봇의 수에 따라 상태의 수가 기하급수적으로 증가하여, 많은 연산을 필요로 하기 때문에 실시간 연산을 필요로 하는 로봇 축구 시스템에 알맞지 않다. Modular Q 학습 알고리즘은 해당 지역을 분할하는 방법으로 상태수를 줄였는데, 여기에는 로봇들 간의 협력을 위하여 따로 중재자 알고리즘이 사용되었다. 제안된 방법은 퍼지 규칙을 사용하여 로봇들 간의 협력을 위한 중재자 알고리즘을 구현하였고, 사용된 퍼지 규칙이 간단하기 때문에 계산 량이 작아 실시간 로봇 축구에 적합하다. MiroSot 시뮬레이션을 통하여 제안된 방법의 가능성을 보인다.

Abstract AI-Helper 아이콘AI-Helper

This paper presents a strategy and tactic for robot soccer using furry logic mediator that determines robot action depending on the positions and the roles of adjacent two robots. Conventional Q-learning algorithm, where the number of states increases exponentially with the number of robots, is not ...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

제안 방법

  • Region에 따른 퍼지 룰의 결괴-를 SimuroSot으로 확인하여 보았다. SimuroSot 은 MiroSot, RoboSot, 등 로봇 축구의 한 장르로써 FIRA 에 등록이 되어 있다.
  • 및 전술 알고리즘을 제시하였다. 구체적으로, 우선 시스템에 사용한 퍼지 모델을 제시하였고, 적용을 위해; 운동장에서 교환을 위한 부분 3부분을 나누었다. 그리고 이를 Region 1, 2, 3으로 명명하였다.
  • 하지만, 200師년대에 들어서면서 로봇축구의 기반이라고 할 수 있는 로봇제어부와 비젼부가 완성이 되면서 로봇 간의 협력에 관심이 집중되었고 그에 대한 알고리즘이 발표되기 시작하였다. 그 중 로봇죽구 교재라고 할 수 있는 책[2]에서이미 소개가 되었던 강화학습 중 하나인 Q-학습법과 Modular Q-학습법을 이용한 전략을 알아보도록 하겠다.
  • 단점을 고찰하였다. 그리고 본 논문에서 제안하는 퍼지 로직 시스템을 적용한 로봇축구 전략 및 전술을 알아보았고, FIRA에 등록되어있는 SimuroSot에 쓰이는 Middle League SimuroSot Program을 이용하여 퍼지 로직 시스템을 적용한 전략 및 전술이 실제 로봇축구 경기에서 얼마나 효과를 가지는지 알아보았다.
  • 그리하여 새로운 알고리즘인 퍼지 로직 시스템을 사용한 전략 및 전술 알고리즘을 제시하였다. 구체적으로, 우선 시스템에 사용한 퍼지 모델을 제시하였고, 적용을 위해; 운동장에서 교환을 위한 부분 3부분을 나누었다.
  • 그 중에서 대희에서 많이 쓰이는 것으로는 Middle League SimuroSot0] 있다. 본 논문에서는 FIRA의 웹 사이트에서 Middle League SimuroSot 프로그램과 설명서를 다운로드하여 실험하였다.
  • 본 논문에서는 위 두 알고리즘을 대체할 수 있는 것으로써 퍼지를 선택하였고, 퍼지를 통한 전략 및 전술 알고리즘을 구죽하였다.
  • 본문 2에서 언급한 4가지의 주행 알고리즘을 가지고 본 절에서는 4대의 로봇이 서로 협력 체계를 갖는 퍼지 논리를 구현한다.
  • 그리고 이를 Region 1, 2, 3으로 명명하였다. 새로운 시스템의 시뮬레이션을 위해 SimuroSot을 사용하였고, 제작한 프로그램의 메인, 루틴에서는 공의 위치에 따라 분기하여 영역에 따라 각자의 퍼지 모델을 적용한 역할 교환 알고리즘을 수행하였다. 그 결과 각 영역에서의 교환 상황 :z림을 얻을 수 있었고, 제안된 알고리즘이 효과가 있음을 알았다.
  • 0 만 구동하였다. 실험을 위해 VC++6.0 으로써 전략 및 전술을 담은 DLL(Dynamic Link Library) 파일을 제작하여 SimuroSot 에 적용을 하였고, 이는 SimuroSot 매뉴얼에서 배웠다. 또, 로봇과 공의 위치를 실시간으로 얻기 위해서 DLL에서 파일에 접근하여 저장하는 방식으로 데이터를 얻었으며, 이를 그래프 화 하기 위해서 VC++6.
  • 지금까지 우리는 기존에 로봇축구에 사용이 되었던 Q-학습 알고리즘과 Modular Q-학습 알고리즘을 알아보고, 이 알고리즘의 단점을 고찰하였다. 그리고 본 논문에서 제안하는 퍼지 로직 시스템을 적용한 로봇축구 전략 및 전술을 알아보았고, FIRA에 등록되어있는 SimuroSot에 쓰이는 Middle League SimuroSot Program을 이용하여 퍼지 로직 시스템을 적용한 전략 및 전술이 실제 로봇축구 경기에서 얼마나 효과를 가지는지 알아보았다.
  • (c)와 같이 Defense, Screen 및 No change가 된다. 출력의 값이 이분법적인 값이므로 비교적 연산이 간단한 singletone 방식을 택하였다.
  • 퍼지 로직을 적용한 로봇축구 전략 및 전술을 구현하기 위해 우선 그림 6과 같이 언어를 기반으로 하는 언어 지도 (linguistic map)를 제안한다. 이 언어 지도들은 명확한 값 (crisp value)을 퍼지 제어기에서 사용하는 불명확한 값 (fuzzy value) 으로 변환하는 역할을 흐!■며, 퍼지화 (Fuzzyfication) 방법으로는 가장 많이 사용되는 이등변 삼각형 방법을 택하였다.

대상 데이터

  • 등이 있다. [1], 이 중에서 본 논문은 가장 닐리사용되는 시스템인 Middle League MiroSot 환경을 이용하였다. Middle League MiroSote 7.
  • 실험 환경은 pentium Ⅲ 2.2GHz Celeron CPU를 탑재하고 있는 데스크탑 컴퓨더로 하였으며, 실험 시에는 컴퓨터에 부하를 줄 불필요한 프로그램은 모두 다 끄고, 오직 필요한 프로그램인 SimuroSot프로그램과 VC++6.0 만 구동하였다. 실험을 위해 VC++6.

이론/모형

  • 그러나 다양한 분야에서 이동 로봇들이 보다 적절하고 원활하게 활용되기 위해서는 로봇 하나하나의 행동 보다는 로봇들 간의 협력이 중요시될 것이다. 본 논문은 이러한 이동 로봇들 간의 협력 체계를 구성하는 방법의 퍼지 논리를 제시하기 위하여 로봇축구 시스템을 활용하였다.
  • (a)의 口로봇과 같이 공에 접근하여 상대방 골대로 공을 몰아가는 경로를 생성한다. 이를 위해서 본 논문은 Limit-cycle Navigation⑸을 택하였다. Limit-cycle Navigatione 이전에 많이 사용되어진 비 터 장법[6]에 비하여 모는 영역의 위치에서 원하는 원으로 로봇을 움직이게 하는 필드를 식(7)과 같이 간단한 식으로 표현할 수 있다.
  • 퍼지 추론기로부터 출력된 여러 개의 비정확한 값(fuzzy value)들을 모아 정확한 값(crisp value)으로 변형시키는 Defuzzification 방법으로는 다음 식과 같이 Center-average 방법을 사용하였다.
본문요약 정보가 도움이 되었나요?

참고문헌 (8)

  1. 김종환 저 , 로봇축구 시스템. 대영사. 2000 

  2. 김종환 外 8인, 로봇축구공학, 브레인코리아, 2002 

  3. J.H. Kim, K-C. Kim, D.-H. Kim, Y.-J. Kim and P. Vadakkepat, 'Path Planning and Role Selection Mechanism for Soccer Robots,' IEEE Int'l Conf. on Robotics and Automation, Belguim, Pp. 3216-3221, May 1998 

  4. K - H. Park, Y - J Kim and J -H. Kim, 'Modular Q-learning based Multi-agent Cooperation for Robot Soccer', Robotics and Autonomous Systems, vol. 35, no. 2, pp. 109-122, May.2001 

  5. Dong-Han Kim and Jong-Hwan Kim, 'Limit-cycle Navigation Method for Soccer Robot,' Intet-national Conference on Artificial Intelligence, Las Vegas, June 25-28, 200l 

  6. D.H. Kim, Y-J Kim, K-C. Kim, J-H. Kim and P. Vadakkepat, 'Vector Field Based Path Planning and Petri-net Based Role Selection Mechanism with Q-learning for the Soccer Robot System,' Intelligent Automation and Soft Computing, Vol. 6, No.1, 2000 

  7. Li-Xin Wang, A course in Fuzzy Systems and Control, Prentice Hall PTR, 1997 

  8. K. Kostiadis and H. Huosheng, 'Reinforcement learning and co-operation in a simulated multi- agent system,' in Proc. 1999 IEEE/RSJ Int. Conf. Intelligent Robots Systems, vol. 2, Oct. 17.21, 1999, pp. 990.995 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로