$\require{mediawiki-texvc}$
  • 검색어에 아래의 연산자를 사용하시면 더 정확한 검색결과를 얻을 수 있습니다.
  • 검색연산자
검색연산자 기능 검색시 예
() 우선순위가 가장 높은 연산자 예1) (나노 (기계 | machine))
공백 두 개의 검색어(식)을 모두 포함하고 있는 문서 검색 예1) (나노 기계)
예2) 나노 장영실
| 두 개의 검색어(식) 중 하나 이상 포함하고 있는 문서 검색 예1) (줄기세포 | 면역)
예2) 줄기세포 | 장영실
! NOT 이후에 있는 검색어가 포함된 문서는 제외 예1) (황금 !백금)
예2) !image
* 검색어의 *란에 0개 이상의 임의의 문자가 포함된 문서 검색 예) semi*
"" 따옴표 내의 구문과 완전히 일치하는 문서만 검색 예) "Transform and Quantization"
쳇봇 이모티콘
안녕하세요!
ScienceON 챗봇입니다.
궁금한 것은 저에게 물어봐주세요.

논문 상세정보

지능형 로보트 시스템을 위한 영역기반 Q-learning

Region-based Q-learning for intelligent robot systems

Abstract

It is desirable for autonomous robot systems to possess the ability to behave in a smooth and continuous fashion when interacting with an unknown environment. Although Q-learning requires a lot of memory and time to optimize a series of actions in a continuous state space, it may not be easy to apply the method to such a real environment. In this paper, for continuous state space applications, to solve problem and a triangular type Q-value model\ulcorner This sounds very ackward. What is it you want to solve about the Q-value model. Our learning method can estimate a current Q-value by its relationship with the neighboring states and has the ability to learn its actions similar to that of Q-learning. Thus, our method can enable robots to move smoothly in a real environment. To show the validity of our method, navigation comparison with Q-learning are given and visual tracking simulation results involving an 2-DOF SCARA robot are also presented.

저자의 다른 논문

참고문헌 (9)

  1. Learning behavior control by reinforcent for an autonomous mobilc robot , M. A. Salichs;E. A. Puente;D. Gachet;J. R. Pementel , IEEE Conference on R&A / v.1,pp.1436-1441, 1993
  2. Programming robots using reinforcement learning and teaching , L. J. Lin , Proc. of the Ninth National Conference on Artificial Intelligence / v.,pp., 1991
  3. Practical Issues in Temporal Difference Learning , G. Tesauro , Machine Learning / v.,pp., 1992
  4. Fuzzy interpolation based Q-leaning with continuous states and actions , T. Horiuchi;A. Fujino;O. Katai;T. Sawaragi , IEEE Conference on Fuzzy Systems / v.1,pp.594-600, 1996
  5. A new approach for fuzzy dynamic programming , H. R. Berenji;Fuzzy Q learning , IEEE Conference on R&A / v.1,pp.486-491, 1994
  6. Learning and tuning fuzzy logic controllers through reinforcement , H. Berenji;P. Khedkar , IEEE Trans. on Neural Networks / v.3,pp., 1992
  7. Q-learning, technical note , C. Watkins;P. Dayan , Machine Learning / v.8,pp.279-292, 1992
  8. Fuzzy Q-learning and dynamical fuzzy Q-learning , P. Y. Glorennec , IEEE Conference on R&A / v.1,pp.474-479, 1994
  9. Learning from delayed rewards , C. Watkins , Ph.D. Thesis, University of Combridge / v.,pp., 1989

이 논문을 인용한 문헌 (0)

  1. 이 논문을 인용한 문헌 없음

원문보기

원문 PDF 다운로드

  • ScienceON :

원문 URL 링크

원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다. (원문복사서비스 안내 바로 가기)

상세조회 0건 원문조회 0건

DOI 인용 스타일