$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

신경망 학습의 일반화 성능향상을 위한 인자들의 결합효과
The Joint Effect of factors on Generalization Performance of Neural Network Learning Procedure 원문보기

정보처리학회논문지. The KIPS transactions. Part B. Part B, v.12B no.3 = no.99, 2005년, pp.343 - 348  

윤여창 (우석대학교 전산통계학과)

초록
AI-Helper 아이콘AI-Helper

본 연구에서는 신경망 학습의 일반화 성능과 학습속도를 개선시키기 위한 인자들의 결합 효과를 살펴본다. 신경망 학습에서 중요한 평가 척도로서 여기서 고려하는 인자들에는 초기 가중값의 범위와 학습률 그리고 계수조정 등이 있다. 특히 초기 가중값과 학습률을 고정시킨 후 새롭게 조정된 계수들을 단계적으로 변화시키는 새로운 인자 결합방법을 이용한다. 이를 통하여 신경망 학습량과 학습속도를 비교해 보고, 계수조정을 통한 개선된 학습 영향을 살펴본다. 그리고 비선형의 단순한 예제를 이용한 실증분석을 통하여 신경망 모형의 일반화 성능과 학습 속도 개선을 위한 각 인자들의 개별 효과와 결합 효과를 살펴보고 그 개선 방안을 논의한다.

Abstract AI-Helper 아이콘AI-Helper

The goal of this paper is to study the joint effect of factors of neural network teaming procedure. There are many factors, which may affect the generalization ability and teaming speed of neural networks, such as the initial values of weights, the learning rates, and the regularization coefficients...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 초기 가중값과 학습률, 그리고 계수조정의 효과는 실증분석을 통하여 살펴보고, 제시 된 방법들을 결합한 학습에서의 신경망 학습량과 학습오차 들을 기존의 연구에서 많이 이용하고 있는 간단한 비선형함 수모형을 이용하여 그 비교 결과를 제시한다. 마지막으로 결론과 향후 연구방향을 제시하고자 한다.
  • 이 연구에서는 비선형의 적응적 학습시스템을 위한 신경 망 모형의 일반화 성능과 실시간 학습에 영향을 주는 몇 가지 중요한 인자(factor)들을 살펴보고 이들 인자들의 결합효 과 등을 논의한다. 특히 Zhang, et al[l]의 개선된 알고리즘을 이용한 학습을 통하여, 신경망의 일반화 성능과 학습속 도에 크게 영향을 주고 있는 인자들 즉, 초기 가중값의 범 위, 학습률 그리고 계수조정 등을 통한 학습의 효과를 살펴 본다.
  • 이 연구에서는 비선형의 적응적 학습시스템을 위한 일반 화 성능과 실시간 학습에 영향을 주는 중요한 인자들인 초기 가중값의 범위, 학습률 그리고 계수조정 등을 통한 신경 망 학습의 효과를 살펴보았다. 그리고 이들 인자들의 영향 비교를 토대로 세가지 인자들을 동시에 고려하는 결합방법을 논의하였다.
  • 이 절에서는 신경망 학습의 일반화 성능과 효율에 영향을 주는 초기 가중값이 학습과정에 어떻게 영향을 미치는가를 살펴본다. 일반적으로 신경망 학습과정에 많이 이용되고 있는 오차감소 방법으로는 격자감소(gradient descent) 알고리즘을 들 수 있다.
  • 이 절에서는 신경망의 일반화 성능과 효용을 높이기 위하여 초기 가중값의 범위, 학습률 그리고 계수조정의 결합 효과를 살펴본다. 신경망에서 각 인자들의 학습 효과를 극대 화하기 위하여 각 인자들을 설정된 범위 내에서 초기 학습 을 하고, 새로운 결합분석 방법을 이용하여 보다 학습효과가 높은 인자들을 이용한 학습을 한다.
본문요약 정보가 도움이 되었나요?

참고문헌 (10)

  1. Y. Zhang, D. Liu and T.S. Chang, 'A New Learning Algorithm for Feedforwad Neural Networks,' Proceedings of the IEEE International Symposium on Intelligent Control, pp.39-44, 2001 

  2. Y. Wu and L. Zhang, 'The Effect of Initial Weight, Learning Rate and Regularization on Generalization Performance and Efficiency,' ICSP Proceedings, pp.1191-1194, 2002 

  3. V. Cherkassky, R. Shepherd, 'Regularization effect of weight initialization in back propagation networks,' 1998 World Congress on Computational Intelligence, pp.2258-2261, 1998 

  4. R.A. Jacobs, 'Increased Rates of convergence Through Learning Rate Adaptation,' Neural Networks, Vol.1, No.4, pp.295-307, 1988 

  5. T. Tollenaere, 'SuperSAB: Fast Adaptive back-propagation with Good Scaling Properties,' Neural Networks, Vol.3, No.5, pp.561-573, 1990 

  6. D.R. Wilson and T.R. Martinez, 'The Need for Small Learning Rates on Large Problem,' International Joint Conference on Neural Network, pp.115-119, 2001 

  7. A.S. Weigend, D.E. Rumelhart and B.A. Huberman, 'Generalization by Weight-Elimination with Application to Forecasting,' in Advances in Neural Information Processing Systems, San Mateo, CA: Morgan Kaufmann, pp.875-882, 1991 

  8. S. Bo, 'Optimal Weight Decay in Perceptron,' Proceedings of the International Conference on Neural Networks, pp.551-556, 1996 

  9. A. Atiya and C.Y. Ji, 'How Initial Conditions affect Generalization Performance in Large Networks,' IEEE Transaction on Neural Networks, Vol.8, No.2, pp.448-451, 1997 

  10. M.H. Hassoun, 'Fundamentals of Artificial Neural Networks', MIT Press, 1995 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로