$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

일반화 신경망의 개선된 학습 과정을 위한 최적화 신경망 학습률들의 효율성 비교
A Comparison of the Effects of Optimization Learning Rates using a Modified Learning Process for Generalized Neural Network 원문보기

응용통계연구 = The Korean journal of applied statistics, v.26 no.5, 2013년, pp.847 - 856  

윤여창 (우석대학교 정보보안학과) ,  이성덕 (충북대학교 정보통계학과)

초록
AI-Helper 아이콘AI-Helper

본 연구에서는 Liu 등의 학습 알고리즘과 Wu와 Zhang의 초기 가중값의 범위 설정, 그리고 Gunaseeli와 Karthikeyan의 초기 가중값에 관한 연구 결과를 이용하여 일반화 네트워크를 구할 수 있는 개선된 학습을 제안하고, 최적화된 신경망 학습률들을 이용하여 개선된 학습 과정의 학습효율등을 비교해 본다. 제시된 알고리즘을 이용한 학습에서 학습 초기에는 가장 단순한 학습 패턴과 은닉층으로부터 학습을 시작한다. 신경망 학습과정 중에 지역 최소값에 수렴되는 경우에는 가중값 범위 조정을 통하여 지역 최소값 문제를 해결하고, 지역 최소값으로부터 탈출이 용이하지 않으면 은닉노드를 점차적으로 하나씩 추가하면서 학습한다. 각 단계에서 새롭게 추가된 노드에 대한 초기 가중값의 선택은 이차계획법을 이용한 최적 처리절차를 이용한다. 최적 처리절차는 은닉층의 노드가 추가된 후의 새로운 네트워크에서 학습회수를 단순히 증가시키지 않아도 주어진 학습 허용오차를 만족시킬 수 있다. 본 연구에서 적용한 개선된 알고리즘을 이용하면서 초기 가중값들에 관한 기존 연구들을 적용하면 신경망 학습시의 수렴 정도를 높여주고 최소한의 단순 구조를 갖는 일반화 네트워크로 추정할 수 있게 된다. 이러한 학습률들을 변화시키는 모의실험을 통하여 기존의 연구 결과와의 학습 효율을 비교하고 향후 연구 방향을 제시하고자 한다.

Abstract AI-Helper 아이콘AI-Helper

We propose a modified learning process for generalized neural network using a learning algorithm by Liu et al. (2001). We consider the effect of initial weights, training results and learning errors using a modified learning process. We employ an incremental training procedure where training pattern...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구에서는 일반화 네트워크를 찾기 위하여, 은닉노드의 개수와 학습패턴을 각각 하나씩 점차적으로 증가시키면서 학습주기마다 확인되는 허용오차의 변화를 이용하여 각 단계에서 비교된 최적의 모형을 선택할 수 있도록 하는 일반화 신경망의 개선된 학습과정을 제안한다. 그리고 이 개선된 학습 알고리즘을 신경망에 적용할 때 나타나는 신경망 학습의 효과 즉, 초기 가중값, 학습량 그리고 학습오차 등과 같은 주요 학습률들의 변화에 대하여 살펴본다. 개선된 학습과정은 초기 가중값의 범위설정에 관한 Wu와 Zhang (2002)의 연구 결과와 Liu 등 (2001)의 신경망 학습과정을 이용하고, Al-Shareef와 Abbod (2010)의 최적화 초기 가중값을 이용하 여 일반화 네트워크를 구할 수 있도록 한다.
  • 본 연구에서는 일반화 네트워크를 찾기 위하여, 은닉노드의 개수와 학습패턴을 각각 하나씩 점차적으로 증가시키면서 학습주기마다 확인되는 허용오차의 변화를 이용하여 각 단계에서 비교된 최적의 모형을 선택할 수 있도록 하는 일반화 신경망의 개선된 학습과정을 제안한다. 그리고 이 개선된 학습 알고리즘을 신경망에 적용할 때 나타나는 신경망 학습의 효과 즉, 초기 가중값, 학습량 그리고 학습오차 등과 같은 주요 학습률들의 변화에 대하여 살펴본다.
  • Framling (2004), Zhang와 Jiang (2010) 등의 신경망 학습 알고리즘에 관한 최근의 연구 결과들은 많은 경우에서 수렴 속도를 어떻게 증진시키는가에 주로 초점을 두고 있다. 이들 연구에서 가장 중요한 문제점 중의 하나는 전역 최소값을 찾지 못하고 지역 최소값으로 수렴되는 경우에 이를 해결할 수 있는 방안을 찾는 것이다. 이들이 적용한 알고리즘의 학습과정은 수렴 속도를 개선시키고는 있지만 일반적인 비선형 문제에서 목적한 학습에 도달하지 못하고 지역 최소값에 수렴됨으로써 발생되는 포화(saturation)문제의 개선이 대부분이다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
시계열 자료를 분석하는 일반적인 분석방법으로 주로 어떤 모형을 사용해왔는가? 시계열 자료를 분석하는 일반적인 분석방법은 선형 및 비선형 시계열 모형을 주로 사용해왔다. 최근 신경망을 이용하여 시계열 자료를 분석하고 예측하는 연구가 많은데 특히 단기예측에 있어서 매우 유익한 방법임이 많은 연구의 결과로 인정되어 있다.
학습을 위한 오차 판단기준으로는 어떤 것을 이용하였는가? 예측은 여기서 선택된 구조를 사용하였다. 학습을 위한 오차 판단기준으로는 MSE와 평균절대값오차(Mean Absoluted Error; MAE)를 이용하였다.
신경망방법을 이용한 예측결과의 한계점은 무엇인가? 이들은 신경망방법을 이용한 예측결과가 Box-Jenkins 방법만큼 효율적임을 보였다. 그러나 시계열 자료에 주기성(periodicity)이 있는 경우에는 신경망이 Box-Jenkins 방법보다 별 효과가 없었다. White (1988)은 상관관계가 높은 자료로써 미국 IBM의 일별 주식값 변동자료에 대한 신경망 예측을 하였다.
질의응답 정보가 도움이 되었나요?

참고문헌 (17)

  1. Al-Shareef, A. J. and Abbod, M. F. (2010). Neural Network Initial Weights Optimisation, 12th International Conference on Computer Modelling and Simulation, 57-61. 

  2. Anthony, M. and Bartlett, P. L. (2009). Neural Network Learning: Theoretical Foundations, Cambridge University Press. 

  3. Diotalevi, F. and Valle, M. (2001). Weight Perturbation Learning Algorithm with Local Learning Rate Adaptation for the Classification of Remote-Sensing Images, Proceedings of European Symposium on Artificial Neural Networks, 217-222. 

  4. Framling, K. (2004). Scaled Gradient Descent Learning Rate: Reinforcement Learning with Light-seeking Robot, Proceedings of International Conference on Informatics in Control, Automation and Robotics, 3-11. 

  5. Fukuoka, Y., Matsuki, H., Minamitani, H. and Ishida, A. (1998). A modified back-propagation method to avoid false local minima, Neural Network, 11, 1059-1072. 

  6. Gunaseeli, N. and Karthikeyan, M. (2007). A Constructive Approach of Modified Standard Backpropagation Algorithm with Optimum Initialization for Feedforward Neural Networks, International Conference on Computational Intelligence and Multimedia Application, 325-331. 

  7. Haykin, S. (2010). Neural Networks and Learning Machines, 3rd Ed., PHI Learning Private Limited. 

  8. Liu, D., Chang, T. S. and Zhang, Y. (2001). A New Learning Algorithm for Feedforward Neural Networks, Proceedings of IEEE, International Symposium on Intelligent Control, 39-44. 

  9. Maasoumi, E., Khotanzad, A. and Abaye, A. (1994). Artificial neural networks for some macroeconomic series : A first report, Econometric Reviews, 13, 105-122. 

  10. Maghami, P. G. and Sparks, D. W. (2000). Design of neural networks for fast convergence and accuracy: Dynamics and control, IEEE Trans. Neural Networks, 11, 113-123. 

  11. Parekh, R., Yang, J. and Honavar, V. (2000). Constructive neural-network learning algorithms for pattern classification, IEEE Trans. Neural Networks, 11, 436-451. 

  12. RoyChowdhury, P., Singh, Y. P. and Chansarkar, R. (1999). Dynamic tunneling technique for efficient training of multilayer perceptrons, IEEE Trans, Neural Networks, 10, 48-55. 

  13. Sharda, R. and Patil, R. B. (1990). Neural Networks as Forecasting Experts : An Empirical Test,Proceeding of the IJCNN Meeting, 491-494. 

  14. White, H. (1988). Economic Prediction Using Neural Networks : The Case of IBM Stock Prices, Proceedings of the Second Annual IEEE Confernece in Neural Networks, 2, 451-458. 

  15. Wu, Y. and Zhang, L. (2002). The Effect of Initial Weight, Learning Rate and Regularization on Generalization Performance and Efficiency, Proceedings on ICSP, 1191-1194. 

  16. Yam, J. Y. F. and Chow, T. W. S. (2000). A Weight Initialization Method for Improving Training Speed in Feedforward Neural Network, IEEE Trans. Neural Networks, 30, 219-232. 

  17. Zhang, Y. and Jiang, Q. (2010). An Improved Initial Method for Clustering High-Dimensional Data, 2nd International Workshop on Database Technology and Applications, 1-4. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로