최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기韓國컴퓨터情報學會論文誌 = Journal of the Korea Society of Computer and Information, v.16 no.8, 2011년, pp.39 - 47
Ergezinger's method, one of the layer-by-layer algorithms used for multilyer perceptrons, consists of an output node and can make premature saturations in the output's weight because of using linear least squared method in the output layer. These saturations are obstacles to learning time and coverg...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
Ergezinger 방법은 출력노드가 몇개로 구성되어 있는가? | 다층퍼셉트론의 계층별 학습 방법의 하나인 Ergezinger 방법은 출력 노드가 1개로 구성되어 있고, 출력층의 가중치를 최소자승법으로 학습하기 때문에 출력층의 가중치에 조기포화 현상이 발생할 수 있다. 이런 조기 포화현상은 학습 시간과 수렴 속도에 장애가 된다. | |
다층퍼셉트론의 학습 알고리즘으로 많이 사용되는 오류역전파학습의 단점은 ? | 다층퍼셉트론(MultiLayer Perceptrons)의 학습 알고리즘으로 많이 사용되는 오류역전파(Error Back Propagation) 학습은 기본적으로 오차 함수의 1차 미분을 이용한 최급 강하법을 사용하기 때문에 수렴 속도가 느리고 학습 시간이 오래 걸리는 단점이 있다[1,2]. 이런 단점을 해결하기 위해, 학습상수의 조정, 모멘텀 항 추가, 은닉층의 선형 근사화 등 다양한 방법들이 제안되어 왔다[3,4,5,6]. | |
다층퍼셉트론의 계층별 학습 방법의 하나인 Ergezinger 방법시 조기포화 현상은 어떤 영향을 끼칠 수 있는가? | 다층퍼셉트론의 계층별 학습 방법의 하나인 Ergezinger 방법은 출력 노드가 1개로 구성되어 있고, 출력층의 가중치를 최소자승법으로 학습하기 때문에 출력층의 가중치에 조기포화 현상이 발생할 수 있다. 이런 조기 포화현상은 학습 시간과 수렴 속도에 장애가 된다. 따라서, 본 논문은 Ergezinger의 학습 방법을 출력층에서 벡터 형태로 학습할 수 있는 알고리즘으로 확대하고 학습 시간과수렴 속도를 개선하기 위해서 학습 상수를 도입한다. |
D. E. Rumelhart, and J. L. McClelland, Parallel Distributed Processing, MIT Press, Cambridge, MA, pp. 318-362, 1986.
Kyong Ho Lee, "A Study on the Implementation of Serious Game Learning Multiplication Table using Back Propagation Neural Network on Divided Interconnection Weights Table," Journal of The Korea Society of Computer and Information, Vol. 14, No. 10, pp. 233-240, Oct. 2009.
T. P. Vogal, J. K. Mangis, A. K. Zigler, W. T. Zink ,and D. L. Alkon, "Accelerating the convergence of the backpropa gation method," Biological Cybernetics, Vol. 59, pp. 256-264, Sept. 1988.
T. Tollenaere, "SuperSAB: Fast adaptive back propa gation with good scaling properties," Neural Networks, Vol. 3, No. 5, pp. 561-573, 1990.
M. Kordos andW. Duch, "Variable step search algorit hmfor feedforward networks," Neurocomputing, Vol. 71, pp. 2470-2480, April 2008.
S. Ergezinger, and E. Thomsen, "An accelerated lear ning algorithm for multilayer perceptrons optimizati on Layer by Layer," IEEE Trans. on Neural Networks, Vol. 6, No. 1, pp. 31-42, June 1995.
Rolnald E. Miller, "Optimization," JohnWiley & Son, INC. pp. 358-362, 2000.
M. T. Hagan, and M. Menhaj, "Training feedforward net works with the Marquardt algorithm," IEEE Trans. on Neural Networks, Vol. 5, No. 6, pp. 989-993, Nov. 1994.
Young-Tae Kwak, "Accelerating Levenberg- Marqua rdt Algorithm using Variable Damping Parameter," Journal of The Korea Society of Computer and Information, Vol. 15, No. 4, pp. 57-63, April 2010.
C. Charalambous, "Conjugate gradient algorithmfor efficient training of artificial neural networks," IEEE Proceedings, Vol. 139, No. 3, pp. 301-310, 1992.
Wei Chu, Chong Jin Ong, and Keerthi S.S., "An imp roved conjugate gradient scheme to the solution of least squares SVM," IEEE Trans. on Neural Networks, Vol. 16, No. 2, pp. 498-501, March 2005.
B. Ph. van Milligen, V. Tribaldos, J. A. Jimenez, an d C. Santa Cruz, ''Comments on "An accelerated learning algorithm for multilayer perceptrons optimization layer by layer"," IEEE Trans. on Neural Networks, Vol. 9, No. 2, pp. 339-341, March 1998.
Jim Y. F. Yam, and Tommy W. S. Chow, ''Extended least squares based algorithms for training feedforward networks," IEEE Trans. on Neural Networks, Vol. 8, No. 3, pp. 806-810, May 1997.
UCI Machine Learning Repository http://archive.ics.uci.edu/ml/
F. Biegler-Kong, and F. Barmann, "Alearning algo rithmfor multilayered neural networks based on linear squares problems," Neural Networks, Vol. 6, pp. 127-131, 1993.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.