최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국콘텐츠학회논문지 = The Journal of the Korea Contents Association, v.9 no.1, 2009년, pp.123 - 130
When we apply MLPs(multilayer perceptrons) to pattern classification problems, we generally allocate one output node for each class and the index of output node denotes a class. On the contrary, in this paper, we propose to increase the number of output nodes per each class for performance improveme...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
출력노드 수를 증가시킨다고 성능이 지속적으로 좋아지지는 않은 이유는 무엇인가? | 그렇지만, 출력노드 수를 증가시킨다고 성능이 지속적으로 좋아지지는 않았다. 그 이유는 이론적 유도에서 세운 가정-출력노드가 클래스 내에서 균일분포를 지닌다-이 성립되지 않기 때문으로 추정된다. | |
MLP의 학습은 어떤 알고리즘을 따르는가? | 그렇지만, MLP의 학습은 MSE(mean-squared error)를 최소화 시키는 EBP(error back-propagation) 알고리즘[4]을 따르는데, 이 EBP 알고리즘의 학습속도가 느리거나 혹은 시험패턴에 대한 인식률이 충분치 않다는 단점을 해결하기 위하여 많은 개선책들이 제안되었다. | |
다층퍼셉트론이 많은 응용 문제에 적용될 수 있었던 근거는 무엇인가? | 다층퍼셉트론(MLP: multilayer perceptron)은 충분한 중간층 노드 수가 있으면 임의의 함수를 근사화 할 수 있다는 수학적 증명을 근거로 많은 응용 문제에 적용되어 왔으며, 특히 패턴인식 문제에 많이 사용되었다[1]. 패턴인식 문제에 사용되는 경우, MLP의 구조에서 출력층 노드는 패턴의 클래스(class) 수만큼 주어져, 하나의 출력노드가 하나의 클래스를 대표하게 된다. |
Y. Ito, "Approximation of continuous functions on rdby linear combinations of shifted rotations of a sigmoid function with and without scaling," Neural Networks, Vol.5, pp.105-115, 1992.
H. White, "Learning in artificial neural networks: a statistical perspective," Neural Computation, Vol.1, pp.425-464, 1989.
Y. Lee, S.-H. Oh, and M. W. Kim, "An analysis of premature saturation in back-propagation learning," Neural networks, Vol.6, pp.719-728, 1993.
A. van Ooyen and B. Nienhuis, "Improving the convgence of the back-propagation algorithm," Neural Networks, Vol.5, pp.465-471, 1992.
S.-H. Oh, "Improving the error back-propagation algorithm with a modified error function," IEEE Trans. Neural Networks, Vol.8, pp.799-803, 1997.
J. B. Hampshire II and A. H. Waibel, "A novel objective function for improved phoneme recognirtion using time-delay neural networks," IEEE Trans. Neural Networks, Vol.1, pp.216-228, 1990(6).
B. B. Chaudhuri and U. Bhattacharya, "Efficient training and improved performance of multilayer perceptron in pattern classification," Neurocomputing, Vol.34, pp.11-27, 2000.
F. J. Owens, G. H. Zheng, and D. A. Irvine, "A multi-output-layer perceptron," Neural Computation & Applications, Vol.4, pp.10-20, 1996.
T. P. Vogl, J. K. Mangis, A. K. Rigler, W. T. Zink, and D. L. Alkon, "Accelerating the convergence of the back-propagation method," Biol. Cybern., Vol.59, pp.257-263, 1988.
J. Y. F. Yam and W. S. Chow, "Extended least squares based algorithm for training feedfoward networks," IEEE Trans. Neural Networks, Vol.8, pp.806-810, 1997.
R. Paris, E. D. Di Claudio, G. Orlandi, "A generalized learning paradigm exploiting the structure of feedforward neural networks," IEEE Trans. Neural Networks, Vol.7, pp.1450-1459, 1996.
C. Yu, M. T. Manry, J. Li, and P. L. Narasimha, "An efficient hidden layer training method for multilayer perceptron," Neurocomputing, Vol.70, pp.525-535, 2006.
S.-H. Oh and S.-Y. Lee, "A new error function at hidden layers for fast training of multilayer perceptrons," IEEE Trans. Neural Networks, Vol.10, pp.960-964, 1999.
J.-H. Jeong, H. Kim, D.-S. Kim, and S.-Y. Lee, "Speaker adaptation based on judge neural networks for real world implementations of voice-command systems," Information Science, Vol.123, pp.13-24, 2000.
D.-S. Kim, S.-Y. Lee, and R.-M. Kil, "Auditory processig of speech signals for robust speech recognition in real-worldnoisy environments," IEEE Trans. Speech and Audio Processing, Vol.7, pp.55-69, 1999.
J. J. Hull, "A database for handwritten text recognition research," IEEE Trans. Pat. Ana. Mach. Int., Vol.16, pp.550-554, 1994.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.