최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국해양정보통신학회논문지 = The journal of the Korea Institute of Maritime Information & Communication Sciences, v.15 no.6, 2011년, pp.1213 - 1220
서동훈 (충남대학교 대학원) , 이원돈 (충남대학교 전기정보통신공학부)
In this paper, a new ensemble system using dynamic weighting method with added weight information into classifiers is proposed. The weights used in the traditional ensemble system are those after the training phase. Once extracted, the weights in the traditional ensemble system remain fixed regardle...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
앙상블 시스템이란 무엇인가? | 앙상블 시스템이란 두 개 이상의 분류자들을 사용하여 결과를 예측하는 데이터 마이닝 기술 중 하나이다. Hansen 과 Salamon은 1990년에 신경 회로망들로 배열된 시스템을 통해 한 개의 신경 회로망을 사용하는 것보다 더 나은 성능을 보여주었다. | |
AdaBoost 알고리즘은 앙상블 시스템 분야에서 어떤 역할을 하였는가? | [3][4] 앙상블 시스템 분야에서 AdaBoost는 매우 중요한 역할을 하였다. 첫째로 앙상블 시스템의 기본 모형을 제공하였다. 둘째로 강한 분류자를 만들기 어려운 분야에서 약한 분류자들의 조합만으로 성능을 개선할 수 있다는 장점을 보여주었다. 이런 장점들은 앙상블 시스템의 학문적 성장에 도움을 주었고 많은 연구자들은 다양한 이름의 앙상블 시스템을 제안하였다. | |
관문 네트워크란 무엇인가? | 앙상블 시스템의 연구 분야 중 하나인 전문가들의 혼합 분야에서 연구된 방법들은 대부분 관문 네트워크(gating network)를 사용하여 구현되었다. 관문 네트워크란 앙상블 시스템을 구성하는 다수의 분류자들을 분류를 위하여 조합할 때, 각각의 분류자들의 weight 값을 입력 값에 의존하여 결정하는 네트워크를 말한다. 일반적인 앙상블 시스템들은 훈련 중 각각의 분류자들에게 중요도들을 할당한다. |
L.K Hansen and P.Salamon, "Neural network ensembles," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 12, no. 10, pp993-1001, 1990.
R.E Schapire, "The strength of weak learnability," Machine Learning, vol.5, no. 2, pp. 197-227, 1990.
Yoav Freund and Robert E. Schapire. "A decisiontheoretic generalization of on-line learning and an application to boosting," Journal of Computer and System Sciences, 55(1):119-139, August 1997.
Y. Freund and R. Schapire. "A Short Introduction to Boosting," Journal of Japanese Society for Artificial Intelligence, 14(5):771-780, 1999.
K. Woods, W.P.J. Kegelmeyer, and K. Bowyer, "Combination of multiple classifiers using local accuracy estimates," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 19, no. 4, pp. 405-410, 1997.
R. Battiti and A.M. Colla, "Democracy in neural nets: Voting schemes for classification," Neural Networks, vol. 7, no. 4, pp. 691-707, 1994.
L. Xu, A. Krzyzak, and C.Y. Suen, "Methods of combining multiple classifiers and their applications to handwriting recognition," IEEE Transactions on Systems, Man and Cybernetics, vol. 22, no. 3, pp. 418-435, 1992.
T.K. Ho, J.J. Hull, and S.N. Srihari, "Decision combination in multiple classifier systems," IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 16, no. 1, pp. 66-75, 1994.
G. Rogova, "Combining the results of several neural network classifiers," Neural Networks, vol. 7, no. 5, pp. 777-781, 1994.
L. Lam and C.Y. Suen, "Optimal combinations of pattern classifiers," Pattern Recognition Letters, vol. 16, no. 9, pp. 945-954, 1995.
H. Drucker, C. Cortes, L.D. Jackel, Y. LeCun, and V. Vapnik, "Boosting and other ensemble methods," Neural Computation, vol. 6, no. 6, pp. 1289-1301, 1994.
L.I. Kuncheva, "Classifier ensembles for changing environments," 5th Int. Workshop on Multiple Classifier Systems, Lecture Notes in Computer Science, F. Roli, J. Kittler, and T. Windeatt, Eds., vol. 3077, pp. 1-15, 2004.
R.A. Jacobs, M.I. Jordan, S.J. Nowlan, and G.E. Hinton, "Adaptive mixtures of local experts," Neural Computation, vol. 3, pp. 79-87, 1991.
M.J. Jordan and R.A. Jacobs, "Hierarchical mixtures of experts and the EM algorithm," Neural Computation, vol. 6, no. 2, pp. 181-214, 1994.
R.E Schapire, "The strength of weak learnability," Machine Learning, vol. 5, no. 2, pp. 197-227, 1990
L. Breiman, "Bagging predictors," Machine Learning, vol. 24, no. 2, pp. 123-140, 1996
C.J. Merz and P. M. Murphy. UCI repository of machine learning databases, 1998. www.ics.uci.edu/-mlearn/MLRepository.html
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.