$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

부스팅 인공신경망학습의 기업부실예측 성과비교
An Empirical Analysis of Boosing of Neural Networks for Bankruptcy Prediction 원문보기

한국해양정보통신학회논문지 = The journal of the Korea Institute of Maritime Information & Communication Sciences, v.14 no.1, 2010년, pp.63 - 69  

김명종 (동서대학교 경영학부) ,  강대기 (동서대학교 컴퓨터정보공학부)

초록
AI-Helper 아이콘AI-Helper

최근 기계학습 분야에서 분류자의 정확도 개선을 위하여 제안된 다양한 방법들 중 가장 큰 주목을 받고 있는 학습방법 중 하나는 앙상블 학습이다. 그러나 앙상블 학습은 의사결정트리와 같이 불안정한 학습 알고리즘의 성과 개선 효과는 탁월한 반면, 인공신경망과 같이 안정적인 학습알고리즘의 성과 개선 효과는 응용 분야와 구현 방법에 따라 서로 상반된 결론들을 보여주고 있다. 본 연구에서는 국내 기업의 부실화 예측문제를 활용하여 인공신경 망 분류자 및 대표적 앙상블 학습기법인 부스팅 분류자를 적용한 결과 앙상블 학습은 기업부실 예측문제에 있어 전통적 인공신경망의 성과를 개선할 수 있음을 검증하였다.

Abstract AI-Helper 아이콘AI-Helper

Ensemble is one of widely used methods for improving the performance of classification and prediction models. Two popular ensemble methods, Bagging and Boosting, have been applied with great success to various machine learning problems using mostly decision trees as base classifiers. This paper perf...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 이 러 한 연구들은 첫째, NN 앙상블이나 SVM 앙상블의 성과 저하의 원인을 분석 하고 둘째, 전통적 인 앙상블 학습과는 차별화된 학습전략을 이용하여 앙상블 학습의 성과를 개선하는데 초점을 맞추고 있다. 마지 막으로, 이 러 한 연구 결과를 기초로 각 분류자의 일반적 학습 특성 및 향후 앙상블 학습에 고려해야 할 요인에 대한 통찰력을 제공하는 것을 목적으로 하고 있다. 본 연구에서는 전통적 인공신경망 분류자와 앙상블 학습의 대표적 기법인 부스팅 알고리즘을 부실예측 문제에 적용하여 성과 측면에서 각 분류자들의 효과를 분석 하고자 한다.
  • 본 연구에서는 7개 재무비율 사이의 다중 공선 성의 존재 여부를 확인하기 위하여 분산팽창요인(Variance Inflation Factors: VIF) 분석 을 실 시 하였다. VIF는 회 귀 계수 추정 치 의 분산이 이 상적 인 경 우(서 로 직 교하는 경 우) 에 비해 얼마만큼 계수 추정치들의 분산이 팽창하는가를 알려주는 척도이며, k번째 변수의 VIF는 다음과 같이 계산된다.
  • 본 연구에서는 부실예측 인공신경망의 성과개선을 위하여 부스팅 기법과 인공신경망이 결합된 부스팅 인공신경망을 제안하였다. 실험결과들은 부스팅 인공신경망은 10개의 다양한 인공신경망의 성과를 안정적으로 개선하였고 과도적합에 대한 견고성을 강화하였음을 보여주고 있다, 그러나본 연구의 결과를 다양한 분야에 적용하기 위하여 향후데이터 특성에 따른부스팅 기법 의 효과와 같은 심층 분석 이 추가되 어 야 한다.
  • 마지 막으로, 이 러 한 연구 결과를 기초로 각 분류자의 일반적 학습 특성 및 향후 앙상블 학습에 고려해야 할 요인에 대한 통찰력을 제공하는 것을 목적으로 하고 있다. 본 연구에서는 전통적 인공신경망 분류자와 앙상블 학습의 대표적 기법인 부스팅 알고리즘을 부실예측 문제에 적용하여 성과 측면에서 각 분류자들의 효과를 분석 하고자 한다.
  • 앙상블 학습은 여 러 개 의 분류자로 구성 된 분류자 앙상블을 생성하여 단일 분류자의 정확성을 개선하기 위한 목적 으로 제 안된 학습방법 이 다. 앙상블 학습을 하는 이유는 단일 분류자만으로는 학습이 어려운 복잡한 패턴들을 여러 개의 하위 패턴으로 나누어 효과적인 학습을 진행할 수 있으며 여러 하위 패턴에 대한학습 결과를 결합하여 단일 분류자 보다 정확한 예측 결과를 제공하기 때문이다.
본문요약 정보가 도움이 되었나요?

참고문헌 (18)

  1. Alfaro, E., Gamez, M., & Garcia, N. (2007). Multiclass corporate failure prediction by AdaBoost.M1. Advanced Economic Research, 13, 301-312. 

  2. Alfaro, E., Garcia, N., Gamez, M., & Elizondo, D. (2008). Bankruptcy forecasting: an empirical comparison of AdaBooost and neural networks. Decision Support Systems, 45, 110-122. 

  3. Bauer, E., & Kohavi, R. (1999). An empirical comparison of voting classification algorithms: Bagging, boosting, and variants. Machine Learning, 36, 105-139. 

  4. Breiman, L. (1994). Bagging predictors. Machine Learning, 24(2), 123-140. 

  5. Breiman, L. (1996). Bias, variance, and arcing classifiers (Tech.Rep.No.460). Berkeley: Statistics Department, University of California at Berkeley. 

  6. Buciu, I., Kotrooulos, C., & Pitas, I. (2001). Combining support vector machines for accuracy face detection, Proc. ICIP, 1054-1057. 

  7. Dong, Y. S., & Han, K. S. (2004). A comparison of several ensemble methods for text categorization, IEEE International Conference on Service Computing. 

  8. Drucker, H., & Cortes, C. (1996). Boosting decision trees, Advanced Neural Information Processing Systems, 8. 

  9. Evgeniou, T., Perez-Breva, L., Pontil, M., & Poggio, T. (2000). Bound on the generalization performance of kernel machine ensembles, Proc. ICMI, 271-278. 

  10. Fawcett, T. (2006). An introduction to ROC analysis. Pattern Recognition Letters, 27, 861-874. 

  11. Freund, Y. (1995). Boosting a weak learning algorithm by majority. Information and Computation, 121(2), 256-285. 

  12. Freund, Y., & Schapire, R E. (1996). Experiments with a new boosting algorithm. Machine Learning: Proceedings of Thirteenth International Conference, 148-156. 

  13. Freund, Y., & Schapire, R. E. (1997). A decision theoretic generalization of online learning and an application to boosting. Journal of Computer and System Science, 55(1), 119-139. 

  14. Hansen, L., & Salamon, P. (1990). Neural network ensembles, IEEE Trans. PAMI, Vol.12, 993-1001. 

  15. Kim, H. C., Pang, S., Je, H. M., K, D. J., & Bang, S. Y. (2003). Constructing support vector machine ensemble, Pattern Recognition, 36, 2757-2767. 

  16. Maclin, R, & Opitz, D. (1997). An empirical evaluation of bagging and boosting. In Proceedings of the Fourteenth National Conference on Artificial Intelligence, 546-551. 

  17. Optiz, D., & Maclin, R (1999). Popular ensemble methods: an empirical study. Journal of Artificial Intelligence, 11, 169-198. 

  18. Quinlan, J. R. (1996). Bagging, boosting and C4.5. Machine Learning: Proceedings of the Fourteenth International Conference, 725-730. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로