$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

부트스트랩 샘플링 최적화를 통한 앙상블 모형의 성능 개선
Improving an Ensemble Model by Optimizing Bootstrap Sampling 원문보기

Journal of Internet Computing and Services = 인터넷정보학회논문지, v.17 no.2, 2016년, pp.49 - 57  

민성환 (Department of Business Administration, Hallym University)

초록
AI-Helper 아이콘AI-Helper

앙상블 학습 기법은 개별 모형보다 더 좋은 예측 성과를 얻기 위해 다수의 분류기를 결합하는 것으로 예측 성과를 향상시키는데에 매우 유용한 것으로 알려져 있다. 배깅은 단일 분류기의 예측 성과를 향상시키는 대표적인 앙상블 기법중의 하나이다. 배깅은 원 학습 데이터로부터 부트스트랩 샘플링 방법을 통해 서로 다른 학습 데이터를 추출하고, 각각의 부트스트랩 샘플에 대해 학습 알고리즘을 적용하여 서로 다른 다수의 기저 분류기들을 생성시키게 되며, 최종적으로 서로 다른 분류기로부터 나온 결과를 결합하게 된다. 배깅에서 부트스트랩 샘플은 원 학습 데이터로부터 램덤하게 추출한 샘플로 각각의 부트스트랩 샘플이 동일한 정보를 가지고 있지는 않으며 이로 인해 배깅 모형의 성과는 편차가 발생하게 된다. 본 논문에서는 이와 같은 부트스트랩 샘플을 최적화함으로써 표준 배깅 앙상블의 성과를 개선시키는 새로운 방법을 제안하였다. 제안한 모형에서는 앙상블 모형의 성과를 개선시키기 위해 부트스트랩 샘플링을 최적화하였으며 이를 위해 유전자 알고리즘이 활용되었다. 본 논문에서는 제안한 모형을 국내 부도 예측 문제에 적용해 보았으며, 실험 결과 제안한 모형이 우수한 성과를 보였다.

Abstract AI-Helper 아이콘AI-Helper

Ensemble classification involves combining multiple classifiers to obtain more accurate predictions than those obtained using individual models. Ensemble learning techniques are known to be very useful for improving prediction accuracy. Bagging is one of the most popular ensemble learning techniques...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 앙상블 모형의 성능 개선을 위한 새로운 방법을 제안하였으며, 제안한 모형을 재무 부실화 문제에 적용해 보았다. 모형의 검증을 위해 사용한 데이터는 자산규모가 10억에서 70억 사이이고 업종은 중공업인 국내 비외감 기업의 데이터로 구성되어 있다.
  • 2단계에서는 모집단을 구성하고 있는 다수의 염색체가 발생하며, 이들 염색체는 각각 앙상블 모형을 구성하게 될 각각의 기저 분류기를 학습시키기 위한 서로 다른 학습 데이터 집합을 의미한다. 본 논문에서는 이들 염색체를 평가하기 위한 적합도 함수로 TB 데이터에서의 앙상블 모형의 분류 정확도를 사용한다.
  • 본 논문에서는 이와 같이 부트스트랩 샘플링으로 인해 배깅의 성과 편차가 생길 수 있다는 점에 착안하여 배깅 앙상블의 성과를 최고로 하는 부트스트랩 샘플링 방식을 찾기 위한 방법을 제안하였다. 본 논문에서는 성과를 최고로 하는 부트스트랩 샘플링을 위해 최적화 탐색 알고리즘으로 가장 대표적인 방법 중의 하나인 유전자 알고리즘(Genetic Algorithms)을 적용하였다.
  • 본 연구는 재무 부실화 예측을 위한 배깅 앙상블 분류기의 성능 개선에 관한 연구이다. 본 논문에서는 전통적인 배깅의 성능 개선을 위해 배깅 기법의 진행 과정 중 부트스트랩 샘플링 과정을 본 논문에서 제안한 방법으로 수정한 새로운 형태의 앙상블 모형을 제안한다. 제안한 방법은 기존의 부트스트랩 샘플링 과정을 최적화 하는 효과를 가져올 것으로 기대되며, 이를 통해 전체 앙상블 모형의 성과가 개선될 것으로 기대된다.
  • 본 연구는 재무 부실화 예측을 위한 배깅 앙상블 분류기의 성능 개선에 관한 연구이다. 본 논문에서는 전통적인 배깅의 성능 개선을 위해 배깅 기법의 진행 과정 중 부트스트랩 샘플링 과정을 본 논문에서 제안한 방법으로 수정한 새로운 형태의 앙상블 모형을 제안한다.
  • 앞에서 살펴본 바와 같이 앙상블 모형의 성과에 영향을 주는 요인으로는 앙상블을 구성하고 있는 기저 분류기의 평균 예측률과 다양성 지수가 있다. 본 연구에서는 제안한 모형의 성과 개선에 대한 심층적인 분석을 위해 앙상블 모형의 예측 정확도뿐만 아니라 기저 분류기의 평균 예측률과 다양성 지수도 함께 살펴 보았다. 기저 분류기들 사이의 다양성을 측정하기 위한 다양한 척도들이 개발 되었지만 본 연구에서는 가장 대표적인 다양성 척도 중의 하나인 Q-통계량을 살펴보았다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
기저 분류기를 다양화시키는 방법에는 어떤 것이 있는가? 앙상블을 구성하게 될 기저 분류기를 다양화 시킴으로써 앙상블 모형의 성능 개선을 기대할 수 있기 때문이다. 기저 분류기를 다양화시키는 방법으로는 학습 데이터의 다양화, 학습 알고리즘의 다양화, 학습 알고리즘 파라미터의 다양화 등의 방법이 있다. 이중에서 가장 대표적인 기법은 학습 데이터의 다양화를 통한 기저 분류기의 다양화 기법으로 배깅 (bagging)[5], 부스팅(boosting)[6]과 랜덤 서브스페이스 기법[7] 등이 대표적인 예이다.
앙상블 기법의 성능 개선을 위해 대표적으로 어떤 연구가 진행되어 왔는가? 이와 같은 데이터 다양화를 통한 앙상블 기법의 성능 개선을 위해 지금까지 다양한 연구가 진행되어 왔다. 그중에 대표적인 것은 서로 다른 학습 데이터 다양화 방식을 결합하는 연구와 선택적 앙상블 기법에 관한 것이다. 전자의 예는 배깅 기법과 랜덤 서브스페이스 기법을 결합을 통해 다양성을 높여 최종적으로 앙상블 모형의 성과를 개선시키려는 연구이며 여러 연구자들이 두 기법을 결합할 경우 단일 앙상블 기법보다 성능이 개선되었음을 실증적으로 보여주었다 [13, 14].
앙상블의 성과는 언제 좋은 것으로 나타나는가? 이처럼 앙상블 분류기가 좋은 성과를 내기 위해서는 기저 분류기를 어떻게 구성하느냐가 중요한 영향을 미친다. 일반적으로 앙상블을 구성하고 있는 기저 분류기들의 예측 정확도가 좋을수록, 그리고 기저 분류기들의 다양성(diversity) 지수가 높을수록 앙상블의 성과가 좋은 것으로 알려져 있다. 기저 분류기들의 예측 결과값이 똑같은 결과값을 같는다면 기저 분류기들 간의 다양성이 존재하지 않는다고 말할 수 있으며, 반대의 경우는 다양성이 존재한다고 말할 수 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (22)

  1. T. G. Dietterich, "Machine-learning research: Four current directions," AI Magazine, Vol.18, No.4, 1997, pp. 97-136. http://dx.doi.org/10.1609/aimag.v18i4.1324 

  2. L. I. Kuncheva, Combining Pattern Classifiers: Methods and Algorithms, John Wiley & Sons, Inc., Hoboken, New Jersey, 2004. http://www.amazon.com/Combining-Pattern-Classifiers- Methods-Algorithms/dp/0471210781 

  3. S. Bian, W. Wang, "On diversity and accuracy of homogeneous and heterogeneous ensembles," International Journal of Hybrid Intelligent Systems, Vol.4, No.2, 2007, pp.103-128. http://content.iospress.com/articles/international-journal-o f-hybrid-intelligent-systems/his00044 

  4. L. I. Kuncheva, C. J. Whitaker, "Measures of diversity in classifier ensembles and their relationship with the ensemble accuracy," Machine Learning, Vol.51, No.2, 2003, pp. 181-207. http://dx.doi.org/10.1023/A:1022859003006 

  5. L. Breiman, "Bagging predictors," Machine Learning, Vol. 24, No.2, 1996, pp. 123-140. http://dx.doi.org/10.1007/BF00058655 

  6. Y. Freund, R. Schapire, "Experiments with a new boosting algorithm," Proceedings of the 13th International Conference on Machine learning, 1996, pp. 148-156. http://citeseer.ist.psu.edu/viewdoc/summary?doi10.1.1.1 33.1040 

  7. T. Ho, "The random subspace method for construction decision forests," IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, pp.832-844. http://dx.doi.org/10.1109/34.709601 

  8. L. Hansen, Salamon, P, "Neural network ensembles," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.12, No.10, 1990, pp. 993-1001. http://dx.doi.org/10.1109/34.58871 

  9. S.H. Kim, J.W., Kim, "SOHO Bankruptcy Prediction Using Modified Bagging Predictors," Journal of Intelligence and Information Systems, Vol.13, No.2, 2007, pp. 15-26. http://koreascience.or.kr/article/ArticleFullRecord.jsp?cn JJSHBB_2007_v13n2_15 

  10. C. Tsai, J. Wu. "Using Neural Network Ensembles for Bankruptcy Prediction and Credit Scoring," Expert Systems with Applications, Vol.34, No.4, 2008, pp. 2639-2649. http://dx.doi.org/10.1016/j.eswa.2007.05.019 

  11. M. Kim, "A Performance Comparison of Ensemble in Bankruptcy Prediction," Entrue Journal of Information Technology, Vol.8, No.2, 2009, pp. 41-49. http://scholar.ndsl.kr/schDetail.do?cnNART50339718 

  12. H. Li, Y.-C. Lee, Y.-C. Zhou, J. Sun, "The random subspace binary logit (RSBL) model for bankruptcy prediction," Knowledge-Based Systems, Vol. 24, No.8, 2011, pp. 1380-1388 http://dx.doi.org/10.1016/j.knosys.2011.06.015 

  13. S. Min, "Developing an Ensemble Classifier for Bankruptcy Prediction," Journal of the Korea Industrial Information Systems Research, Vol. 17, No. 7, 2012, pp. 139-148. http://dx.doi.org/10.9723/jksiis.2012.17.7.139 

  14. A.I. Marques, V. Garcia, and J. S. Sanchez. "Two-Level Classifier Ensembles for Credit Risk Assessment," Expert Systems with Applications, Vol.39, No.12, 2012, pp. 10916-10922. http://dx.doi.org/10.1016/j.eswa.2012.03.033 

  15. H.N. Choi, D.H. Lim, "Bankruptcy prediction using ensemble SVM model," Journal of the Korean Data and Information Science Society, Vol.24, No.6, 2013, 1113-1125. http://dx.doi.org/10.7465/jkdi.2013.24.6.1113 

  16. S. Min, "Bankruptcy Prediction Using an Improved Bagging Ensemble," Journal of Intelligence and Information Systems, Vol.20, No.4, 2014, pp. 121-139. http://dx.doi.org/10.13088/jiis.2014.20.4.121 

  17. M. Kim, D. Kang, H.B. Kim, "Geometric Mean Based Boosting Algorithm with over-Sampling to Resolve Data Imbalance Problem for Bankruptcy Prediction," Expert Systems with Applications, Vol.42, No.3, 2015, pp. 1074-1082. http://dx.doi.org/10.1016/j.eswa.2014.08.025 

  18. C. Hung, J-H. Chen, "A Selective Ensemble Based on Expected Probabilities for Bankruptcy Prediction," Expert Systems with Applications, Vol.36, No.3, 2009, pp. 5297-5303. http://dx.doi.org/10.1016/j.eswa.2008.06.068 

  19. K. Li, Z. Liu, Y. Han, "Study of Selective Ensemble Learning Methods Based on Support Vector Machine," Physics Procedia, Vol. 33, 2012, pp.1518-1525. http://dx.doi.org/10.1016/j.phpro.2012.05.247 

  20. Y. Guo, et al., "A Novel Dynamic Rough Subspace Based Selective Ensemble," Pattern Recognition, Vol.48, No.5, 2014, pp. 1638-1652. http://dx.doi.org/10.1016/j.patcog.2014.11.001 

  21. T. K. Ho, "Multiple classifier combination: Lessons and the next steps," In A. Kandel and H. Bunke, editors, Hybrid Methods in Pattern Recognition. World Scientific Publishing, 2002 http://dx.doi.org/10.1142/9789812778147_0007 

  22. D. E. Goldberg, "Genetic algorithms in search, optimization and machine learning," New York: Addison-Wesley, 1989. http://catalogue.pearsoned.co.uk/educator/product/Geneti c-Algorithms-in-Search-Optimization-and-Machine-Lear ning/9780201157673.page 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로