최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기Journal of Internet Computing and Services = 인터넷정보학회논문지, v.17 no.2, 2016년, pp.49 - 57
민성환 (Department of Business Administration, Hallym University)
Ensemble classification involves combining multiple classifiers to obtain more accurate predictions than those obtained using individual models. Ensemble learning techniques are known to be very useful for improving prediction accuracy. Bagging is one of the most popular ensemble learning techniques...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
기저 분류기를 다양화시키는 방법에는 어떤 것이 있는가? | 앙상블을 구성하게 될 기저 분류기를 다양화 시킴으로써 앙상블 모형의 성능 개선을 기대할 수 있기 때문이다. 기저 분류기를 다양화시키는 방법으로는 학습 데이터의 다양화, 학습 알고리즘의 다양화, 학습 알고리즘 파라미터의 다양화 등의 방법이 있다. 이중에서 가장 대표적인 기법은 학습 데이터의 다양화를 통한 기저 분류기의 다양화 기법으로 배깅 (bagging)[5], 부스팅(boosting)[6]과 랜덤 서브스페이스 기법[7] 등이 대표적인 예이다. | |
앙상블 기법의 성능 개선을 위해 대표적으로 어떤 연구가 진행되어 왔는가? | 이와 같은 데이터 다양화를 통한 앙상블 기법의 성능 개선을 위해 지금까지 다양한 연구가 진행되어 왔다. 그중에 대표적인 것은 서로 다른 학습 데이터 다양화 방식을 결합하는 연구와 선택적 앙상블 기법에 관한 것이다. 전자의 예는 배깅 기법과 랜덤 서브스페이스 기법을 결합을 통해 다양성을 높여 최종적으로 앙상블 모형의 성과를 개선시키려는 연구이며 여러 연구자들이 두 기법을 결합할 경우 단일 앙상블 기법보다 성능이 개선되었음을 실증적으로 보여주었다 [13, 14]. | |
앙상블의 성과는 언제 좋은 것으로 나타나는가? | 이처럼 앙상블 분류기가 좋은 성과를 내기 위해서는 기저 분류기를 어떻게 구성하느냐가 중요한 영향을 미친다. 일반적으로 앙상블을 구성하고 있는 기저 분류기들의 예측 정확도가 좋을수록, 그리고 기저 분류기들의 다양성(diversity) 지수가 높을수록 앙상블의 성과가 좋은 것으로 알려져 있다. 기저 분류기들의 예측 결과값이 똑같은 결과값을 같는다면 기저 분류기들 간의 다양성이 존재하지 않는다고 말할 수 있으며, 반대의 경우는 다양성이 존재한다고 말할 수 있다. |
L. I. Kuncheva, Combining Pattern Classifiers: Methods and Algorithms, John Wiley & Sons, Inc., Hoboken, New Jersey, 2004. http://www.amazon.com/Combining-Pattern-Classifiers- Methods-Algorithms/dp/0471210781
S. Bian, W. Wang, "On diversity and accuracy of homogeneous and heterogeneous ensembles," International Journal of Hybrid Intelligent Systems, Vol.4, No.2, 2007, pp.103-128. http://content.iospress.com/articles/international-journal-o f-hybrid-intelligent-systems/his00044
L. Breiman, "Bagging predictors," Machine Learning, Vol. 24, No.2, 1996, pp. 123-140. http://dx.doi.org/10.1007/BF00058655
Y. Freund, R. Schapire, "Experiments with a new boosting algorithm," Proceedings of the 13th International Conference on Machine learning, 1996, pp. 148-156. http://citeseer.ist.psu.edu/viewdoc/summary?doi10.1.1.1 33.1040
T. Ho, "The random subspace method for construction decision forests," IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, pp.832-844. http://dx.doi.org/10.1109/34.709601
L. Hansen, Salamon, P, "Neural network ensembles," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.12, No.10, 1990, pp. 993-1001. http://dx.doi.org/10.1109/34.58871
S.H. Kim, J.W., Kim, "SOHO Bankruptcy Prediction Using Modified Bagging Predictors," Journal of Intelligence and Information Systems, Vol.13, No.2, 2007, pp. 15-26. http://koreascience.or.kr/article/ArticleFullRecord.jsp?cn JJSHBB_2007_v13n2_15
C. Tsai, J. Wu. "Using Neural Network Ensembles for Bankruptcy Prediction and Credit Scoring," Expert Systems with Applications, Vol.34, No.4, 2008, pp. 2639-2649. http://dx.doi.org/10.1016/j.eswa.2007.05.019
M. Kim, "A Performance Comparison of Ensemble in Bankruptcy Prediction," Entrue Journal of Information Technology, Vol.8, No.2, 2009, pp. 41-49. http://scholar.ndsl.kr/schDetail.do?cnNART50339718
H. Li, Y.-C. Lee, Y.-C. Zhou, J. Sun, "The random subspace binary logit (RSBL) model for bankruptcy prediction," Knowledge-Based Systems, Vol. 24, No.8, 2011, pp. 1380-1388 http://dx.doi.org/10.1016/j.knosys.2011.06.015
A.I. Marques, V. Garcia, and J. S. Sanchez. "Two-Level Classifier Ensembles for Credit Risk Assessment," Expert Systems with Applications, Vol.39, No.12, 2012, pp. 10916-10922. http://dx.doi.org/10.1016/j.eswa.2012.03.033
M. Kim, D. Kang, H.B. Kim, "Geometric Mean Based Boosting Algorithm with over-Sampling to Resolve Data Imbalance Problem for Bankruptcy Prediction," Expert Systems with Applications, Vol.42, No.3, 2015, pp. 1074-1082. http://dx.doi.org/10.1016/j.eswa.2014.08.025
C. Hung, J-H. Chen, "A Selective Ensemble Based on Expected Probabilities for Bankruptcy Prediction," Expert Systems with Applications, Vol.36, No.3, 2009, pp. 5297-5303. http://dx.doi.org/10.1016/j.eswa.2008.06.068
K. Li, Z. Liu, Y. Han, "Study of Selective Ensemble Learning Methods Based on Support Vector Machine," Physics Procedia, Vol. 33, 2012, pp.1518-1525. http://dx.doi.org/10.1016/j.phpro.2012.05.247
Y. Guo, et al., "A Novel Dynamic Rough Subspace Based Selective Ensemble," Pattern Recognition, Vol.48, No.5, 2014, pp. 1638-1652. http://dx.doi.org/10.1016/j.patcog.2014.11.001
D. E. Goldberg, "Genetic algorithms in search, optimization and machine learning," New York: Addison-Wesley, 1989. http://catalogue.pearsoned.co.uk/educator/product/Geneti c-Algorithms-in-Search-Optimization-and-Machine-Lear ning/9780201157673.page
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.