최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기응용통계연구 = The Korean journal of applied statistics, v.28 no.3, 2015년, pp.495 - 509
김동아 (이화여자대학교 통계학과) , 강수연 (이화여자대학교 통계학과) , 송종우 (이화여자대학교 통계학과)
We study a classification problem of significant differences in the proportion of two groups known as the unbalanced classification problem. It is usually more difficult to classify classes accurately in unbalanced data than balanced data. Most observations are likely to be classified to the bigger ...
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
sampling 방법은 어떤 방법을 사용할 수 있는가? | 우리는 이런 경우에 원데이터를 사용해서 분류하는 것보다 어느 정도 성능을 개선할 수 있는 지를 simulation data와 실제 데이터를 이용하여 비교 분석하고자 한다. 이 경우에 사용할 수 있는 sampling 방법은 큰 집단에서 임의의 관측치 표본을 이용한 down-sampling이나 작은 집단에서 bootstrap sample이나 아주 작은 noise를 더한 sample을 이용한 up-sampling 방법을 사용할 수 있다. 이런 sampling 기법을 사용한 방법론으로는 SHRINK (Kubat 등, 1997)와 SMOTE (Chawla 등, 2002)가 있다. | |
분류 문제 중 균형이 맞지 않는 데이터의 경우는 무엇이 있는가? | 다양한 종류의 분류 문제들을 보면 균형이 맞는 데이터 보다는 균형이 맞지 않는 데이터의 경우를 종종 볼 수 있다. 예를 들어 스팸메일여부, 은행에서 대출해주는 기업의 파산여부, 공항입국자의 테러리스트 여부, 보험회사에서 고객의 가입여부 등등 여러 종류의 불균형 데이터들이 있다. 특히, 두 집단의 비율 차이가 아주 큰 경우에는 분류방법론을 이용하여 두 집단을 정확하게 분류하기가 쉽지 않다. | |
sampling 기법을 사용한 방법론은 무엇이 있는가? | 이 경우에 사용할 수 있는 sampling 방법은 큰 집단에서 임의의 관측치 표본을 이용한 down-sampling이나 작은 집단에서 bootstrap sample이나 아주 작은 noise를 더한 sample을 이용한 up-sampling 방법을 사용할 수 있다. 이런 sampling 기법을 사용한 방법론으로는 SHRINK (Kubat 등, 1997)와 SMOTE (Chawla 등, 2002)가 있다. 물론 up-sampling을 통해서 기존의 정보량보다 더 많은 것을 얻을 수는 없지만 두 클래스를 비슷한 규모로 만듦으로써 비슷한 weight을 줄 수 있는 장점이 있다. |
Chawla, N., Bowyer, K., Hall, L. and Kegelmeyer, W. (2002). SMOTE: Synthetic minority over-sampling technique, Journal of Artificial Intelligence Research, 16, 321-357.
Chen, C., Liaw, A. and Breiman, L. (2004). Using random forest to learn imbalanced data, Technical Report 666.
Karatzoglou, A., Meyer, D. and Hornik, K. (2006). Support vector machines in R, Journal of Statistical Software, 15.
Kubat, M., Holte, R. and Matwin, S. (1997). Learning when negative examples abound. In Proceedings of ECML-97, 9th European Conference on Machine Learning, 146-153.
Kubat, M. and Matwin, S. (1997). Addressing the curse of imbalanced training sets: One-sided selection, Proceedings of the 14th International Conference on Machine Learning, 179-186.
Park, C., Kim, Y., Kim, J., Song, J. and Choi, H. (2011). Datamining using R, Kyowoo, Seoul.
R Development Core Team (2010). R: A Language and Environment for Statistical Computing, R Foundation for Statistical Computing, Vienna, Austria, ISBN 3-900051-07-0. http://www.R-project.org
Vapnik, V. (1998). Statistical Learning Theory, Wiley, New York.
Wu, G. and Chang, E. (2003). Class-boundary alignment for imbalanced dataset learning, In ICML 2003 Workshop on Learning from Imbalanced Data Sets II, Washington, DC.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.