$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

다중 클래스 데이터셋의 메타특징이 판별 알고리즘의 성능에 미치는 영향 연구
The Effect of Meta-Features of Multiclass Datasets on the Performance of Classification Algorithms 원문보기

지능정보연구 = Journal of intelligence and information systems, v.26 no.1, 2020년, pp.23 - 45  

김정훈 (경희대학교 일반대학원 경영학과) ,  김민용 (경희대학교 경영대학) ,  권오병 (경희대학교 경영대학)

초록
AI-Helper 아이콘AI-Helper

기업의 경쟁력 확보를 위해 판별 알고리즘을 활용한 의사결정 역량제고가 필요하다. 하지만 대부분 특정 문제영역에는 적합한 판별 알고리즘이 어떤 것인지에 대한 지식은 많지 않아 대부분 시행착오 형식으로 최적 알고리즘을 탐색한다. 즉, 데이터셋의 특성에 따라 어떠한 분류알고리즘을 채택하는 것이 적합한지를 판단하는 것은 전문성과 노력이 소요되는 과업이었다. 이는 메타특징(Meta-Feature)으로 불리는 데이터셋의 특성과 판별 알고리즘 성능과의 연관성에 대한 연구가 아직 충분히 이루어지지 않았기 때문이며, 더구나 다중 클래스(Multi-Class)의 특성을 반영하는 메타특징에 대한 연구 또한 거의 이루어진 바 없다. 이에 본 연구의 목적은 다중 클래스 데이터셋의 메타특징이 판별 알고리즘의 성능에 유의한 영향을 미치는지에 대한 실증 분석을 하는 것이다. 이를 위해 본 연구에서는 다중 클래스 데이터셋의 메타특징을 데이터셋의 구조와 데이터셋의 복잡도라는 두 요인으로 분류하고, 그 안에서 총 7가지 대표 메타특징을 선택하였다. 또한, 본 연구에서는 기존 연구에서 사용하던 IR(Imbalanced Ratio) 대신 시장집중도 측정 지표인 허핀달-허쉬만 지수(Herfindahl-Hirschman Index, HHI)를 메타특징에 포함하였으며, 역ReLU 실루엣 점수(Reverse ReLU Silhouette Score)도 새롭게 제안하였다. UCI Machine Learning Repository에서 제공하는 복수의 벤치마크 데이터셋으로 다양한 변환 데이터셋을 생성한 후에 대표적인 여러 판별 알고리즘에 적용하여 성능 비교 및 가설 검증을 수행하였다. 그 결과 대부분의 메타특징과 판별 성능 사이의 유의한 관련성이 확인되었으며, 일부 예외적인 부분에 대한 고찰을 하였다. 본 연구의 실험 결과는 향후 메타특징에 따른 분류알고리즘 추천 시스템에 활용할 것이다.

Abstract AI-Helper 아이콘AI-Helper

Big data is creating in a wide variety of fields such as medical care, manufacturing, logistics, sales site, SNS, and the dataset characteristics are also diverse. In order to secure the competitiveness of companies, it is necessary to improve decision-making capacity using a classification algorith...

주제어

표/그림 (10)

AI 본문요약
AI-Helper 아이콘 AI-Helper

문제 정의

  • 이에 본 논문의 목적은 다중 클래스를 가지는 데이터셋이 있을 때 판별 알고리즘에 메타특징이 어떤 영향을 미치는지 UCI ML Repository에 게시되어 있는 여러 다분류 데이터를 활용해 실증적으로 분석하는 것이다. 이를 위해 데이터셋의 메타특징을 데이터셋 구조와 복잡도라는 두 가지 요인으로 분류하고 다중공선성(multicollinearity) 등을 고려하여 일곱 가지 메타 특징을 선정하여 회귀모형을 개발하였다.

가설 설정

  • 가설 1: 데이터셋의 HHI는 판별 성능에 부정적인 영향을 미칠 것이다.
  • 가설 2: 데이터셋의 변수의 개수는 판별 성능에 부정적인 영향을 미칠 것이다.
  • 가설 3: 데이터셋의 클래스의 개수는 판별 성능에 부정적인 영향을 미칠 것이다.
  • 가설 4: 데이터셋의 엔트로피는 판별 성능에 부정적인 영향을 미칠 것이다.
  • 가설 5: 데이터셋의 역ReLU 실루엣 점수는 판별 성능에 부정적인 영향을 미칠 것이다.
  • 가설 6: 데이터셋의 선형 분류기의 비선형성은 판별 성능에 부정적인 영향을 미칠 것이다.
  • 가설 7: 데이터셋의 허브 점수는 판별 성능에 긍정적인 영향을 미칠 것이다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
메타특징은 어떤 특성을 반영하는가? 즉, 데이터셋의 특성에 따라 어떠한 분류알고리즘을 채택하는 것이 적합한지를 판단하는 것은 전문성과 노력이 소요되는 과업이었다. 이는 메타특징(Meta-Feature)으로 불리는 데이터셋의 특성과 판별 알고리즘 성능과의 연관성에 대한 연구가 아직 충분히 이루어지지 않았기 때문이며, 더구나 다중 클래스(Multi-Class)의 특성을 반영하는 메타특징에 대한 연구 또한 거의 이루어진 바 없다. 이에 본 연구의 목적은 다중 클래스 데이터셋의 메타특징이 판별 알고리즘의 성능에 유의한 영향을 미치는지에 대한 실증 분석을 하는 것이다.
차원 축소 외에 판별 성능에 영향을 미치는 것은? (2013)의 연구에서는 판별 알고리즘과 다양한 샘플링 방법을 조합하여 판별 알고리즘 별로 적합한 샘플링 방법이 존재할 수 있다는 것을 밝혔으며, 요인 분석을 통한 차원 축소가 판별 성능을 높이는데 도움이 되지만(Dogan and Tanrikulu, 2013), 과도한 차원의 축소는 오히려 정확도를 떨어뜨리는 결과를 낳기도 한다는 연구도 있다 (Rok and Lusa, 2013). 또한, 클래스의 불균형을 줄일수록 판별 정확도가 높아지기도 한다 (Khoshgoftaar et al., 2010).
판별문제란? 판별문제(Classification)는 데이터 마이닝을 비롯한 지능형 의사결정의 가장 대표적인 분석 문제이며(Chaitra et al., 2018), 판별 알고리즘 간 비교 분석은 의사결정의 질 향상을 위한 오랫동안의 중요한 연구 이슈였다 (Lotte et al.
질의응답 정보가 도움이 되었나요?

참고문헌 (44)

  1. Andric, K., D. Kalpic, and Z. Bohacek, "An Insight into the Effects of Class Imbalance and Sampling on Classification Accuracy in Credit Risk Assessment," Computer Science and Information Systems, Vol.16, No.1(2019), 155-178. 

  2. Bader-El-Den, M. E. Teitei, and T. Perry, "Biased Random Forest for Dealing with the Class Imbalance Problem," IEEE Transactions on Neural Networks and Learning Systems, Vol.30, No.7(2018), 2163-2172. 

  3. Brazdil, P., J.Gama, and B.Henery, "Characterizing the Applicability of Classification Algorithms using Meta-Level Learning," In European Conference on Machine Learning (1994, April), 83-102. 

  4. Brissaud, J. B, "The Meanings of Entropy," Entropy, Vol.7, No.1(2005), 68-96. 

  5. Chaitra, P. C., and D. R. S. Kumar, "A Review of Multi-Class Classification Algorithms," International Journal of Pure and Applied Mathematics, Vol.118, No.14(2018), 17-26. 

  6. Chan, P. P., Z. M. He, H. Li, and C. C.Hsu, "Data Sanitization Against Adversarial Label Contamination based on Data Complexity," International Journal of Machine Learning and Cybernetics, Vol.9, No.6(2018), 1039-1052. 

  7. Chawla, N. V., N. Japkowicz, and A. Kotcz, "Special Issue on Learning from Imbalanced Data Sets," ACM Sigkdd Explorations Newsletter, Vol.6, No.1(2004), 1-6. 

  8. Del Rio, S., V. Lopez, J. M. Benitez, and F. Herrera, "On the use of MapReduce for Imbalanced Big Data using Random Forest," Information Sciences, Vol. 285(2014), 112-137. 

  9. Dogan, N., and Z. Tanrikulu, "A Comparative Analysis of Classification Algorithms in Data Mining for Accuracy, Speed and Robustness," Information Technology and Management, Vol.14, No.2(2013), 105-124. 

  10. Domingos, P. and M. Pazzani, "Beyond Independence: Conditions for the Optimality of the Simple Bayesian Classifier," in Proceedings of the 13th International Conference on Machine Learning, (1996) 105-122. 

  11. Galar, G., M. Fernandez, A. Barrenechea, E. Bustince, and F. Herrera, "A Review on Ensembles for the Class Imbalance Problem: Bagging-, Boosting-, and Hybrid-Based Approaches," IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews), Vol.42, No.4(2011), 463-484. 

  12. Garcia, L. P., A. C. de Carvalho, and A. C. Lorena, "Effect of Label Noise in the Complexity of Classification Problems," Neurocomputing, Vol.160(2015), 108-119. 

  13. Garcia, L. P., A. C. Lorena, M. C.de Souto, and T. K. Ho, "Classifier Recommendation using Data Complexity Measures," In 2018 24th International Conference on Pattern Recognition (ICPR), (2018, August), 874-879. 

  14. Guyon, I., and A. Elisseeff, "An Introduction to Variable and Feature Selection," Journal of Machine Learning Research, Vol.3(Mar, 2003), 1157-1182. 

  15. Japkowicz, N., and S. Stephen, "The Class Imbalance Problem: A Systematic Study," Intelligent Data Analysis, Vol.6, No.5(2002), 429-449. 

  16. Khoshgoftaar, T. M., J. Van Hulse, and A. Napolitano, "Comparing Boosting and Bagging Techniques with Noisy and Imbalanced data," IEEE Transactions on Systems, Man, and Cybernetics-Part A: Systems and Humans, Vol.41, No.3(2010), 552-568. 

  17. Kiang, M. Y., "A Comparative Assessment of Classification Methods," Decision Support Systems, Vol.35, No.4(2003), 441-454. 

  18. Krawczyk, B. "Learning from Imbalanced Data: Open Challenges and Future Directions," Progress in Artificial Intelligence, Vol.5, No.4(2016), 221-232. 

  19. Krawczyk, B., M. Galar, Ł. Jelen, and F. Herrera, "Evolutionary Undersampling Boosting for Imbalanced Classification of Breast Cancer Malignancy," Applied Soft Computing, Vol.38 (2016), 714-726. 

  20. Kwon, O., and J. M. Sim, "Effects of Data Set Features on the Performances of Classification Algorithms," Expert Systems with Applications, Vol.40, No.5(2013), 1847-1857. 

  21. L'heureux, A., K. Grolinger, H. F. Elyamany, and M. A. Capretz, "Machine Learning with Big Data: Challenges and Approaches," IEEE Access, Vol.5(2017), 7776-7797. 

  22. Lopez, V., A. Fernandez, S. Garcia, V. Palade, and F. Herrera, "An Insight into Classification with Imbalanced Data: Empirical Results and Current Trends on using Data Intrinsic Characteristics," Information Sciences, Vol.250 (2013), 113-141. 

  23. Lorena, A. C., A. I. Maciel, P. B. de Miranda, I. G. Costa, and R. B. Prudencio, "Data Complexity Meta-Features for Regression Problems," Machine Learning, Vol.107, No.1 (2018), 209-246. 

  24. Lotte, F., L. Bougrain, A. Cichocki, M. Clerc, M. Congedo, A. Rakotomamonjy, and F. Yger, "A Review of Classification Algorithms for EEG-based Brain-Computer Interfaces: a 10 year update," Journal of Neural Engineering, Vol.15, No.3(2018), 031005. 

  25. Lu, C., J. Qiao, and J. Chang, "Herfindahl-Hirschman Index based Performance Analysis on the Convergence Development," Cluster Computing, Vol.20, No.1(2017), 121-129. 

  26. Matsumoto, A., U. Merlone, and F. Szidarovszky, "Some Notes on Applying the Herfindahl-Hirschman Index," Applied Economics Letters, Vol.19, No.2(2012), 181-184. 

  27. Moran-Fernandez, L., V. Bolon-Canedo, and A. Alonso-Betanzos, "Can Classification Performance be Predicted by Complexity Measures? A Study using Microarray Data," Knowledge and Information Systems, Vol.51, No.3(2017), 1067-1090. 

  28. Napierala, K., and J. Stefanowski, "Types of Minority Class Examples and their Influence on Learning Classifiers from Imbalanced Data," Journal of Intelligent Information Systems, Vol.46, No.3(2016), 563-597. 

  29. Nemhauser, G., and L. Wolsey, "The Scope of Integer and Combinatorial Optimization," Integer and Combinatorial Optimization, (Eds.) G. Nemhauser, and L. Wolsey, John Wiley & Sons, Inc., 1988, 1-26. 

  30. Nguyen, H. L., Y. K. Woon, and W. K. Ng, "A Survey on Data Stream Clustering and Classification," Knowledge and information systems, Vol.45, No.3(2015), 535-569. 

  31. Prabakaran, S., R. Sahu, and S. Verma, "Classification of Multi Class Dataset using Wavelet Power Spectrum," Data Mining and Knowledge Discovery, Vol.15, No.3(2007), 297-319. 

  32. Qiu, J., Q. Wu, G. Ding, Y. Xu, and S. Feng, "A Survey of Machine Learning for Big Data Processing," URASIP Journal on Advances in Signal Processing, No.1(2016), 67. 

  33. Rok.B and L. Lusa, "Improved Shrunken Centroid Classifiers for High-Dimensional Class-Imbalanced Data," BMC bioinformatics, Vol.14, No.1(2013), 64. 

  34. Sen, P. C., M. Hajra, and M. Ghosh, "Supervised Classification Algorithms in Machine Learning: A Survey and Review," In Emerging Technology in Modelling and Graphics. Springer, Singapore, 2020. 

  35. Shannon, C. E, "A Mathematical Theory of Communication," Bell System Technical Journal, Vol.27, No.3(1948), 379-423. 

  36. Sun, A., E.P. Lim, and Y. Liu, "On Strategies for Imbalanced Text Classification using SVM: A Comparative Study," Decision Support Systems, Vol.48, No.1(2009), 191-201. 

  37. Sun, Y., A. K. Wong, and M. S. Kamel "Classification of Imbalanced Data: A Review," International Journal of Pattern Recognition and Artificial Intelligence, Vol.23, No.04 (2009), 687-719. 

  38. Weiss, G. M., and F. Provost, "Learning when Training Data are Costly: The Effect of Class Distribution on Tree Induction," Journal of Artificial Intelligence Research, Vol.19(2003), 315-354. 

  39. Wolpert, D. H., and W. G. Macready, "No Free Lunch Theorems for Optimization," IEEE Transactions on Evolutionary Computation, Vol.1, No.1 (1997), 67-82. 

  40. Wu, G., and E. Y. Chang, "Aligning Boundary in Kernel Space for Learning Imbalanced Dataset," In Fourth IEEE International Conference on Data Mining (ICDM'04), 2004, November, 265-272. 

  41. Wu, X., V. Kumar, J. R. Quinlan, J. Ghosh, Q. Yang, H. Motoda, ... and Z. H. Zhou, "Top 10 Algorithms in Data Mining," Knowledge and Information Systems, Vol.14, No.1(2008), 1-37. 

  42. Zhang, M. L., J. M. Pena, and V. Robles, "Feature Selection for Multi-Label naive Bayes Classification," Information Sciences, Vol.179, No.19(2009), 3218-3229. 

  43. Zieba, M., and J. M. Tomczak, "Boosted SVM with Active Learning Strategy for Imbalanced Data," Soft Computing, Vol.19, No.12(2015), 3357-3368. 

  44. Zhang, X., R. Li, B. Zhang, Y. Yang, J. Guo, and X. Ji, "An Instance-based Learning Recommendation Algorithm of Imbalance Handling Methods," Applied Mathematics and Computation, Vol.351(2019), 204-218. 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로