$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

혼동행렬의 상관계수를 이용한 최적분류점
Optimal threshold using the correlation coefficient for the confusion matrix 원문보기

응용통계연구 = The Korean journal of applied statistics, v.35 no.1, 2022년, pp.77 - 91  

홍종선 (성균관대학교 통계학과) ,  오세현 (성균관대학교 통계학과) ,  최예원 (성균관대학교 통계학과)

초록
AI-Helper 아이콘AI-Helper

의학통계와 신용평가 분야에서 혼합분포함수를 판별하는 최적분류점 추정하기 위하여 판별력을 측정하는 다양한 정확도 측도들이 존재한다. 최근에 혼동행렬 빈도수로 표현되는 Matthews의 상관계수와 정밀도와 재현율의 조화평균인 F1 통계량의 정확도 측도들이 최적분류점을 추정하는데 연구되었다. 본 연구에서는 이런 정확도 측도들 중에서 표본크기에 의존하는 정확도 측도들은 두 표본크기 차이가 많은 경우에 최적분류점을 설정하는데 적절하지 않음을 발견한다. 그리고 대안적인 정확도 측도로 혼동행렬의 비율들의 함수인 상관계수를 정의하고, 이를 최대화하는 분류점을 최적분류점으로 추정하는 방법을 제안하고 이 방법의 유용성과 활용성에 대하여 토론한다.

Abstract AI-Helper 아이콘AI-Helper

The optimal threshold estimation is considered in order to discriminate the mixture distribution in the fields of Biostatistics and credit evaluation. There exists well-known various accuracy measures that examine the discriminant power. Recently, Matthews correlation coefficient and the F1 statisti...

주제어

표/그림 (11)

참고문헌 (39)

  1. Altman DG and Bland JM (1994). Diagnostic tests. 1: sensitivity and specificity, British Medical Journal, 308, 1552. 

  2. Bamber D (1975). The area above the ordinal dominance graph and the area below the receiver operating characteristic graph, Journal of mathematical psychology, 12, 387-415. 

  3. Bradley AP (1997). The use of the area under the ROC curve in the evaluation of machine learning algorithms, Pattern Recognitions, 30, 1145-1159. 

  4. Brasil P (2010). Diagnostic Test Accuracy Evaluation for Medical Professionals, Package DiagnosisMed in R. 

  5. Cao C, Chicco D, and Holfman MM (2020). The MCC-F1 Curve: A Performance Evaluation Technique for Binary Classification, arXiv Preprint arXiv:2006,11278. 

  6. Chicco D and Jurman G (2020). The advantages of the Matthews correlation coefficient (MCC) over F1 score and accuracy in binary classification evaluation, BMC Genomics, 21, 1-13. 

  7. Centor RN (1991). Signal detectability: The use of ROC curves and their analyses, Medical Decision Making, 11, 102-106. 

  8. Connell FA and Koepsell TD (1985). Measures of gain in certainty from a diagnostic test, American Journal of Epidemiology, 121, 744-753. 

  9. Egan JP (1975). Signal detection theory and ROC-analysis, New York, Academic press. 

  10. Engelmann B, Hayden E, and Tasche D (2003). Testing rating accuracy, Risk, 16, 82-86. 

  11. Fawcett T (2006). An introduction to ROC analysis, Pattern Recognition Letters, 27, 861-874. 

  12. Fawcett T and Provost F (1997). Adaptive fraud detection, Data Mining and Knowledge Discovery, 1, 291-316. 

  13. Green DM and Swets JA (1966). Signal detection theory and psychophysics, 1, New York: Wiley. 

  14. Hanley JA and McNeil BJ (1982). The meaning and use of the area under a receiver operating characteristic (ROC) curve, Radiology, 143, 29-36. 

  15. Hong CS (2000). Estimation and Hypothesis Testing, Freedom academy, Seoul. 

  16. Hong CS and Jang DH (2020). Validation ratings for the length of the ROC curve, Journal of the Korean Data & Information Science Society, 31, 851-863. 

  17. Hong CS, Joo JS, and Choi JS (2010). Optimal thresholds from mixture distributions, The Korean Journal of Applied Statistics, 23, 13-28. 

  18. Hong CS and Lee SJ (2018). TROC curve and accuracy measures, Journal of the Korean Data & Information Science Society, 29, 861-872. 

  19. Hong CS and Lim HS (1997). Comparison analysis of association measures for categorical data, Communications for Statistical Applications and Methods, 4, 645-661. 

  20. Hong CS, Lin MH, Hong SW, and Kim GC (2011). Classification accuracy measures with minimum error rate for normal mixture, Journal of the Korean Data & Information Science Society, 22, 619-630. 

  21. Hsieh F and Turnbull BW (1996). Nonparametric and semiparametric estimation of the receiver operating characteristic curve, The Annals of Statistics, 24, 25-40. 

  22. Krzanowski WJ and Hand DJ (2009). ROC Curves for Continuous Data, CRC Press, New York. 

  23. Lambert J and Lipkovich I (2008). A macro for getting more out of your ROC curve, SAS Global Forum, 231. 

  24. Matthews BW (1975). Comparison of the predicted and observed secondary structure of T4 phage lysozyme, Biochimica et Biophysica Acta (BBA)-Protein Structure, 405, 442-451. 

  25. McDermott J and Forsyth RS (2016). Diagnosing a disorder in a classification benchmark, Pattern Recognition Letters, 73, 41-43. 

  26. Metz CE (1978). Basic principles of ROC analysis, In Seminars in nuclear medicine, 8, 283-298. 

  27. Metz CE and Kronman HB (1980). Statistical significance tests for binormal ROC curves, Journal of Mathematical Psychology, 22, 218-243. 

  28. Moses LE, Shapiro D, and Littenberg B (1993). Combining independent studies of a diagnostic test into a summary ROC curve: data-analytic approaches and some additional considerations, Statistics in Medicine, 12, 1293-1316. 

  29. Pepe MS (2003). The Statistical Evaluation of Medical Tests for Classification and Prediction, Oxford university press, Oxford. 

  30. Perkins NJ and Schisterman EF (2006). The inconsistency of "optimal" cutpoints obtained using two criteria based on the receiver operating characteristic curve, American Journal of Epidemiology, 163, 670-675. 

  31. Provost F and Fawcett T (2001). Robust classification for imprecise environments, Machine Learning, 42, 203-231. 

  32. Spackman KA (1989). Signal detection theory: valuable tools for evaluating inductive learning, The Analytics of Risk Model Validation, San Mateo, 160-163. 

  33. Sokolova M, Japkowicz N, and Szpakowicz S (2006). Beyond accuracy, F-score and ROC: a family of discriminant measures for performance evaluation, In Australian Joint Conference on Artificial Intelligence, Springer, Berlin. 

  34. Swets JA (1988). Measuring the accuracy of diagnostic systems, Science, 240, 1285-1293. 

  35. Tasche D (2008). Validation of internal rating systems and PD estimates, The Analytics of Risk Model Validation, 169-196. 

  36. Vuk M and Curk T (2006). ROC curve, lift chart and calibration plot, MetodoloskiZvezki, 3, 89-108. 

  37. Yoo HS and Hong CS (2011). Optimal criterion of classification accuracy measures for normal mixture, Communications for Statistical Applications and Methods, 18, 343-355. 

  38. Youden WJ (1950). Index for rating diagnostic test, Cancer, 3, 32-35. 

  39. Zweig MH and Campbell G (1993). Receiver-operating characteristic (ROC) plots: a fundamental evaluation tool in clinical medicine, Clinical chemistry, 39, 561-577. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로