최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기응용통계연구 = The Korean journal of applied statistics, v.28 no.3, 2015년, pp.407 - 415
김민선 (서울시립대학교 통계학과) , 최호식 (경기대학교 응용정보통계학과) , 박창이 (서울시립대학교 통계학과)
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
단순 베이즈 가정의 장점은? | 단순 베이즈 분류($Na{\ddot{i}}ve$ Bayes classification)는 출력변수가 주어졌을 때 입력변수들이 조건부 독립이라는 가정에 기반한다. 단순 베이즈 가정은 비현실적이지만 고차원의 확률 추정 문제를 일련의 일차원 확률 추정 문제로 단순화 시킨다는 장점이 있으며, 특히 스팸 메일 필터링, 추천 시스템(recommendation system) 등 방대한 데이터를 다루는 분야야에서 흔히 사용된다. 본 논문에서는 입력변수와 출력변수간의 카이제곱 통계량에 기반한 변수선택법을 제안한다. | |
본 논문에서 제안한 입력변수와 출력변수간의 카이제곱 통계량에 기반한 변수선택법의 장점은? | 본 논문에서는 입력변수와 출력변수간의 카이제곱 통계량에 기반한 변수선택법을 제안한다. 이 방법은 단순 베이즈 분류의 장점인 데이터 처리 및 계산의 단순성을 유지하면서도 설명력이 있는 변수를 선택할 수 있으며 SNP(single nucleotide polymorphism)에 의한 질병의 분류 등의 초고차원 혹은 빅데이터에서 유용할 것으로 기대된다. | |
단순 베이즈 분류는 어떠한 가정을 기반으로 하는가? | 단순 베이즈 분류($Na{\ddot{i}}ve$ Bayes classification)는 출력변수가 주어졌을 때 입력변수들이 조건부 독립이라는 가정에 기반한다. 단순 베이즈 가정은 비현실적이지만 고차원의 확률 추정 문제를 일련의 일차원 확률 추정 문제로 단순화 시킨다는 장점이 있으며, 특히 스팸 메일 필터링, 추천 시스템(recommendation system) 등 방대한 데이터를 다루는 분야야에서 흔히 사용된다. |
Chen, J. and Gupta, A. K. (2000). Parametric Statistical Change Point Analysis, Birkhauser.
Choi, B.-J., Kim, K.-R., Cho, K.-D., Park, C. and Koo, J.-Y. (2014). Variable selection for Naive Bayes Semisupervised learning, Communications in Statistics - Simulation and Computation, 43, 2702-2713.
Fan, J. and Lv, J. (2008). Sure independence screening for ultrahigh dimensional feature space, Journal of the Royal Statistical Society, 70, 849-911.
Ha, J. H. and Park, C. (2009). Variable selection in linear discriminant analysis, Journal of the Korean Data Analysis Society, 11, 381-389.
Hand, D. and Yu, K. (2001). Idiot's Bayes-not so stupid at all?, International Statistical Review, 69, 385-399.
Hastie, T., Tibshirani, R. and Friedman, J. (2009). The Elements of Statistical Learning: Data Mining, Inference, and Prediction, (2nd Edition), Springer, New York.
Killick, R., Fearnhead, P. and Eckley, I. A. (2012). Optimal detection of changepoints with a linear computational cost, Journal of the American Statistical Association, 107, 1590-1598.
Killick, R. and Eckley, I. A. (2014). Changepoint: An R package for changepoint analysis, Journal of Statistical Software, 58.
Vidaurre, D., Bielza, C. and Larranaga, P. (2012). Forward stagewise naive Bayes, Progress in Artificial Intelligence, 1, 57-69.
Vidaurre, D., Bielza, C. and Larranaga, P. (2013). An $L_1$ -regularized naive Bayes-inspired classifier for discarding redundant and irrelevant predictors, International Journal on Artificial Intelligence Tools, 22, 1350019.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.