최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기응용통계연구 = The Korean journal of applied statistics, v.30 no.6, 2017년, pp.867 - 876
신가인 (성균관대학교 통계학과) , 김재직 (성균관대학교 통계학과)
Datasets with small n and large p are often found in various fields and the analysis of the datasets is still a challenge in statistics. Discriminant analysis models for such datasets were recently developed in classification problems. One approach of those models tries to detect dimensions that dis...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
희박한 데이터의 경우 K-묶음 교차타당성 방법을 적용 시 문제점은? | 그러한 모형에서 차원의 수는 예측과 자료의 시각화를 위해 중요한 역할을 하고 일반적으로 K-묶음 교차타당성 방법에 의해 결정된다. 하지만, 희박한 데이터의 경우 K-묶음 교차타당성 방법 적용시 각 묶음에 대한 관찰값의 개수가 매우 적을 수 있기 때문에 교차타당성에 의한 차원 수 결정은 신뢰성이 떨어질 수 있다. 따라서, 본 연구에서는 그러한 희박판별분석모형에 의해 찾아진 차원들에서 각 그룹들의 평균 간의 표준화된 거리에 근거한 측도를 사용하여 최적의 차원 수를 결정하는 방법을 제안하고, 제안된 방법은 모의실험을 통해 검증된다. | |
부분최소제곱법이란? | 즉, p개의 설명변수와 q개의 연속형 반응변수들이 있는 것으로 가정한다. 부분최소제곱법은 설명변수와 종속변수 모두를 이용하여 잠재변수를 찾아내고 그 잠재변수들로 반응변수를 예측하는 방법이다. s개의 잠재변수들의 행렬을 L이라 하면, L = XW에 의해 구할 수 있고, 여기서 W는 s개의방향벡터(direction vector) (w1 · · · ws)를 열로 갖는 p × s 행렬이다. | |
최대표준화거리 방법의 장점은? | 판별벡터 또는 방향벡터들은 그룹들을 더 잘 구분할 수 있는 차원을 제공한다. 따라서, 그룹들의 모든 쌍들이 모두 구분될 수 있는 최소 개수의 차원이 최적의 차원이라 고려될 수 있고, 축소된 차원에서 그룹 간의 표준화된 거리가 최대가 되는 차원들 모두의 집합이 곧 관찰값들을 분류하는 최적의 차원들이 될 수 있다. 또한, 계산적인 측면에서 K-묶음 교차타당성 방법은 각 차원 수에 대해 반복적인 계산을 요구하지만 최대표준화거리 방법은 한 번의 계산으로 차원 수를 결정할 수 있다는 이점이 있다. |
Breiman, L., Friedman, J., Olshen, R. A., and Stone, C. J. (1984). Classification and Regression Trees, Wadsworth International Group.
Chun, H. and Keles, S. (2010). Sparse partial least squares regression for simultaneous dimension reduction and variable selection, Journal of Royal Statistical Society, Series B, 72, 3-25.
Chung, D. and Keles, S. (2010). Sparse partial least squares classification for high dimensional data, Statistical Applications in Genetics and Molecular Biology, 9, 1544-6115.
Clemmensen, L., Hastie, T., Witten, D., and Ersboll, B. (2011). Sparse discriminant analysis, Technometrics, 53, 406-413.
Efron, B. and Tibshirani, R. (1997). Improvements on cross-validation: the 632+ bootstrap method, Journal of the American Statistical Association, 92, 548-560.
Fisher, R. A. (1936). The use of multiple measurements in taxonomic problems, Annals of Eugenics, 7, 179-188.
Guo, Y., Hastie, T., and Tibshirani, R. (2007). Regularized linear discriminant analysis and its applications in microarrays, Biostatistics, 8, 86-100.
Hastie, T., Buja, A., and Tibshirani, R. (1995). Penalized discriminant analysis, The Annals of Statistics, 23, 73-102.
Hastie, T., Tibshirani, R., and Friedman, J. (2009). The Element of Statistical Learning, Springer, New York.
McLachlan, G. (2004). Discriminant Analysis and Statistical Pattern Recognition, John Wiley & Sons, New Jersey.
Witten, D. and Tibshirani, R. (2011). Penalized classification using Fisher's linear discriminant, Journal of Royal Statistical Society, Series B, 73, 753-772.
Zou, H. and Hastie, T. (2005). Regularization and variable selection via the elastic-net, Journal of Royal Statistical Society, Series B, 67, 301-320.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.