최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기응용통계연구 = The Korean journal of applied statistics, v.29 no.3, 2016년, pp.471 - 485
장수희 (동덕여자대학교 정보통계학과) , 윤정연 (한국금융연수원) , 전희주 (동덕여자대학교 정보통계학과)
Least squares (LS) regression is a classic method for regression that is optimal under assumptions of regression and usual observations. However, the presence of unusual data in the LS method leads to seriously distorted estimates. Therefore, various robust estimation methods are proposed to circumv...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
최소제곱법의 단점을 보완하기 위해 사용되는 방법은? | 회귀모형(regression model)의 대표적인 방법인 최소제곱법(least squares method; LS)은 가정과 이상치(outlier)에 매우 민감하기 때문에, 자료가 회귀모형의 가정을 만족하지 않을 경우 또는 이상치를 포함하는 경우에 왜곡된 추정 결과를 준다. 따라서 이상치에 민감한 LS의 단점을 보완하기 위해 이상치의 가중치를 줄여 이상치에 민감하지 않은 로버스트 추정법이 사용된다. 대표적인 로버스트 추정방법에는 Huber (1973)에 의해 제안된 MLE를 기반으로 한 M 추정량 계열, Siegel (1982)에 의해 제안된 순서형 통계량을 기반으로 한 L 추정량 계열, Jaekel (1972)에 의해 제안된 잔차의 순위(rank)를 기반으로 한 R 추정량 계열이 있다. | |
최소제곱법이 왜곡된 추정 결과를 주는 경우는? | 회귀모형의 대표적인 추정법인 최소제곱법은 오차항의 분포가 정규분포를 따르고 이상치가 없는 상황에서는 최적이지만, 자료가 회귀모형의 가정을 만족하지 않을 경우 또는 이상치를 포함하는 경우와 같이 자료가 오염된 상황에서는 왜곡된 추정 결과를 준다. 따라서 이상치에 민감한 최소제곱법의 단점을 보완하기 위해 다양한 로버스트 추정방법이 제안되었다. | |
최소제곱법이 최적인 조건은? | 회귀모형의 대표적인 추정법인 최소제곱법은 오차항의 분포가 정규분포를 따르고 이상치가 없는 상황에서는 최적이지만, 자료가 회귀모형의 가정을 만족하지 않을 경우 또는 이상치를 포함하는 경우와 같이 자료가 오염된 상황에서는 왜곡된 추정 결과를 준다. 따라서 이상치에 민감한 최소제곱법의 단점을 보완하기 위해 다양한 로버스트 추정방법이 제안되었다. |
Bellio, R. and Ventura, L. (2005). An introduction to robust estimation with R functions, In Proceedings of the 1st International Workshop on Robust Statistics and R, Treviso, Department of Statistics, Ca'Foscari University, Italy.
Chang, W. H., Mckean, J. W., Naranjo, J. D., and Sheather, S. J. (1999). High-Breakdown rank regression, Journal of the American Statistical Association, 94, 205-219.
Croux, C., Rousseeuw, P. J., and Hossjer. O. (1994). Generalized S-estimators, Journal of the American Statistical Association, 89, 1271-1281.
Hettmansperger, T. P., McKean, J. W., and Sheather, S. J. (1997). Rank-based analyses of linear models, Handbook of Statistics, G.S. Maddala and C.R. Rao eds., Elsevier, 145-173.
Huber, P. J. (1973). Robust regression: asymptotics, conjectures and Monte Carlo, Annals of Statistics, 1, 799-821.
Mosteller, F. and Tukey, J. W. (1977). Data Analysis and Regression, A Second Course in Statistics, Addison-Wesley, MA.
Naranjo, J. D. and Hettmansperger, T. P. (1994). Bounded-influence rank regression, Journal of the Royal Statistical Society, Series B, 56, 209-220.
Rousseeuw, P. J. (1984). Least median of squares regression, Journal of the American Statistical Association, 79, 871-880.
Rousseeuw, P. J. (1985). Multivariate Estimation with High Breakdown Point, 283-297 in Mathematical Statistics and Applications, Vol. B, edited by W. Grossman, G. Pflug, I. Vince, and W. Wetz. Dordrecht: Reidel.
Rousseeuw, P. J. and Croux, C. (1993). Alternatives to the median absolute deviation, Journal of the American Statistical Association, 88, 1273-1283.
Rousseeuw, P. J. and Yohai, V. (1984). Robust Regression by Means of S-Estimators, Nonlinear Time Series Analysis, Lecture Notes in Statistics, 26, 256-272.
Siegel, A. F. (1982). Robust regression using repeated medians, Biometrika, 69, 242-244.
Stromberg, A. J., Hossjer, O., and Hawkins, D. M. (2000). The least trimmed differences regression estimator and alternatives, Journal of the American Statistical Association, 95, 853-864.
Yohai, V. J. (1987). High breakdown point and high efficiency robust estimates for regression, Annals of Statistics, 15, 642-656.
Yu, C., Yao, W., and Bai, X. (2014). Robust linear regression: a review and comparison, (Working Paper), Department of Statistics, Kansas State University, Manhattan, Kansas, USA 66506-0802.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.