최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기Journal of the Korean Data & Information Science Society = 한국데이터정보과학회지, v.21 no.5, 2010년, pp.901 - 908
홍종선 (성균관대학교 통계학과) , 김명진 (성균관대학교 응용통계연구소)
A geometrical description method is proposed to represent the process of the forward selection and backward elimination methods among many variable selection methods for multiple regression models. This graphical method shows the process of the forward selection and backward elimination on the first...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
후진제거 방법이란? | 후진제거 방법은 k개의 모든 설명변수가 포함된 완전모형인 0단계에서 출발하여 1단계에서는 하나의 설명변수가 제거되고 순차적으로 제거되는 방법으로 k − i개의 설명변수가 포함된 i단계의 회귀모형에서의 회귀제곱합과 이에 대응하는 결정계수는 전진선택 방법에서와 유사하게 SSR(i)와 R(i)2로 정의한다. 또한 결정계수와 동일한 벡터의 노름도 동일하게 정의한다. | |
단계식선택 과정을 기하학적으로 표현하기 어려운 이유는? | 다른 변수선택 방법인 단계식선택 과정에서는 회귀제곱합이 감소할 수도 있는데 이를 본 연구에서 제안한 기하학적인 방법에서는 추가제곱합에 대응하는 벡터와 벡터 사이의 각도가 음의 값을 가지므로 표현이 쉽지 않다. 그러나 본 연구의 표현방법을 컴퓨터 그래픽스를 잘 활용한다면 어렵지 않게 표현 가능하다고 생각된다. | |
회귀모형을 그래픽적 방법으로 표현하기 위한 연구들은 회귀모형을 어떻게 표현하였는가? | 회귀모형을 그래픽적 방법으로 표현하기 위하여 오래전부터 Box 등 (1978), Magoris (1979), Herr (1980), Draper와 Smith (1981), Bryant (1984) 등의 많은 연구가 진행되어 왔다. 이런 연구들은 회귀 분석의 분산분석표에서 총제곱합이 회 귀제곱합과 잔차제곱합으로 분해되고 각 제곱합에 대응하는 벡터의 노름 (Norm)과 각도로 이차원 평면에 기하학적으로 표현하였다. |
Box, G. E. P., Hunter, W. G. and Hunter, J. S. (1978). Statistics for Experimenters: An Introduction to Design, Data Analysis, and Model Building, John Wiley.
Bryant, P. (1984). Geometry, statistics, probability: Variations on a common theme. The American Statistician, 38, 38-48.
Chatterjee, S., Hadi, A. S. and Price, B. (2000). Regression Analysis by Example (3rd ed.), John Wiley & Sons.
Christensen, R. (2006). Comment and reply to Friedman and Wall (2005). The American Statistician, 60, 101-102.
Draper, N. and Smith, H. (1981). Applied Regression Analysis (2nd ed.), John Wiley.
Friedman, L. and Wall, M. (2005). Graphical views of suppression and multicollinearity in multiple linear regression. The American Statistician, 59, 127-136.
Hamilton, D. (1987). Sometimes $R^{2}$ > $r_{yx1}^{2}$ + $r_{yx2}^{2}$ Correlated variables are not always redundant. The American Statistician, 41, 129-132.
Hamilton, D. (1988). Reply to Freund and Mitra. The American Statistician, 42, 90-91.
Herr, D. G. (1980). On the history of the use of geometry in the general linear model. The American Statistician, 34, 43-47.
Margolis, M. S. (1979). Perpendicular projections and elementary statistics. The American Statistician, 33, 131-135.
Rawlings, J. O., Pantula, S. G. and Dickey, D. A. (1998). Applied Regression Analysis: A Research Tool (2nd ed.), Springer.
Schey, H. M. (1993). The relationship between the magnitudes of SSR(x2) and SSR $(x2{\mid}x1)$ : A geometric description. The American Statistician, 47, 26-30.
Sharpe, N. R. and Roberts, R. A. (1997). The relationship among sums of squares, correlation coefficients, and suppression. The American Statistician, 51, 46-48.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.