최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기Journal of the Korean Data & Information Science Society = 한국데이터정보과학회지, v.21 no.5, 2010년, pp.917 - 926
최진수 (고려대학교 통계학과) , 이석형 (고려대학교 통계학과) , 조형준 (고려대학교 통계학과)
It is known that bagging and boosting techniques improve the performance in classification problem. A number of researchers have proved the high performance of bagging and boosting through experiments for categorical response but not for continuous response. We study whether bagging and boosting imp...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
신경망은 어떻게 구성되어 있는가? | 신경망 (neural network)은 사람 뇌의 구조를 모방한 비선형 기법이다. 신경망은 입력층 (input layer), 은닉층 (hidden layer) 그리고 출력층 (output layer)으로 구성되어 있다. 입력층으로부터 전달 되는 변수값들의 선형결합을 은닉층에서 비선형함수로 처리하여 출력층으로 전달하는 것이다. | |
의사결정나무는 무엇인가? | 의사결정나무란 의사결정규칙을 도표화하여 관심대상이 되는 집단을 몇 개의 소집단으로 분류하거나 예측을 수행하는 데이터마이닝 기법 중 하나이다 (박희창과 조광현, 2004). 분석과정이 나무구조에 의해 표현되기 때문에 분석과정을 쉽게 이해하고 설명할 수 있다는 장점을 가지고 있다. | |
선형회귀분석을 선호하는 이유는 무엇인가? | 선형회귀 (linear regression)는 목표변수가 연속형인 경우에 가장 일반적으로 사용하는 회귀분석이다. 이 분석을 선호하는 이유는 여러 함수형태 중에서 직선이 가장 단순하여 다루기가 쉽고, 모든 함수는 독립변수의 구간이 작을 때에 직선으로 근사하게 나타낼 수 있으며, 이론적으로 X와 Y의 결합분포가 이변량정규분포를 따른다면 Y의 조건부 기대치 E(Y|X)는 X의 선형함수 즉 직선이 되기 때문이다. 모형은 다음과 같이 나타낸다. |
석경하, 류태욱 (2002). The efficiency of boosting on SVM. , 13, 55-64
Berndt, E. (1991). The practice of economics: Classic and contemporary, reading, Mass, Addison-Wesley.
Breiman, L., Friedman, J. H., Olshen, R. A. and Stone, C. J. (1984). Classification and regression trees, New York, Chapman and Hall.
Breiman, L. (1996). Bagging predictors. Machine Learning, 24, 123-140.
Cortez, P. and Morais, A. (2007). A data mining approach to predict forest fires using meteorological data, In Neves, J.M. and Santos, M.F. and Machado J.M.. New Trends in Artificial Intelligence: Proceedings of the 13th EPIA 2007 - Portuguese Conference on Artificial Intelligence, December, Guimaraes, Portugal, 512-523.
Efron, B and Tibshirani, R. J (1994). Nonparametric regression and generalized linear models, New York, Chapman and Hall.
Ein-Dor, P. and Feldmesser, J. (1987). Attributes of the performance of central processing units: A relative performance prediction model. Communications of the ACM, 30, 308-317.
Freund, Y. and Schapire, R. E. (1996). Experiments with a new boosting algorithm. Machine Learning, Proceedings of the Thirteenth International Conference 148-156. Morgan Kauffman, San Francisco.
Harrison, D. and Rubinfeld, D. L. (1978). Hedonic prices and the demand for clean air. Journal of Environmental Economics & Management, 5, 81-102.
I-Cheng, Y. (1999). Design of high-performance concrete mixture using neural networks and nonlinear programming. Journal of Computing in Civil Engineering, 13, 36-42.
Loh, W. Y. (2002). Regression trees with unbiased variable selection and interaction detection. Statistica Sinica, 12, 361-386.
Quinlan, J. R. (1993). C4.5: Programs for Machine Learning, San Mateo, CA Morgan Kaufmann.
Shestha, D. L. and Solomatine, D. P. (2004). AdaBoost.RT: A boosting algorithm for regression problems, International Joint Conference on Neural Networks, Budapest, Hungary.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.