최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기지능정보연구 = Journal of intelligence and information systems, v.17 no.4, 2011년, pp.241 - 254
김경재 (동국대학교_서울 경영정보학과) , 안현철 (국민대학교 경영정보학부)
Financial time-series forecasting is one of the most important issues because it is essential for the risk management of financial institutions. Therefore, researchers have tried to forecast financial time-series using various data mining techniques such as regression, artificial neural networks, de...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
SVM의 특징은? | SVM은 입력공간과 관련된 비선형문제를 고차원의 특징공간에서의 선형문제로 변환시켜 나타내기 때문에 수학적으로 분석하는 것이 수월하다는 점이 특징이다(Vapnik, 1995, 1998). 다른 데이터마이닝 기법에 비하여 SVM은 조정해야 할 모수의 수가 많지 않아 비교적 쉽게 학습에 영향을 미치는 요인들을 규명할 수 있고, 구조적위험을 최소화하여 과도적합문제에서 벗어날 가능성이 크며, 볼록함수를 최소화하는 학습을 진행하여 전역 최적해를 찾을 가능성이 크다는 점이 장점이다. | |
일반적인 SVM을 이용하려면 임의성이 높고, 국부 최적해에 수렴할 가능성이 큰 이유는? | SVM은 인공신경망과 필적할 만큼의 예측 정확도를 보이는 사례가 많았지만, 암상자로 불리는 인공신경망 모형에 비해 구축된 예측모형의 구조를 이해하기 쉽고, 인공신경망에 비해 과도적합의 가능성이 적어서 적은 수의 데이터에서도 적용 가능하다는 장점을 가지고 있다. 하지만, 일반적인 SVM을 이용하려면, 인공신경망과 마찬가지로 여러 가지 설계요소들을 설계자가 선택하여야 하기 때문에 임의성이 높고, 국부 최적해에 수렴할 가능성도 크다. 또한, 많은 수의 데이터가 존재하는 경우에는 데이터를 분석하고 이용하는데 시간이 소요되고, 종종 잡음이 심한 데이터가 포함된 경우에는 기대하는 수준의 예측성과를 얻지 못할 가능성이 있다. | |
SVM을 사용하려고 할때, 잡음이 심한 데이터가 포함된 경우 어떤 문제를 일으킬 가능성이 있는가? | 하지만, 일반적인 SVM을 이용하려면, 인공신경망과 마찬가지로 여러 가지 설계요소들을 설계자가 선택하여야 하기 때문에 임의성이 높고, 국부 최적해에 수렴할 가능성도 크다. 또한, 많은 수의 데이터가 존재하는 경우에는 데이터를 분석하고 이용하는데 시간이 소요되고, 종종 잡음이 심한 데이터가 포함된 경우에는 기대하는 수준의 예측성과를 얻지 못할 가능성이 있다. 본 연구에서는 일반적인 SVM의 장점을 그대로 유지하면서, 전술한 두 가지 단점을 보완한 새로운 SVM 모형을 제안한다. |
안현철, 김경재, 한인구, "다분류 Support Vector Machine을 이용한 한국 기업의 지능형 기업 채권평가모형", 경영학연구, 35권 5호(2006), 1479-1496.
Ahn, H. and K. Kim, "Using genetic algorithms to optimize k-nearest neighbors for data mining", Annals of Operations Research, Vol.163, No.1(2008), 5-18.
Chang, C.-C. and C.-J Lin, LIBSVM:a library for support vector machines, Software available at http://www.csie.ntu.edu.tw/~cjlin/ libsvm, 2001
Gates, G. W., "The reduced nearest neighbor rule", IEEE Transactions on Information Theory, Vol.18, No.3(1972), 431-433.
Harnett, D. L., A. K. Soni, Statistical methods for business and economics, Addison-Wesley, MA, 1991
Hart, P. E., "The condensed nearest neighbor rule", IEEE Transactions on Information Theory, Vol.14(1968), 515-516.
Kim, K., "Financial time series forecasting using support vector machines", Neurocomputing, Vol.55(2003), 307-319.
Kim, K., "Artificial neural networks with evolutionary instance selection for financial forecasting", Expert Systems with Applications, Vol.30, No.3(2006), 519-526.
Kuncheva, L. I., "'Change-glasses' approach in pattern recognition", Pattern Recognition Letters, Vol.14(1993), 619-623.
Liu, H. and H. Motoda, "Feature transformation and subset selection", IEEE Intelligent Systems, Vol.13, No.2(1998), 26-28.
McSherry, D., "Automating case selection in the construction of a case library", Knowledge Based Systems, Vol.13, No.2/3(2000), 133- 140.
Reeves, C. R. and D. R. Bush, Using genetic algorithms for training data selection in RBF networks, In Liu, H. and H. Motoda, Instance selection and construction for data mining, Kluwer Academic Publishers, Massachusetts, (2001), 339-356.
Reeves, C. R. and S. J. Taylor, Selection of training sets for neural networks by a genetic algorithm, In Eiden, A. E., T. Back, M. Schoenauer and H.-P. Schwefel, Parallel problem-solving from nature-PPSN V, Springer-Verlag, Berlin, 1998.
Ritter, G. L., H. B. Woodruff, S. R. Lowry, and T. L. Isenhour, "An algorithm for a selective nearest neighbor decision rule", IEEE Transactions on Information Theory, Vol.21, No.6(1975), 665-669.
Smyth, B., "Case-base maintenance", Proceedings of the 11th International Conference on Industrial and Engineering Applications of Artificial Intelligence and Expert Systems, (1998), 507-516.
Tay, F. E. H. and L. Cao, "Application of support vector machines in financial time series forecasting", Omega, Vol.29(2001), 309-317.
Tetko, I. V. and A. E. P. Villa, "Efficient partition of learning data sets for neural network training", Neural Networks, Vol.10, No.8 (1997), 1361-1374.
Vapnik, V. N., The Nature of Statistical Learning Theory, Springer-Verlag, 1995
Vapnik, V. N., Statistical Learning Theory, Wiley, New York, 1998
Wilson, D. L., "Asymptotic properties of nearest neighbor rules using edited data", IEEE Transactions on Systems, Man, and Cybernetics, Vol.2, No.3(1972), 408-421.
Wilson, D. R. and T. R. Martinez, "Reduction techniques for instance-based learning algorithms", Machine Learning, Vol.38(2000), 257-286.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.