최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기멀티미디어학회논문지 = Journal of Korea Multimedia Society, v.16 no.7, 2013년, pp.795 - 801
이영주 (삼성전자 생산기술연구소) , 이정진 (숭실대학교 컴퓨터학부)
Recently, support vector machine has been widely used in various application fields due to its superiority of classification performance comparing with decision tree and neural network. Since support vector machine is basically designed for the binary classification problem, output coding method to ...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
서포트 벡터 머신이 현재 가장 널리 사용되는 이유는 무엇인가? | 서포트 벡터 머신(Support Vector Machine, SVM)은 뛰어난 일반화 성능에 힘입어 다양한 분야에서 의사 결정 나무나 인공 신경망에 비해 더욱 좋은 분류 성능을 보이고 있기 때문에 현재 가장 널리 사용되고 있다[1,2]. 그러나 SVM은 기본적으로 이진분류 문제를 위해 설계되었기 때문에 최근 SVM을 다중 클래스 문제에 적용하기 위한 연구가 활발히 진행되고 있다. | |
최근 SVM을 다중 클래스 문제에 적용하기 위한 연구가 활발히 진행되는 이유는 무엇인가? | 서포트 벡터 머신(Support Vector Machine, SVM)은 뛰어난 일반화 성능에 힘입어 다양한 분야에서 의사 결정 나무나 인공 신경망에 비해 더욱 좋은 분류 성능을 보이고 있기 때문에 현재 가장 널리 사용되고 있다[1,2]. 그러나 SVM은 기본적으로 이진분류 문제를 위해 설계되었기 때문에 최근 SVM을 다중 클래스 문제에 적용하기 위한 연구가 활발히 진행되고 있다. | |
SVM을 다중클래스에 적용하기 위한 방식 두 가지는 무엇인가? | SVM을 다중클래스에 적용하기 위한 방식은 크게 두 가지로 구분된다. 첫째, SVM 자체를 다중 클래스 분류기로 일반화하는 것이 있다. 둘째, 이진 SVM을 다중으로 사용하는 방식이 있다. 이진 SVM을 다중으로 사용하는 방식은 다시 다중 SVM의 출력 결과를 이용하여 데이터를 분류하는 출력 코딩 방식과 다중 SVM을 계층적으로 사용하여 데이터를 분류하는 계층 구조 방식으로 나눌 수 있다. |
C. Huang, L.S. Davis, and J.R.G. Townshend, "An Assessment of Support Vector Machines for land Cover Classification," International Journal of Remote Sensing, Vol. 23, No. 4, pp. 725-749, 2002.
Y. Bazi and F. Melgani, "Toward an Optimal SVM Classification System for Hyperspectral Remote Sensing Images," IEEE Transactions on Geoscience and Remote Sensing, Vol. 44, No. 11, pp. 3374-3385, 2006
K. Crammer and Y. Singer, "On the Learnability and Design of Output Codes for Multiclass Problems," Computational Learning Theory, Vol. 47, No. 2, pp. 35-46, 2000.
J. Weston and C. Watkins, "Multi-Class Support Vector Machines," Proc. of European Symposium on Artificial Neural Networks, pp. 219-224, 1999.
M. Bartlett, J. Movellan, and T. Sejnowski, "Face Recognition by Independent Component Analysis," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 13, No. 6, pp. 1450-1464, 2002.
J.C. Platt, N. Cristianini, and J. Shawe-Taylor, "Large Margin DAG's for Multiclass Classification," Advances in Neural Information Processing Systems, Vol. 12, pp. 547-553, MIT Press, 2000.
S. Cheong, S.H. Oh, and S. Lee, "Support Vector Machines with Binary Tree Architecture for Multi-Class Classification," Neural Information Processing: Letters and Reviews, Vol. 2, No. 3, pp. 47-51, 2004.
C. Young, C. Yen, Y. Pao, and M. Nagurka, "One-class-at-a-time Removal Sequence Planning Method for Multiclass Classification Problems," IEEE Transactions on Neural Networks, Vol. 17, No. 6, pp. 1544-1549, 2006.
C. Hsu and C. Lin, "A Comparison of Methods for Multiclass Support Vector Machines," IEEE Transactions on Neural Networks, Vol. 13, No. 2, pp. 415-425, 2002.
J. Ghosh, "Multiclassifier Systems: Back to the Future," Proc. of the 3rd Int'l Workshop on Multiple Classifier Systems, Lecture Note in Computer Science, Vol. 2364, pp. 1-15, 2002.
T. Hastie and R. Tibshirani, "Classification by Pairwise Coupling," The Annals of Statistics, Vol. 26, No. 2, pp. 451-471, 1998.
T. Dietterich and G. Bakiri, "Solving Multiclass Learning Problems Via Error-Correcting Output Codes," Journal of Artificial Intelligence Research, Vol. 2, pp. 263-286, 1995.
I. Guyon and A. Elisseeff, "An Introduction to Variable and Feature Selection," Journal of Machine Learning Research, Vol. 3, No. 1, pp. 1157- 1182, 2003.(호 기입요함!)
B. Fei and J. Liu, "Binary tree of SVM: A New Fast Multiclass Training and Classification Algorithm," IEEE Transactions on Neural Networks, Vol. 17, No. 3, pp. 696-704, 2006.
J.H. Friedman, Another Approach to Polychotomous Classification, Technical Report, Stanford University, 1996.
A. Jain and D. Zongker, "Feature Selection: Evaluation, Application, and Small Sample Performance," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 19, No. 2, pp. 153-158, 1997.
G.F. Hughes, "On the Mean Accuracy of Statistical Pattern Recognizers," IEEE Transactions on Information Theory, pp. 55-63, 1968.
Y. Saeys, I. Inza, and P. Larranaga, "A Review of Feature Selection Techniques in bioinformatics," Bioinformatics, Vol. 23, No. 19, pp. 2507-2517, 2007.
A.L. Blum and R.L. Rivest, "Training a 3- Node Neural Network is NP-complete," Neural Networks, Vol. 5, No. 1, pp. 17-27, 1992.
M. Garey and D. Johnson, Computers and Intractability: A Guide to the Theory of NPcompleteness, Freeman, New York, 1979.
M. Kudo and J. Sklansky, "Comparison of Algorithms that Select Features for Pattern Classifiers," Pattern Recognition, Vol. 33, No. 1, pp. 25-41, 2000.
UCI Machine Learning Repository, http://archive.ics.uci.edu/ml/, 2013.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.