$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 출력 코딩 기반 다중 클래스 서포트 벡터 머신을 위한 특징 선택 기법
A Novel Feature Selection Method for Output Coding based Multiclass SVM 원문보기

멀티미디어학회논문지 = Journal of Korea Multimedia Society, v.16 no.7, 2013년, pp.795 - 801  

이영주 (삼성전자 생산기술연구소) ,  이정진 (숭실대학교 컴퓨터학부)

초록
AI-Helper 아이콘AI-Helper

서포트 벡터 머신은 뛰어난 일반화 성능에 힘입어 다양한 분야에서 의사 결정 나무나 인공 신경망에 비해 더 좋은 분류 성능을 보이고 있기 때문에 최근 널리 사용되고 있다. 서포트 벡터 머신은 기본적으로 이진 분류 문제를 위하여 설계되었기 때문에 서포트 벡터 머신을 다중 클래스 문제에 적용하기 위한 방법으로 다중 이진 분류기의 출력 결과를 이용하는 출력 코딩 방법이 주로 사용되고 있다. 그러나 출력 코딩 기반 서포트 벡터 머신에 사용된 기존 특징 선택 기법은 각 분류기의 정확도 향상을 위한 특징이 아니라 전체 분류 정확도 향상을 위한 특징을 선택하고 있다. 본 논문에서는 출력 코딩 기반 서포트 벡터 머신의 각 이진 분류기의 분류 정확도를 최대화하는 특징을 각각 선택하여 사용함으로써, 전체 분류 정확도를 향상시키는 특징 선택 기법을 제안한다. 실험 결과는 제안 기법이 기존 특징 선택 기법에 비하여 통계적으로 유의미한 분류 정확도 향상이 있었음을 보여주었다.

Abstract AI-Helper 아이콘AI-Helper

Recently, support vector machine has been widely used in various application fields due to its superiority of classification performance comparing with decision tree and neural network. Since support vector machine is basically designed for the binary classification problem, output coding method to ...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 그러나 출력 코딩 기반 SVM은 특정 두 개의 클래스를 위한 이진 분류기의 조합임에도 불구하고, 기존 특징 선택 기법[13]은 각 분류기의 정확도 향상에 기여하는 특징이 아니라 전체 분류 정확도 향상에 기여하는 특징을 선택하고 있다. 따라서 본 논문에서는 출력 코딩 기반 SVM의 각 이진 분류기 분류 정확도를 최대화하는 특징을 각각 선택하여 사용함으로써 전체 분류 정확도를 향상시키는 특징 선택 기법을 제안한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
서포트 벡터 머신이 현재 가장 널리 사용되는 이유는 무엇인가? 서포트 벡터 머신(Support Vector Machine, SVM)은 뛰어난 일반화 성능에 힘입어 다양한 분야에서 의사 결정 나무나 인공 신경망에 비해 더욱 좋은 분류 성능을 보이고 있기 때문에 현재 가장 널리 사용되고 있다[1,2]. 그러나 SVM은 기본적으로 이진분류 문제를 위해 설계되었기 때문에 최근 SVM을 다중 클래스 문제에 적용하기 위한 연구가 활발히 진행되고 있다.
최근 SVM을 다중 클래스 문제에 적용하기 위한 연구가 활발히 진행되는 이유는 무엇인가? 서포트 벡터 머신(Support Vector Machine, SVM)은 뛰어난 일반화 성능에 힘입어 다양한 분야에서 의사 결정 나무나 인공 신경망에 비해 더욱 좋은 분류 성능을 보이고 있기 때문에 현재 가장 널리 사용되고 있다[1,2]. 그러나 SVM은 기본적으로 이진분류 문제를 위해 설계되었기 때문에 최근 SVM을 다중 클래스 문제에 적용하기 위한 연구가 활발히 진행되고 있다.
SVM을 다중클래스에 적용하기 위한 방식 두 가지는 무엇인가? SVM을 다중클래스에 적용하기 위한 방식은 크게 두 가지로 구분된다. 첫째, SVM 자체를 다중 클래스 분류기로 일반화하는 것이 있다. 둘째, 이진 SVM을 다중으로 사용하는 방식이 있다. 이진 SVM을 다중으로 사용하는 방식은 다시 다중 SVM의 출력 결과를 이용하여 데이터를 분류하는 출력 코딩 방식과 다중 SVM을 계층적으로 사용하여 데이터를 분류하는 계층 구조 방식으로 나눌 수 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (23)

  1. C. Huang, L.S. Davis, and J.R.G. Townshend, "An Assessment of Support Vector Machines for land Cover Classification," International Journal of Remote Sensing, Vol. 23, No. 4, pp. 725-749, 2002. 

  2. Y. Bazi and F. Melgani, "Toward an Optimal SVM Classification System for Hyperspectral Remote Sensing Images," IEEE Transactions on Geoscience and Remote Sensing, Vol. 44, No. 11, pp. 3374-3385, 2006 

  3. K. Crammer and Y. Singer, "On the Learnability and Design of Output Codes for Multiclass Problems," Computational Learning Theory, Vol. 47, No. 2, pp. 35-46, 2000. 

  4. J. Weston and C. Watkins, "Multi-Class Support Vector Machines," Proc. of European Symposium on Artificial Neural Networks, pp. 219-224, 1999. 

  5. M. Bartlett, J. Movellan, and T. Sejnowski, "Face Recognition by Independent Component Analysis," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 13, No. 6, pp. 1450-1464, 2002. 

  6. J.C. Platt, N. Cristianini, and J. Shawe-Taylor, "Large Margin DAG's for Multiclass Classification," Advances in Neural Information Processing Systems, Vol. 12, pp. 547-553, MIT Press, 2000. 

  7. S. Cheong, S.H. Oh, and S. Lee, "Support Vector Machines with Binary Tree Architecture for Multi-Class Classification," Neural Information Processing: Letters and Reviews, Vol. 2, No. 3, pp. 47-51, 2004. 

  8. C. Young, C. Yen, Y. Pao, and M. Nagurka, "One-class-at-a-time Removal Sequence Planning Method for Multiclass Classification Problems," IEEE Transactions on Neural Networks, Vol. 17, No. 6, pp. 1544-1549, 2006. 

  9. C. Hsu and C. Lin, "A Comparison of Methods for Multiclass Support Vector Machines," IEEE Transactions on Neural Networks, Vol. 13, No. 2, pp. 415-425, 2002. 

  10. J. Ghosh, "Multiclassifier Systems: Back to the Future," Proc. of the 3rd Int'l Workshop on Multiple Classifier Systems, Lecture Note in Computer Science, Vol. 2364, pp. 1-15, 2002. 

  11. T. Hastie and R. Tibshirani, "Classification by Pairwise Coupling," The Annals of Statistics, Vol. 26, No. 2, pp. 451-471, 1998. 

  12. T. Dietterich and G. Bakiri, "Solving Multiclass Learning Problems Via Error-Correcting Output Codes," Journal of Artificial Intelligence Research, Vol. 2, pp. 263-286, 1995. 

  13. I. Guyon and A. Elisseeff, "An Introduction to Variable and Feature Selection," Journal of Machine Learning Research, Vol. 3, No. 1, pp. 1157- 1182, 2003.(호 기입요함!) 

  14. B. Fei and J. Liu, "Binary tree of SVM: A New Fast Multiclass Training and Classification Algorithm," IEEE Transactions on Neural Networks, Vol. 17, No. 3, pp. 696-704, 2006. 

  15. J.H. Friedman, Another Approach to Polychotomous Classification, Technical Report, Stanford University, 1996. 

  16. A. Jain and D. Zongker, "Feature Selection: Evaluation, Application, and Small Sample Performance," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 19, No. 2, pp. 153-158, 1997. 

  17. 이정진, 김경원, 이호, "블록 기반 클러스터링과 히스토그램 카이 제곱 거리를 이용한 반도체 결함 원인 진단 기법," 멀티미디어학회논문지, 제5권, 제9호, pp. 1149-1155, 2012. 

  18. G.F. Hughes, "On the Mean Accuracy of Statistical Pattern Recognizers," IEEE Transactions on Information Theory, pp. 55-63, 1968. 

  19. Y. Saeys, I. Inza, and P. Larranaga, "A Review of Feature Selection Techniques in bioinformatics," Bioinformatics, Vol. 23, No. 19, pp. 2507-2517, 2007. 

  20. A.L. Blum and R.L. Rivest, "Training a 3- Node Neural Network is NP-complete," Neural Networks, Vol. 5, No. 1, pp. 17-27, 1992. 

  21. M. Garey and D. Johnson, Computers and Intractability: A Guide to the Theory of NPcompleteness, Freeman, New York, 1979. 

  22. M. Kudo and J. Sklansky, "Comparison of Algorithms that Select Features for Pattern Classifiers," Pattern Recognition, Vol. 33, No. 1, pp. 25-41, 2000. 

  23. UCI Machine Learning Repository, http://archive.ics.uci.edu/ml/, 2013. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

이 논문과 함께 이용한 콘텐츠

유발과제정보 저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로