최근 기계학습 분야에서 커널머신을 이용한 대표적 학습기로 Support Vector Machines (SVM)이 주목 받고 있다. SVM은 통계적 학습이론에 기반하여 뛰어난 일반화 성능을 보여주며, 다양한 패턴인식 문제에 적용되고 있다. 그러나. SVM은 이진 분류기이므로 일반적인 다중 클래스 문제에 곧바로 적용할 수 없다. SVM을 다중 클래스 문제의 하나인 얼굴인식에 도입하기 위한 방법으로는, One-Per-Class와 All-Pairs가 대표적이다. 상기 두 방법은 다중 클래스 문제를 여러 개의 이진 클래스 문제로 분할하고, 이들을 다시 종합하여 최종 결정을 내리는 출력코딩이라는 일반적인 방법에 속한다. 본 논문에서는 이진 분류기인 SVM의 다중 클래스 분류기 확장 방안으로 출력코딩 방법론을 설명한다. 또한 출력코딩 방법론의 대표적인 이론적 기반인 ECOC(Ewor-Correcting Output Codes)를 근간으로 하는 새로운 출력코딩 방법들을 제안하고, 얼굴인식 실험을 통해 SVM을 기반 분류기로 사용할 경우의, 출력코딩 방법의 특성을 비교$\cdot$분석한다.
최근 기계학습 분야에서 커널머신을 이용한 대표적 학습기로 Support Vector Machines (SVM)이 주목 받고 있다. SVM은 통계적 학습이론에 기반하여 뛰어난 일반화 성능을 보여주며, 다양한 패턴인식 문제에 적용되고 있다. 그러나. SVM은 이진 분류기이므로 일반적인 다중 클래스 문제에 곧바로 적용할 수 없다. SVM을 다중 클래스 문제의 하나인 얼굴인식에 도입하기 위한 방법으로는, One-Per-Class와 All-Pairs가 대표적이다. 상기 두 방법은 다중 클래스 문제를 여러 개의 이진 클래스 문제로 분할하고, 이들을 다시 종합하여 최종 결정을 내리는 출력코딩이라는 일반적인 방법에 속한다. 본 논문에서는 이진 분류기인 SVM의 다중 클래스 분류기 확장 방안으로 출력코딩 방법론을 설명한다. 또한 출력코딩 방법론의 대표적인 이론적 기반인 ECOC(Ewor-Correcting Output Codes)를 근간으로 하는 새로운 출력코딩 방법들을 제안하고, 얼굴인식 실험을 통해 SVM을 기반 분류기로 사용할 경우의, 출력코딩 방법의 특성을 비교$\cdot$분석한다.
Support Vector Machines (SVM) is well known for a representative learner as one of the kernel methods. SVM which is based on the statistical learning theory shows good generalization performance and has been applied to various pattern recognition problems. However, SVM is basically to deal with a tw...
Support Vector Machines (SVM) is well known for a representative learner as one of the kernel methods. SVM which is based on the statistical learning theory shows good generalization performance and has been applied to various pattern recognition problems. However, SVM is basically to deal with a two-class classification problem, so we cannot solve directly a multi-class problem with a binary SVM. One-Per-Class (OPC) and All-Pairs have been applied to solve the face recognition problem, which is one of the multi-class problems, with SVM. The two methods above are ones of the output coding methods, a general approach for solving multi-class problem with multiple binary classifiers, which decomposes a complex multi-class problem into a set of binary problems and then reconstructs the outputs of binary classifiers for each binary problem. In this paper, we introduce the output coding methods as an approach for extending binary SVM to multi-class SVM and propose new output coding schemes based on the Error-Correcting Output Codes (ECOC) which is a dominant theoretical foundation of the output coding methods. From the experiment on the face recognition, we give empirical results on the properties of output coding methods including our proposed ones.
Support Vector Machines (SVM) is well known for a representative learner as one of the kernel methods. SVM which is based on the statistical learning theory shows good generalization performance and has been applied to various pattern recognition problems. However, SVM is basically to deal with a two-class classification problem, so we cannot solve directly a multi-class problem with a binary SVM. One-Per-Class (OPC) and All-Pairs have been applied to solve the face recognition problem, which is one of the multi-class problems, with SVM. The two methods above are ones of the output coding methods, a general approach for solving multi-class problem with multiple binary classifiers, which decomposes a complex multi-class problem into a set of binary problems and then reconstructs the outputs of binary classifiers for each binary problem. In this paper, we introduce the output coding methods as an approach for extending binary SVM to multi-class SVM and propose new output coding schemes based on the Error-Correcting Output Codes (ECOC) which is a dominant theoretical foundation of the output coding methods. From the experiment on the face recognition, we give empirical results on the properties of output coding methods including our proposed ones.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
복잡도가 높은 이진 문제 에 대한 이진 분류기의 출력은 그렇지 않은 분류기에 비해 출력한 값에 대한 신뢰도가 낮을 수 있다. 디코딩 과정에서 이를 고려하고자 한다. 기반 분류기 7 에 대한 가중치 wl 는 다음과 같이 계산한다.
Correcting Classifier(CC): CC는 ECOC의 근간이 되는, 분할행렬의 해밍거리를 크게 하는데 초점을 두어 개발한 방법론으로 전형적인 ECOC 방법론의 하나이다 [29]. 또한 All-Pairs의 넌센스출력의 문제를 다루기 위해 제안되었다. 각 이진 분류기 办는 클래스,,,와 나머지 클래스들을 구분하기 위해 학습된다.
본 절에서는 이진 분류 문제의 복잡도를 추정하기 위한 직관적인 수치를 정의하여, 새로운 분할기법 설계 시 하나의 기준이 될 수 있도록 한다. 하나의 이진 분류기 를 학습하기 위해 여러 개의 클래스로 구성된 새로운 두 개의 클래스를 슈퍼클래스라 하자.
직관적문제복잡도와 성능간의 관계 : 마진디코딩에서 는 해밍디코딩 때와는 달리 N-Shift 및 트리기반 기법 이 중복학습을 했음에도 불구하고, OPC보다 성능이 저 하되었음을 확인할 수 있다. 이러한 이유를 설명하기 위 해, IPC와 가중치기반디코딩 방법을 관찰해 본다.
출력코딩 방법은 분할방법 및 복원방법에 따라 구분 되나, 본 논문에서는 분할방법을 기준으로 대표적 방법 론을 소개한다. 보다 자세한 구분 및 이에 따른 방법론 소개는 [28]을 참조하기 바란다.
가설 설정
클래스의 개수가 40개인 경우(ORL 얼굴영상) 각 출 력코딩 방법에서 요구되는 이진 분류기의 개수와 최소 해밍거리를 표 6에 정리하였다. 여기서, 분할행렬의 0 요소와 관련된 해밍거리는 05로 가정하였다.
제안 방법
본 논문에서는 SVM을 다중 클래스 문제에 적용하기 위한 방법으로써, 얼굴인식 등에서 단편적으로 적용된 OPC, All-Pairs 방법을 출력코딩이란 일반적인 방법론 으로 정형화하여 재기술 하고, 기존의 주요 방법론들 소 개하고 장•단점을 설명한다. 그리고, 출력코딩 방법론의 주요 이론적 기반인 ECOC를 근간으로 하는 새로운 출 력코딩 방법들을 제안하고, 얼굴인식 실험을 통해 SVM 을 기반 분류기로 사용할 경우의, 출력코딩 방법의 특성을 비교.분석한다.
출력코딩 방법의 특성을 비교하기 위해서 사용한 기반 분류기인 SVM의 구현 알고리즘은 SMO [39]이며 사용한 커널 함수는 RBF이다. 무작위로 한 사 람에 대해 5장씩 두 그룹으로 나누어 학습과 테스트 셋 을 구성하였고, 이를 5번 수행하여 평균을 내었다. 실험에서 적용한 디코딩 방법을 표 4에 제시하였다.
본 논문에서는 SVM을 다중 클래스 문제에 적용하기 위한 방법으로써, 얼굴인식 등에서 단편적으로 적용된 OPC, All-Pairs 방법을 출력코딩이란 일반적인 방법론 으로 정형화하여 재기술 하고, 기존의 주요 방법론들 소 개하고 장•단점을 설명한다. 그리고, 출력코딩 방법론의 주요 이론적 기반인 ECOC를 근간으로 하는 새로운 출 력코딩 방법들을 제안하고, 얼굴인식 실험을 통해 SVM 을 기반 분류기로 사용할 경우의, 출력코딩 방법의 특성을 비교.
본 논문에서는 대표적인 출력코딩 방법론인 OPC, All-Paris, CC 그리고 OPC기반 제안 방법론에 대하여 실험적으로 특성을 비교•분석하였다. 실험을 통해 다음과 같은 사항을 관찰하였다.
분류기 마다 습관적출력이 다른 점은 오히려 클래스를 구분하는 정보로 활용할 수 있다. 본 논문에서는 이를 활용하기 위해 평균템플릿을 도입한다. 평균템 플릿은 학습 샘플에 대하여 각 이진 분류기의 출력 평 균을 계산하는 식 (10)을 통해 도출한다.
본 장에서는 ECOC 개념을 가지고 OPC기반의 새로운 방법론을 제안하고, 이들의 특성을 설명하기 위한 새로운 측정치를 정의한다. 또한 마진디코딩 기반 출력코 딩 방법의 성능분석을 위해 문제복잡도를 새롭게 정의 한다.
본 절에서는 대표적인 출력코딩 방법인 OPC, AllPairs, CC, 그리고 제안한 OPC기반 방법들의 특성을 실험적으로 다음 항목들에 대해 비교•분석 한다.
이를 보완하는 방 법으로, 하나는 이질적인 수준의 출력 자체를 최종 클래 스 결정을 위한 정보로 활용하는 방안이 있고, 또 다른 하나는 이질적인 수준의 출력에 적절한 가중치를 부여 하는 방안이 있을 수 있다. 전자를 위한 상대乃리弓코딩 기법과 후자를 위한 가중치刀반디코딩 기법을 제안한다.
주성분 분석을 위해서 모든 데이타를 사용하였고, 변 환결과를 두 부분 즉, 참조 셋과 테스트 셋으로 구분하였다. 얼굴영상에 대한 특징벡터의 크기는 얼굴인식 평가 표준 프로토콜인 FERETT38]에서 제시한 PCA기반 인식방법론에 따라 최고 인식률을 보이는 48차원으로 결정하였다.
정리해보면, 성능은 해밍디코딩 사용 시에는 중복학습에 매우 큰 영향을 받고, 반면 마진디코딩 사용 시에는 중복학습에는 영향을 덜 받으면서 오히려 문제 복잡도에 더 의존한다고 추정할 수 있다. 표 6에 ORL 얼굴 데이타 셋에 대한 IPC 및 인식성능을 비교하였다.
또한 마진디코딩 기반 출력코 딩 방법의 성능분석을 위해 문제복잡도를 새롭게 정의 한다. 해밍디코딩 기반 OPC는 에러정정 능력이 전혀 없으므로 에러정정능력을 부여하기 위해, 추가적인 이진 분류기를 도입함으로써 몇 가지 코딩방법론을 제안한다
대상 데이터
ORL 및 Yale 데이타 셋은 얼굴인식에서 널리 사용되는 데이타 셋이다. ORL 데이타 셋은 400장의 얼굴 영상으로, 40명에 대해 10장씩의 영상으로 구성되어 있다. 한 사람에 대한 10장의 영상은 조명, 표정, 포즈 등 매우 다양하게 구성되어 있으며, Yale 데이타 셋은 15 명에 대해 다양한 표정 및 조명으로 한 사람당 11장씩 총 165장으로 구성되어 있다
본 실험에서는 ORL 얼굴데이타(http:〃www.uk.research. att.com/facedatabase.html), Yale 얼굴데이타(http://cvc,yale.edu/projects/yalefaces/yalefaces.html)셋을 시용 한다. ORL 및 Yale 데이타 셋은 얼굴인식에서 널리 사용되는 데이타 셋이다.
ORL 데이타 셋은 400장의 얼굴 영상으로, 40명에 대해 10장씩의 영상으로 구성되어 있다. 한 사람에 대한 10장의 영상은 조명, 표정, 포즈 등 매우 다양하게 구성되어 있으며, Yale 데이타 셋은 15 명에 대해 다양한 표정 및 조명으로 한 사람당 11장씩 총 165장으로 구성되어 있다
데이터처리
이러한 추정결과에 힘을 실어주기 위해, N-Shift과 트리기반 기법에 대해 마진디코딩과 가중치기반디코딩 방법의 성능을 그림 9에서 비교해 보았다. 표 6과 그림 9에 따르면, 마진디코딩 적용 시 IPC가 증가함에 따라 인식성능이 떨어지는 것을 볼 수 있다.
이론/모형
SVM에 적용할 데이타 셋은 전처리 및 주성분 분석 (PCA) 방법에 기반하여 획득하였다. 그림 6은 전처리 후 정규화된 얼굴영상을 보여준다.
All-Pairs 역시 매우 많은 이진 머신으로 구성되 는데, 전통적인 ECOC와의 차이는 분할행렬에 “0”이들 어간다는 점이다. 분할행렬에 0을 도입함으로써 AllPairs 기법을 포함할 수 있는 일반화된 ECOC를 출력 코딩이라고 본 논문에서는 사용한다(3.1 참조)
주성분 분석을 위해서 모든 데이타를 사용하였고, 변 환결과를 두 부분 즉, 참조 셋과 테스트 셋으로 구분하였다. 얼굴영상에 대한 특징벡터의 크기는 얼굴인식 평가 표준 프로토콜인 FERETT38]에서 제시한 PCA기반 인식방법론에 따라 최고 인식률을 보이는 48차원으로 결정하였다. 출력코딩 방법의 특성을 비교하기 위해서 사용한 기반 분류기인 SVM의 구현 알고리즘은 SMO [39]이며 사용한 커널 함수는 RBF이다.
얼굴영상에 대한 특징벡터의 크기는 얼굴인식 평가 표준 프로토콜인 FERETT38]에서 제시한 PCA기반 인식방법론에 따라 최고 인식률을 보이는 48차원으로 결정하였다. 출력코딩 방법의 특성을 비교하기 위해서 사용한 기반 분류기인 SVM의 구현 알고리즘은 SMO [39]이며 사용한 커널 함수는 RBF이다. 무작위로 한 사 람에 대해 5장씩 두 그룹으로 나누어 학습과 테스트 셋 을 구성하였고, 이를 5번 수행하여 평균을 내었다.
성능/효과
WMG와 MG의 성능비교를 통해 간접적으로, IPC의 중요성을 보여주었다. SVM을 기반 분류기로 사용하는 경우, 보다 정확한 복잡도 평가는 마진의 크기로 측정될 수 있다.
결론적으로, SVM과 같이 마진디코딩이 가능한 경우, 성능은 분할행렬의 최소해밍거리 보다 문제복잡도에 더 의존적이고, 이에 따라서 중복학습을 요구하는 즉 더 많은 이진 분류기를 요구하는 전통적인 에러정정능력 개 념으로부터 자유로워져야 한다고 본다. 이러한 관점에서 전통적인 OPC 방법은 여전히 이진 분류기를 다중클래 스 문제에 적용하기 위한 적절한 선택이 될 수 있다.
표 6과 그림 9에 따르면, 마진디코딩 적용 시 IPC가 증가함에 따라 인식성능이 떨어지는 것을 볼 수 있다. 그러나, 제안한 가중치기반마진디코딩 기법 적용 시 IPC와는 관계없이 성능이 일정함을 보인다. 이것은 제안가중치기반마진디 코딩 기법이 문제복잡도에 관련된 어떤 요인을 제거해 주기 때문으로 해석할 수 있으며, 이는 다시 마진디코딩 사용 시 각 분할기법의 성능은 EPC와 관련 있음을 반중 한다고 볼 수 있다.
첫째, 해밍디코딩 적용 시 인식성능은 중복학습 및 최소해밍거리에 의존한다. 둘 째, 마진디코딩은 All-Pairs을 제외한 우리가 적용한 나머지 기법에서 해밍디코딩 보다 우수한 성능을 보였으 며, 이로부터 마진디코딩은 중복학습이나 최소해밍거리 에 덜 의존적이라고 판단할 수 있다. 중복학습은 해밍디 코딩 적용 시에는 성능에 강한 영향을 주지만, 마진디코 딩 적용 시에는 그렇지 못하고, 성능은 오히려 문제복잡 도에 더 영향을 받는다.
첫 째, AU-PaHs의 이진 분류기를 학습하기 위한 샘플의 수가 OPC의 이진 분류기보다 매우 작기 때문에, 특히 얼굴영상의 경우 데이타 수집의 어려움 때문에 이러한 경향이 심한데, 이진 분류기를 충분히 학습시키기에 학 습 샘플이 부족하였다고 볼 수 있다. 둘째, 분할행렬이 0 요소를 가지고 있고, 이는 어떤 클래스는 학습에 관여 하지 않는다는 것을 의미하고, 결국 넌센스출력의문제를 유발한다. 넌센스출력문제의 정도는 클래스의 수가 늘어 날수록 심각해진다
즉, N-Shift 및 트리기반 기법이 OPC보다 상대적으로 높은 성능을 보이는 이유는, OPC가 가지는 이진 분류기 에 몇 개의 추가적인 이진 분류기를 더 보유함으로써 중복학습이 이루어졌기 때문이다. 따라서, 해밍디코딩을 사용하는 경우, 분할기법의 성능은 최소해밍거리 뿐만 아니라, 중복학습의 양, 즉 이진 분류기의 개수에도 의 존한다고 결론지올 수 있다.
다음 절에서는 각 분할기법에 따른 인식실험 결과를 제시한다. 실험결과는 SVM의 인자 C를 1에서 10까지 변화시켜가면서, 그리고 RBF 커널을 사용하는 관계로, 분산 인자는 0.2에서 1.0까지 변화시켜가면서 얻은 결과 중 최고 인식률로 도출하였다
그림 7은 각 분할방법에 대해 해밍디코딩을 적용하였 을 때의 인식성능이다. 인식성능과 표 5를 대조해 보면, 인식성능이 이진 분류기의 수와 최소해밍거리에 비례함 을 확인할 수 있다.
직관적문제복잡도와 성능간의 관계 : 마진디코딩에서 는 해밍디코딩 때와는 달리 N-Shift 및 트리기반 기법 이 중복학습을 했음에도 불구하고, OPC보다 성능이 저 하되었음을 확인할 수 있다. 이러한 이유를 설명하기 위 해, IPC와 가중치기반디코딩 방법을 관찰해 본다.
마진디코딩 적용 시 All-Pairs만이 오히려 성능이 저 하된 이유는 다음 두 가지 관점에서 설명할 수 있다. 첫 째, AU-PaHs의 이진 분류기를 학습하기 위한 샘플의 수가 OPC의 이진 분류기보다 매우 작기 때문에, 특히 얼굴영상의 경우 데이타 수집의 어려움 때문에 이러한 경향이 심한데, 이진 분류기를 충분히 학습시키기에 학 습 샘플이 부족하였다고 볼 수 있다. 둘째, 분할행렬이 0 요소를 가지고 있고, 이는 어떤 클래스는 학습에 관여 하지 않는다는 것을 의미하고, 결국 넌센스출력의문제를 유발한다.
마지막으로 SVM이 다음 장에서 소개될 출력코딩 방법의 기반 분류기로 사용되었을 때의 장 점은 다음과 같다. 첫째, SVM 분류기의 실수 출력은 출력코딩에서의 마진디코딩 (3장 참조) 적용이 가능하며, 둘째, 커널 함수를 도입하여 비교적 복잡한 문제도 학습할 수 있다는 점이다.
실험을 통해 다음과 같은 사항을 관찰하였다. 첫째, 해밍디코딩 적용 시 인식성능은 중복학습 및 최소해밍거리에 의존한다. 둘 째, 마진디코딩은 All-Pairs을 제외한 우리가 적용한 나머지 기법에서 해밍디코딩 보다 우수한 성능을 보였으 며, 이로부터 마진디코딩은 중복학습이나 최소해밍거리 에 덜 의존적이라고 판단할 수 있다.
하나의 분류기가 모든 클래스의 샘플을 학습하는, OPC와 CC의 경우를 보면, 해밍디코딩 적용 시 CC가 확실히 월등한 성능을 보인다. 이는 해밍거리에 기반하는 에러정정능력 때문으로 볼 수 있다.
해밍디코딩과 마진디코딩의 성능 분석: 그림 8에 따 르면, AU-Pairs를 제외한 모든 분할기법에 대해 마진디 고딩이 해밍디코딩보다 우수함을 알 수 있다. 이것은 마 진디코딩이 이진 분류기의 개수 또는 최소해밍거리에는 크게 의존하지 않음을 의미한다
후속연구
본 디코딩 기법은 분할기법의 복잡도를 판단하는데 사용될 수도 있다. 만약 본 디코딩 기법을 통해 어떤 분할기법의 성능향상이 이루어졌다면, 그 분할기법은 복 잡한 것으로 판단할 수 있다.
후속 연구는 클래스의 수가 많은 경우에도 효과적으로 SVM을 적용할 수 있도록, 문제복잡도를 최소화하면 서도 이진 분류기의 수를 대폭 줄일 수 있는 트리기반 기법으로 방향을 잡고 있다
참고문헌 (40)
N. Cristianini and J. Shawe-Taylor, 'An Introduction to Support Vector Machines and Other Kernel-Based Learning Methods,' Cambridge University Press, 2000
V. Vapnik, 'An Overview of Statistical Learning Theory,' IEEE Trans. On Neural Networks, Vol. 10, No.5, pp. 988-999, 1999
E. Allwein, R. Schapire and Y. Singer, 'Reducing Multiclass to Binary: A Unifying Approach for Margin Classifiers,' Journal of Machine Learning Research, Vol. 1, pp. 113-141, 2000
G. Guo, S. Li, and K. Chan, 'Face Recognition by Support Vector Machines,' Proc. of IEEE Int'l Conf. on Automatic Face and Gesture Recognition,' pp. 196-201, 2000
M. Turk and A. Pentland, 'Eigenfaces for Recognition,' Cognitive Neuroscience, Vol. 3, pp. 71-86, 1991
P. Belhumeur, J. Hespanha, and K. Kriegman, 'Eigenfaces vs. Fisherfaces: Recognition using Class Specific linear projection,' IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 19, No.7, pp.711-720, 1997
M. Bartlett, J. Movellan, and T. Sejnowski, 'Face Recognition by Independent Component Analysis,' IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 13, No.6, pp. 1450-1464, 2002
D. Lee and H. Seung, 'Algorithms for Non-negative Matrix Factorization,' Neural Information Processing Systems, pp. 556-562, 2003
H. Yu and J. Yang, 'A direct LDA algorithm for high-dimensional data-with application to face recognition,' Pattern Recognition, Vol. 34, No. 10, pp. 2067-2070, 2001
B. Scholkopf, A. Smola, and K. Muller, 'Nonliear Component Analysis as a Kernel Eigenvalue Problem,' Tech. Report 44, Max-Planck-Institute, 1996
Y. Li, S. Gong, and H. Liddell, 'Constructing structures of facial identities using Kernel Disciminant Analysis,' Proc. of Int'l Workshop on Statistical and Computational Theories of Vision, 2001
F. Bach and M. Jordan, 'Kernel Independent Component Analysis:,' Journal of Machine Learning Research, Vol. 3, pp. 1-48, 2002
J. Lu, K. Plataniotis, and A. Ventetsanopoulos, 'Face Recognition Using Kernel Direct Discriminant Analysis Algorithms,' IEEE Trans. on Neural Networks, Vol. 14, No.1, pp. 117-126, 2003
C. Bishop, Neural Networks for Pattern Recognition. New York, Oxford, 1995
B. Heisele, P. Ho, and T. Poggio, 'Face Recognition with Support Vector Machines: Global versus Component-based Approach,' 8th IEEE Int'l Conf. on Computer Vision, pp. 688-694, 2001
J. Ghosh, 'Multiclassifier Systems: Back to the Future,' Proc. of the 3rd Int'l Workshop on Multiple Classifier Systems, Lecture Note in Computer Science, Vol. 2364, pp. 1-15, 2002
T. Hastie and R. Tibshirani, 'Classification by Pairwise Coupling,' Advances in Neural Information Processing Systems, Vol. 10, pp. 507-513, MIT Press, 1998; The Annals of Statistics, Vol. 26, No.1, pp. 451-471, 1998
T. Dietterich and G. Bakiri, 'Solving Multiclass Learning Problems via Error-Correcting Output Codes,' Journal of Artificial Intelligence Research, Vol. 2, pp. 263-286, 1995
C. Burges, 'A Tutorial on Support Vector Machines for Pattern Recognition,' Data Mining and Knowledge Discovery, Vol. 2, No.2, pp. 121-167, 1998
F. Masulli, and G. Valentini, 'Comparing Decomposition Methods for Classification,' Proc. of Int'l Conf. Knowledge-based Intelligent Engineering Systems & Allied Technologies, Vol. 2, pp. 788-791, 2000
A. Klautau, N. Jevtic, and A. Orlisky, 'Combined Binary Classifiers with Applications to Speech Recognition,' Proc. of Int'l Conf. on SLP, pp. 2469-2472, 2002
J. Ko, 'Multiclass Learning with N-Division Output Coding: A Case Study on Face Recognition,' PhD Thesis, Dept. of Computer Science, Yonsei University, 2002
M. Moreira, E. Mayoraz, 'Improved Pairwise Coupling Classification with Correcting Classifiers,' Proc. of European Conf. on Machine Learning, pp. 160-171, 1998
J. H. Friedman, 'Another Approach to Polychotomous Classification,' Technical Report, Department of Statistics, Stanford University, 1996
J. Platt and N. Cristianini, 'Large margin DAGs for multiclass classification,' Advances in Neural Information Processing Systems, Vol. 12, pp. 547-553, MIT Press, 2000
A. Berger, 'Error-correcting output coding for text classification,' Proc. of Int'l Joint Conf. on Artificial Intelligence, 1999
R. Ghani, 'Using error-correcting codes for text classification,' Proc. of the 17th Int'l Conf. on Machine Learning, pp. 303-310, 2000
J. Rennie and R. Rifkin, 'Improving Multiclass Text Classification with the Support Vector Machine,' Tech. Report, AI Memo. 2001-026, AI Lab. MIT, 2001
A. Klautau, N. Jevtic, and A. Orlitsky, 'Combined Binary Classifiers with Applications To Speech Recognition,' Proc. of Int'l Conf. on Spoken Language Processing, pp. 2469-2472, 2002
D. Aha and R. Bankert, 'Cloud classification using error-correcting output codes,' Artificial Intelligence Applications: Natural Science, Agriculture, and Environmental Science, Vol. 11, pp. 13-28, 1997
J. Kittler, R. Ghaderi, T. Windeatt, and J. Matas, 'Face Identification and Verification via ECOC,' Proc. of IEEE Int'l Conf. on Computer Vision and Pattern Recognition, pp. 755-760, 2001
P. Phillips, H. Moon, S. Rizvi and P. Rauss, 'The FERET evaluation methodology for face-recognition algorithms,' IEEE Trans. Pattern Analysis and Machine Intelligence, Vol. 22, No. 10, pp. 1090-1104, 2000
J. Platt, 'Sequential minimal optimization: A fast algorithm for training support vector machines,' Tech. Report 98-14, Microsoft Research at Redmond, 1998
R. Rifkin, and A. Klautau, 'In Defense of One-Vs-All Classification,' Journal of Machine Learning Research, Vol. 5, pp. 101-141, 2004
※ AI-Helper는 부적절한 답변을 할 수 있습니다.