$\require{mediawiki-texvc}$
  • 검색어에 아래의 연산자를 사용하시면 더 정확한 검색결과를 얻을 수 있습니다.
  • 검색연산자
검색연산자 기능 검색시 예
() 우선순위가 가장 높은 연산자 예1) (나노 (기계 | machine))
공백 두 개의 검색어(식)을 모두 포함하고 있는 문서 검색 예1) (나노 기계)
예2) 나노 장영실
| 두 개의 검색어(식) 중 하나 이상 포함하고 있는 문서 검색 예1) (줄기세포 | 면역)
예2) 줄기세포 | 장영실
! NOT 이후에 있는 검색어가 포함된 문서는 제외 예1) (황금 !백금)
예2) !image
* 검색어의 *란에 0개 이상의 임의의 문자가 포함된 문서 검색 예) semi*
"" 따옴표 내의 구문과 완전히 일치하는 문서만 검색 예) "Transform and Quantization"
쳇봇 이모티콘
안녕하세요!
ScienceON 챗봇입니다.
궁금한 것은 저에게 물어봐주세요.

논문 상세정보

자가 조직화 지도의 커널 공간 해석에 관한 연구

A New Self-Organizing Map based on Kernel Concepts

초록

Kohonen SOM(Self-Organizing Map)이나 MLP(Multi-Layer Perceptron), SVM(Support Vector Machine)과 같은 기존의 인식 및 클러스터링 알고리즘들은 새로운 입력 패턴에 대한 적응성이 떨어지고 학습 패턴 자체의 복잡도에 대한 학습률의 의존도가 크게 나타나는 등 여러 가지 단점이 있다. 이러한 학습 알고리즘의 단점은 문제의 학습 패턴자체의 특성을 잃지 않고 문제의 복잡도를 낮출 수 있다면 보완할 수 있다. 패턴 자체의 특성을 유지하며 복잡도를 낮추는 방법론은 여러 가지가 있으며, 본 논문에서는 커널 공간 해석 기법을 접근 방법으로 한다. 본 논문에서 제안하는 kSOM(kernel based SOM)은 원 공간의 데이터가 갖는 복잡도를 무한대에 가까운 초 고차원의 공간으로 대응시킴으로써 데이터의 분포가 원 공간의 분포에 비해 상대적으로 성긴(spase) 구조적 특정을 지니게 하여 클러스터링 및 인식률의 상승을 보장하는 메커니즘 을 제안한다. 클러스터링 및 인식률의 산출은 본 논문에서 제안한 새로운 유사성 탐색 및 갱신 기법에 근거하여 수행한다. CEDAR DB를 이용한 필기체 문자 클러스터링 및 인식 실험을 통해 기존의 SOM과 본 논문에서 제안한 kSOM과 성능을 비교한다.

Abstract

Previous recognition/clustering algorithms such as Kohonen SOM(Self-Organizing Map), MLP(Multi-Layer Percecptron) and SVM(Support Vector Machine) might not adapt to unexpected input pattern. And it's recognition rate depends highly on the complexity of own training patterns. We could make up for and improve the weak points with lowering complexity of original problem without losing original characteristics. There are so many ways to lower complexity of the problem, and we chose a kernel concepts as an approach to do it. In this paper, using a kernel concepts, original data are mapped to hyper-dimension space which is near infinite dimension. Therefore, transferred data into the hyper-dimension are distributed spasely rather than originally distributed so as to guarantee the rate to be risen. Estimating ratio of recognition is based on a new similarity-probing and learning method that are proposed in this paper. Using CEDAR DB which data is written in cursive letters, 0 to 9, we compare a recognition/clustering performance of kSOM that is proposed in this paper with previous SOM.

참고문헌 (11)

  1. V.N. Vapnik, 'The nature of statistical learning theory', Springer Verlag, New York, 1995 
  2. V.N. Vapnik, 'Statistical Learning Theory', Wiley, New York, 1998 
  3. K-R. Muller, et al., 'An Intoduction to Kernel-Based Learning Algorithms', IEEE Transactions on Neural Netwoks, Vol.12, No.2, March, 2001 
  4. C.J.C. Burges, 'A Tutorial on Support Vector Machines for Pattern Recognition', Data Mining and Knowledge Discovery, Vol.2, pp.121-167, 1998 
  5. Bernhard Scholkopf, et. al., 'Input Space vs. Feature Space in Kernel Based Methods', IEEE Transactions on Neural Netwoks, Vol.10, No.5, pp.1000-1017, 1999 
  6. B. Scholkopf, 'Support vector learning', Oldenbourg Verlag, Munich, 1997 
  7. G. Baudat and F. Anouar, 'Generalized discriminant analysis using a kernel approach', Neural Computation, Vol.12, No.10, pp.2385-2404, 2000 
  8. B. Scholkopf, A.J, Smola, and K-R. Muller, 'Nonlinear component analysis as a kernel eigenvalue problem', Neural Computation, Vol.10, pp.1299-1319, 1998 
  9. Y.A. LeCun, et. al., 'Learning algorithms for classification: A comparison on handwritten digit recognition', Neural Networks, 1995 
  10. Sungmoon Cheong, Sang Hoon Oh and Soo- Young Lee, 'Support Vector Machines with Binary Tree Achitecture for Multi-Class Classification', Neural Information Processing Letters and Reviews, Vol.2, No.3, March, 2004 
  11. Simon Haykin, 'Neural Networks', Prentice Hall, 2nd Ed., 1999 

이 논문을 인용한 문헌 (0)

  1. 이 논문을 인용한 문헌 없음

원문보기

원문 PDF 다운로드

  • ScienceON :

원문 URL 링크

원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다. (원문복사서비스 안내 바로 가기)

상세조회 0건 원문조회 0건

DOI 인용 스타일