$\require{mediawiki-texvc}$
  • 검색어에 아래의 연산자를 사용하시면 더 정확한 검색결과를 얻을 수 있습니다.
  • 검색연산자
검색연산자 기능 검색시 예
() 우선순위가 가장 높은 연산자 예1) (나노 (기계 | machine))
공백 두 개의 검색어(식)을 모두 포함하고 있는 문서 검색 예1) (나노 기계)
예2) 나노 장영실
| 두 개의 검색어(식) 중 하나 이상 포함하고 있는 문서 검색 예1) (줄기세포 | 면역)
예2) 줄기세포 | 장영실
! NOT 이후에 있는 검색어가 포함된 문서는 제외 예1) (황금 !백금)
예2) !image
* 검색어의 *란에 0개 이상의 임의의 문자가 포함된 문서 검색 예) semi*
"" 따옴표 내의 구문과 완전히 일치하는 문서만 검색 예) "Transform and Quantization"
쳇봇 이모티콘
안녕하세요!
ScienceON 챗봇입니다.
궁금한 것은 저에게 물어봐주세요.

논문 상세정보

비선형 특징 추출을 위한 온라인 비선형 주성분분석 기법

On-line Nonlinear Principal Component Analysis for Nonlinear Feature Extraction

초록

본 논문에서는 온라인 학습 자료의 비선형 특징(feature) 추출을 위한 새로운 온라인 비선형 주성분분석(OL-NPCA : On-line Nonlinear Principal Component Analysis) 기법을 제안한다. 비선형 특징 추출을 위한 대표적인 방법으로 커널 주성분방법(Kernel PCA)이 사용되고 있는데 기존의 커널 주성분 분석 방법은 다음과 같은 단점이 있다. 첫째 커널 주성분 분석 방법을 N 개의 학습 자료에 적용할 때 N${\times}$N크기의 커널 행렬의 저장 및 고유벡터를 계산하여야 하는데, N의 크기가 큰 경우에는 수행에 문제가 된다. 두 번째 문제는 새로운 학습 자료의 추가에 의한 고유공간을 새로 계산해야 하는 단점이 있다. OL-NPCA는 이러한 문제점들을 점진적인 고유공간 갱신 기법과 특징 사상 함수에 의해 해결하였다. Toy 데이타와 대용량 데이타에 대한 실험을 통해 OL-NPCA는 다음과 같은 장점을 나타낸다. 첫째 메모리 요구량에 있어 기존의 커널 주성분분석 방법에 비해 상당히 효율적이다. 두 번째 수행 성능에 있어 커널 주성분 분석과 유사한 성능을 나타내었다. 또한 제안된 OL-NPCA 방법은 재학습에 의해 쉽게 성능이 항상 되는 장점을 가지고 있다.

Abstract

The purpose of this study is to propose a new on-line nonlinear PCA(OL-NPCA) method for a nonlinear feature extraction from the incremental data. Kernel PCA(KPCA) is widely used for nonlinear feature extraction, however, it has been pointed out that KPCA has the following problems. First, applying KPCA to N patterns requires storing and finding the eigenvectors of a N${\times}$N kernel matrix, which is infeasible for a large number of data N. Second problem is that in order to update the eigenvectors with an another data, the whole eigenspace should be recomputed. OL-NPCA overcomes these problems by incremental eigenspace update method with a feature mapping function. According to the experimental results, which comes from applying OL-NPCA to a toy and a large data problem, OL-NPCA shows following advantages. First, OL-NPCA is more efficient in memory requirement than KPCA. Second advantage is that OL-NPCA is comparable in performance to KPCA. Furthermore, performance of OL-NPCA can be easily improved by re-learning the data.

저자의 다른 논문

참고문헌 (16)

  1. I.T. Jolliffe, 'Principal Component Analysis,' New York Springer-Verlag, 1986 
  2. H. Murakami, B.V.K.V Kumar., 'Efficient calculation of primary images from a set of images,' IEEE PAMI, 4(5), pp.511-515, 1982 
  3. J. Winkeler, B.S. Manjunath and S. Chandrasekaran., 'Subset selection for active object recognition,' In CVPR, volume 2, pp.511-516, IEEE Computer Society Press, June 1999 
  4. P. Hall, D. Marshall, and R. Martin., 'Incremental eigenalysis for classification,' In British Machine Vision Conference, volume 1, pp. 286-295, September 1998 
  5. M.E. Tipping and C.M. Bishop., 'Mixtures of probabilistic principal component analyser's,' Neural Computation 11(2), pp.443-482, 1998 
  6. M.A. Krarner., 'Nonlinear principal component analysis using autoassociative neural networks,' AICHE Journal 37(2), pp.233-243, 1991 
  7. K.I. Diamantaras and S.Y. Kung., Principal Component Neural Networks: Theory and Applications, New York John Wiley & Sons, Inc. 1996 
  8. B. Scholkopf, A. Smola and K.R. Muller., 'Nonlinear component analysis as a kernel eigenvalue problem,' Neural Computation 10(5), pp.1299-1319, 1998 
  9. R. Rosipal and M. Girolami., 'An Expectation Maximization approach to nonlinear component analysis,' Neural Computation, 13(3) pp.505-510, 2001 
  10. P. Moerland, 'An on-line EM algorithm applied to kernel PCA,' IDlAP Research Report. 2000 
  11. B. Scholkopf, S. Mika, C. Burges, P. Knirsch, K.R. Miller, G. Ratsch and A.J. Smola., 'Input Space versus Feature Space in Kernel-based Methods:' IEEE Transactions on Neural Networks, vol. 10, pp.1000-1017, September 1999 
  12. A.J. Smola, O.L. Mangasarian, and B. Scholkopf., 'Sparse kernel feature analysis,' Technical Report 99-03, University of Wisconsin, Data Mining Institute, Madison, 1999 
  13. Cover, 'Geometrical and statistical properties of system of linear inequalities with applications in pattern recognition,' IEEE Transactions on Electronic Computers, Vol. EC-14, 326-334. 1965 
  14. J. Mercer., 'Functions of positive and negative type and their connecrion with the theory of integral equations,' Philos. Trans. Roy. Soc. London, Vol. 209, pp.415-446, 1909 
  15. V. N. Vapnik., Statistical learning theory. John Wiley & Sons, New York, 1998 
  16. P. Moerland, 'Mixture models for unsupervised and supervised learning,' PhD. thesis, IDIAP research report IDIAP-PR 00-18, 2000 

이 논문을 인용한 문헌 (0)

  1. 이 논문을 인용한 문헌 없음

원문보기

원문 PDF 다운로드

  • ScienceON :

원문 URL 링크

원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다. 원문복사서비스 안내 바로 가기

상세조회 0건 원문조회 0건

DOI 인용 스타일