$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

비선형 특징 추출을 위한 온라인 비선형 주성분분석 기법
On-line Nonlinear Principal Component Analysis for Nonlinear Feature Extraction 원문보기

정보과학회논문지. Journal of KIISE. 소프트웨어 및 응용, v.31 no.3, 2004년, pp.361 - 368  

김병주 (영산대학교 네트워크정보공학부) ,  심주용 (대구카톨릭대학교 정보통계학) ,  황창하 (대구카톨릭대학교 정보통계학) ,  김일곤 (경북대학교 컴퓨터과학과)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 온라인 학습 자료의 비선형 특징(feature) 추출을 위한 새로운 온라인 비선형 주성분분석(OL-NPCA : On-line Nonlinear Principal Component Analysis) 기법을 제안한다. 비선형 특징 추출을 위한 대표적인 방법으로 커널 주성분방법(Kernel PCA)이 사용되고 있는데 기존의 커널 주성분 분석 방법은 다음과 같은 단점이 있다. 첫째 커널 주성분 분석 방법을 N 개의 학습 자료에 적용할 때 N${\times}$N크기의 커널 행렬의 저장 및 고유벡터를 계산하여야 하는데, N의 크기가 큰 경우에는 수행에 문제가 된다. 두 번째 문제는 새로운 학습 자료의 추가에 의한 고유공간을 새로 계산해야 하는 단점이 있다. OL-NPCA는 이러한 문제점들을 점진적인 고유공간 갱신 기법과 특징 사상 함수에 의해 해결하였다. Toy 데이타와 대용량 데이타에 대한 실험을 통해 OL-NPCA는 다음과 같은 장점을 나타낸다. 첫째 메모리 요구량에 있어 기존의 커널 주성분분석 방법에 비해 상당히 효율적이다. 두 번째 수행 성능에 있어 커널 주성분 분석과 유사한 성능을 나타내었다. 또한 제안된 OL-NPCA 방법은 재학습에 의해 쉽게 성능이 항상 되는 장점을 가지고 있다.

Abstract AI-Helper 아이콘AI-Helper

The purpose of this study is to propose a new on-line nonlinear PCA(OL-NPCA) method for a nonlinear feature extraction from the incremental data. Kernel PCA(KPCA) is widely used for nonlinear feature extraction, however, it has been pointed out that KPCA has the following problems. First, applying K...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 같다. Tipping⑸은 선형 주성분분석 기법을 결합한 MPCA(mixture PCA)방법으로 비선형 문제를 해결하고자 하였다. 또 다른 접근방법으로 복원오차(reconstruction error)를 최소화 하는 자동연상(autoassociative) 다층 퍼셉트론 등이 제안되었다[6, 7].
  • 따라서 본 논문에서는 K0CA의 일괄처리 방식의 문제점은 Hall이 제안한 온라인 PCA기법올 적용하여 해결하고, 선형 자료에만 적용이 가능한 문제는 다항식 커널 함수에서 구해진 특징 사상함수를 온라인 PCA에 적용하여 비선형이면서 온라인 학습 자료에 대해서도 적용할 수 있는 온라인 비선형 주성분분석 알고리즘을 제안한다.
  • 본 논문에서는 비선형 특징(feature) 추출을 위한 새로운 OL-NPCA 기법을 제안한다. 제안된 OL-NPCA 기법은 다음과 같은 의미를 가진다.
  • 본 논문에서는 앞에서 열거한 기존의 KPCA의 단점을 해결하기 위해 Hall에 의해 제한된 고유공간 갱신기법과 특징사상 함수를 사용한 온라인 비선형 PCA (OL-NPCA) 방법을 제안한다. 논문의 구성은 다음과 같다.
본문요약 정보가 도움이 되었나요?

참고문헌 (16)

  1. I.T. Jolliffe, 'Principal Component Analysis,' New York Springer-Verlag, 1986 

  2. H. Murakami, B.V.K.V Kumar., 'Efficient calculation of primary images from a set of images,' IEEE PAMI, 4(5), pp.511-515, 1982 

  3. J. Winkeler, B.S. Manjunath and S. Chandrasekaran., 'Subset selection for active object recognition,' In CVPR, volume 2, pp.511-516, IEEE Computer Society Press, June 1999 

  4. P. Hall, D. Marshall, and R. Martin., 'Incremental eigenalysis for classification,' In British Machine Vision Conference, volume 1, pp. 286-295, September 1998 

  5. M.E. Tipping and C.M. Bishop., 'Mixtures of probabilistic principal component analyser's,' Neural Computation 11(2), pp.443-482, 1998 

  6. M.A. Krarner., 'Nonlinear principal component analysis using autoassociative neural networks,' AICHE Journal 37(2), pp.233-243, 1991 

  7. K.I. Diamantaras and S.Y. Kung., Principal Component Neural Networks: Theory and Applications, New York John Wiley & Sons, Inc. 1996 

  8. B. Scholkopf, A. Smola and K.R. Muller., 'Nonlinear component analysis as a kernel eigenvalue problem,' Neural Computation 10(5), pp.1299-1319, 1998 

  9. R. Rosipal and M. Girolami., 'An Expectation Maximization approach to nonlinear component analysis,' Neural Computation, 13(3) pp.505-510, 2001 

  10. P. Moerland, 'An on-line EM algorithm applied to kernel PCA,' IDlAP Research Report. 2000 

  11. B. Scholkopf, S. Mika, C. Burges, P. Knirsch, K.R. Miller, G. Ratsch and A.J. Smola., 'Input Space versus Feature Space in Kernel-based Methods:' IEEE Transactions on Neural Networks, vol. 10, pp.1000-1017, September 1999 

  12. A.J. Smola, O.L. Mangasarian, and B. Scholkopf., 'Sparse kernel feature analysis,' Technical Report 99-03, University of Wisconsin, Data Mining Institute, Madison, 1999 

  13. Cover, 'Geometrical and statistical properties of system of linear inequalities with applications in pattern recognition,' IEEE Transactions on Electronic Computers, Vol. EC-14, 326-334. 1965 

  14. J. Mercer., 'Functions of positive and negative type and their connecrion with the theory of integral equations,' Philos. Trans. Roy. Soc. London, Vol. 209, pp.415-446, 1909 

  15. V. N. Vapnik., Statistical learning theory. John Wiley & Sons, New York, 1998 

  16. P. Moerland, 'Mixture models for unsupervised and supervised learning,' PhD. thesis, IDIAP research report IDIAP-PR 00-18, 2000 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로