$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

클래스 영역을 보존하는 초월 사각형에 의한 프로토타입 선택 알고리즘
Hyper-Rectangle Based Prototype Selection Algorithm Preserving Class Regions 원문보기

정보처리학회논문지. KIPS transactions on software and data engineering. 소프트웨어 및 데이터 공학, v.9 no.3, 2020년, pp.83 - 90  

백병현 (단국대학교 소프트웨어학과) ,  어성율 (단국대학교 소프트웨어학과) ,  황두성 (단국대학교 소프트웨어학과)

초록
AI-Helper 아이콘AI-Helper

프로토타입 선택은 훈련 데이터로부터 클래스 영역을 대표하는 최소 데이터를 선택하여 낮은 학습 시간 및 저장 공간을 보장하는 장점을 제공한다. 본 논문은 모든 분류 알고리즘에 적용할 수 있는 초월 사각형을 이용한 새로운 훈련 데이터의 생성 방법을 설계한다. 초월 사각형 영역은 서로 다른 클래스 데이터를 포함하지 않으며 클래스 공간을 분할한다. 선택된 초월 사각형 내 데이터의 중간값은 프로토타입이 되어 새로운 훈련 데이터를 구성하고, 초월 사각형의 크기는 클래스 영역의 데이터 분포를 반영하여 조절된다. 전체 훈련 데이터를 대표하는 최소의 프로토타입 집합 선택을 위해 집합 덮개 최적화 알고리즘을 설계했다. 제안하는 방법에서는 탐욕 알고리즘과 곱셈 연산을 포함하지 않은 거리 계산식을 이용하여 집합 덮개 최적화 알고리즘의 다항 시간을 요구하는 시간 복잡도 문제를 해결한다. 실험에서는 분류 성능의 비교를 위해 최근접 이웃 규칙과 의사 결정 트리 알고리즘을 이용하며 제안하는 방법이 초월 구를 이용한 프로토타입 선택 방법보다 우수하다.

Abstract AI-Helper 아이콘AI-Helper

Prototype selection offers the advantage of ensuring low learning time and storage space by selecting the minimum data representative of in-class partitions from the training data. This paper designs a new training data generation method using hyper-rectangles that can be applied to general classifi...

주제어

표/그림 (8)

AI 본문요약
AI-Helper 아이콘 AI-Helper

문제 정의

  • 본 논문에서는 초월 사각형을 이용한 프로토타입 선택방법을 제안했다. 주어진 데이터에서 각 클래스를 대표할 수 있는 프로토타입을 선택하였고, 선택된 프로토타입이 새로운 훈련데이터로 사용된다.

가설 설정

  • 분류 문제 X ={(xi, yi) | i = 1,...,n} 는 c개의 클래스yi∈ {1,...,c}를 가지며 d차원의 입력 벡터 xi ∈R d로 가정한다. 특정 클래스 l에 나타나는 데이터 집합은 X l ={( xi,l)| i = 1,.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
소수의 프로토타입선택의 장점은? 대용량 훈련 데이터의 경우 학습 모델의 복잡도를 증가시키는 중복 및잡음 데이터 등이 존재할 가능성이 높으며, 많은 학습 시간이 요구된다[1, 2]. 훈련 데이터를 대표하는 소수의 프로토타입선택은 불필요한 데이터의 제거, 학습 시간의 단축 그리고 기존 훈련 데이터와 유사한 분류 성능을 얻을 수 있으며 높은일반화 성능을 갖는다는 장점이 있다[3-8].
프로토타입 선택이란? 프로토타입 선택은 훈련 데이터로부터 클래스 영역을 대표하는 최소 데이터를 선택하여 낮은 학습 시간 및 저장 공간을 보장하는 장점을 제공한다. 본 논문은 모든 분류 알고리즘에 적용할 수 있는 초월 사각형을 이용한 새로운 훈련 데이터의 생성 방법을 설계한다.
PBL가 초월구를 구성하는 방법은 무엇인가? PBL(prototype based learning, [13])은 프로토타입 영역 내 포함되는 데이터를 고려한다는 측면에서 RSC와 유사하다. 그러나 가장 근접한 서로 다른 클래스 데이터의 거리와가장 떨어져 있는 동일 클래스 데이터 거리의 중간을 반지름으로 설정하여 초월구를 구성한다.
질의응답 정보가 도움이 되었나요?

참고문헌 (18)

  1. N. Bhatia, Vandana, "Survey of Nearest Neighbor Techniques," International Journal of Computer Science and Information Security, Vol.8, No.2, 2010. 

  2. I. Triguero, J. Derrac, S. Garcia, and F. Herrea, "A Taxonomy and Experimental Study on Prototype Generation for Nearest Neighbor Classification," IEEE Transactions on Systems, Man, and Cybernetics Part C(Application And Reviews), Vol.42, No.1, pp.86-100, 2012. 

  3. R. M. Cruz, R. Sabourin, and G. D. Cavalcanti, "Prototype selection for dynamic classifier and ensemble selection," Neural Computing and Applications, Vol.29, pp.447-457, 2016. 

  4. R. M. Curz, R. Sabourin, and G. D. Cavalcanti, "Analyzing different prototype selection techniques for dynamic classifier and ensemble selection," International Joint Conference on Neural Networks, pp.3959-3966, 2017. 

  5. E. Pekalska, R. P. W. Duin, and P. Paclik, "Prototype selection for dissimilarity-based classifier," Pattern Recognition, 39, pp.189-208, 2006. 

  6. J. A. Olvera-Lopez, J. A. Carrasco-Ochoa, J. F. Martinez Trinidad, and J. Kittler, "A review of instance selection methods," Artif Intell Rev, Vol.34, No.2, pp.133-143, 2010. 

  7. D. R. Wilson and T. R. Martinez, "Reduction techniques for instance-based learning algorithms," Machine Learning, Vol.38, No.3, pp.257-286, 2000. 

  8. S. Garcia, J. Derrac, J. Cano, and F. Herrera, "Prototype selection for nearest neighbor classification: taxonomy and empirical study," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.34, No.3, pp.417-435, 2012. 

  9. S. Choi, S. Cha, and C. Tappert, "A Survey of Binary Similarity and Distance Measures," J. Systemics, Cybernetics and Informatics, Vol.8, No.1, pp.43-48, 2010. 

  10. J. Bien and R. Tibshirani, "Prototype selection for interpretable classification," The Annals of Applied Statistics, Vol.5, No.4, pp.2403-2424, 2011. 

  11. D. Marchette, "Class cover catch digraphs," Wiley Interdisciplinary Reviews: Computational Statistics, Vol.2, No.2, pp.171-177, 2010. 

  12. R. Younsi and A. Bagnall, "A randomized sphere cover classifier," International Conference on Intelligent Data Engineering and Automated Learning, pp.234-241, 2010. 

  13. S. Seyong and H. Doosung, "Prototype based Classification by Generating Multidimensional Spheres per Class Area," Journal of The Korea Society of Computer and Information, Vol.20, No.2, 2015. 

  14. S. Arora, D. Karger, and M. Karpinski, "Polynomial time approximation schemes for dense instances of NP-hard problems," Journal of Computer and System Sciences, Vol.58, pp.193-210, 1999. 

  15. D. S. Hwang and D. W. Kim, "Near-boundary data selection ofor fast support vector machines," Malasian Journal of Computer Science, Vol.25, No.1, pp.23-37, 2012. 

  16. F. Angiulli, "Fast Nearest Neighbor Condensation for Large Data Sets Classification," IEEE Transactions on Knowledge and Data Engineering, Vol.19, No.11, pp.1450-1464, 2007. 

  17. A. H. Cannon and L. J. Cowen, "Approximation algorithms for the class cover problem," Annals of Mathematics and Artificial Intelligence, Vol.40, No.3-4, pp.215-223, 2004. 

  18. UCI Machine Learning Repository [Online]. Available: https://archive.ics.uci.edu/ml/. 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로