$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

SVM과 딥러닝에서 불완전한 데이터를 처리하기 위한 알고리즘
Algorithms for Handling Incomplete Data in SVM and Deep Learning 원문보기

한국융합학회논문지 = Journal of the Korea Convergence Society, v.11 no.3, 2020년, pp.1 - 7  

이종찬 (청운대학교 컴퓨터공학과)

초록
AI-Helper 아이콘AI-Helper

본 논문은 불완전한 데이터를 처리하기 위해 2가지의 서로 다른 기법과 이를 학습하는 알고리즘을 소개한다. 첫째방법은 손실변수가 가질 수 있는 균등한 확률로 손실값을 할당하여 불완전한 데이터를 처리하고, SVM 알고리즘으로 이 데이터를 학습하는 것이다. 이 기법은 임의의 변수에 손실 값의 빈도가 높을수록 엔트로피가 높도록 하여 이 변수가 결정트리에서 선택되지 않도록 하는 것이다. 이 방법은 손실 변수에 남아있는 정보를 모두 무시하고 새로운 값을 할당한다는 특징이 있다. 이에 반해 새로운 방법은 손실 값을 제외하고 남아있는 정보로 엔트로피 확률을 구하고 이를 손실 변수의 추정 값으로 사용하는 것이다. 즉, 불완전한 학습데이터로부터 소실되지 않은 많은 정보들을 이용해 소실된 일부 정보를 복구하고 딥러닝을 이용해 학습한다. 이 2가지 방법은 학습데이터에서 차례로 변수 하나를 선택하고, 이 변수에 손실된 데이터의 비율을 달리하면서 서로 다른 측정값들의 결과들과 반복적으로 비교함으로써 성능을 측정한다.

Abstract AI-Helper 아이콘AI-Helper

This paper introduces two different techniques for dealing with incomplete data and algorithms for learning this data. The first method is to process the incomplete data by assigning the missing value with equal probability that the missing variable can have, and learn this data with the SVM. This t...

주제어

표/그림 (5)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 그러나 딥러닝과 같이 엔트로피를 기반으로 하지 않는 학습에서는 학습 데이터 자체가 가지고 있는 정보를 보전하는 새로운 확률값을 이용해 손실값을 보상하기 위한 방법이 보다 효율적일 것이다[14]. 따라서 본 논문은 정보이론을 바탕으로 학습 데이터에서 손실값을 위한 확률을 추출해 내는 것을 목적으로 한다.
  • 특히 학습 데이터 중에 손실 레코드가 많이 포함될수록 정보의 손실로 인해 성능에 커다란 영향을 미치게 된다. 따라서 불완전한 학습데이터로부터 대부분의 손실되지 않은 데이터들을 이용해 손실된 일부 정보를 복구하여 학습 성능을 향상할 목적으로 2가지 방법을 제안하고 이들의 학습 성능을 비교한다. 2가지 제안 방안은 모두 데이터 확장 기법을 이용해 학습데이터를 변환한 다음 서로 다른 확률 값들을 구하여 손실 값들을 채운다.
  • 본 논문에서는 데이터 중에 임의 레코드에서 변수 값에 손실이 발생할 경우를 위해 2가지 방법을 제안한다. 데이터에 손실이 발생할 경우 사용하는 일반적인 기법은 손실치가 포함된 레코드를 무시하고 처리하는 방법과 여러 알고리즘을 이용해 손실치를 채우고 처리하는 방법으로 나누어진다.

가설 설정

  • 그리고 log를 사용하여 0과 1사이의 값으로 변환한다. (3)식은 이모든 경우에 대한 기댓값을 구한 것이다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
정보함수가 지녀야 될 속성은 무엇인가? 정보 함수는 확률 실험에서 어떤 사건이 발생했을 때 이 사건에서 얻을 수 있는 정보의 양을 측정하는 척도이다. 정보함수가 지녀야 될 속성은 두 가지로 나누어지는데, 첫째는 사건이 일어날 확률과 정보의 양은 반비례한다는 것이고, 둘째는 독립된 사건을 동시에 관측했을 때 얻는 정보의 양과 각 사건을 따로 관측했을 때 얻는 정보의 양의 합은 같아야 한다는 것이다. 여러 학자들에 의해 이러한 속성을 만족하는 것은 로그 함수임이 밝혀졌다[16].
UChoo란? UChoo는 C4.5 알고리즘에 확장된 데이터 표현을 더한 알고리즘으로 많은 손상된 데이터 실험을 하여 좋은 결과를 산출해오고 있다. 여기서 확장된 데이터 표현은 손실된 데이터에 대해 확률적으로 표현하는 방법을 사용하였고 각 사건(event)의 중요도를 달리할 수 있는 표현기법을 고려하였다.
UChoo가 다른 결정 트리를 이용하는 알고리즘에 비하여 손실 데이터를 처리하기에 유리한 이유는 무엇인가? UChoo는 학습 중에 결정트리를 구성해 나가는데, 다른 결정 트리를 이용하는 알고리즘에 비하여 손실 데이터를 처리하기에 유리하다. 각각의 데이터 엔트리들이 0과 1사이의 확률로 표현되기 때문이다. 훈련 데이터 집합에 손실 값이 존재하는 경우 그 변수의 카디너리티로 모든 엔트리에 대해 동일한 확률 값을 할당한다.
질의응답 정보가 도움이 되었나요?

참고문헌 (18)

  1. J. Han, J. Pei & M. Kamber. (2011), Data Mining: Concepts and Techniques, Elsevier. 

  2. M. Kantardzic. (2002). Data Mining : Concepts, Models, Methods, and Algorithms, Wiley-IEEE Press. 

  3. T. Maszczyk & W. Duch. (2008). Comparison of Shannon, Renyi and Tsallis Entropy used in Decision Trees. Lecture Notes in Computer Science, 5097, 643-651. 

  4. M. Srednicki & Theoretical Physics Group.(1993) Entropy and Area. Physical Review letters. DOI : 10.1103/PhysRevLett.71.666 

  5. R.M.Gray.(2011).Entropy and Information Theory. Springer 2ED. DOI : 10.1007/978-1-4419-7970-4 

  6. J. R. Quinlan. (1993). C4.5 : Program for Machine Learning. San Mateo : Morgan Kaufmann 

  7. P. E. Utgoff. (1989). Incremental Induction of Decision Trees. Machine Learning, 4(2), 161-186. 

  8. R. Kohavi & J. R. Quinlan. (2002). Data mining tasks and methods: Classification: Decision-tree discovery, Handbook of data mining and knowledge discovery, Oxford University Press, 267-276. 

  9. H. Lee, S. Chung & E. Choi. (2016). A Case Study on Machine Learning Applications and Perfor- mance Improvement in Learning Algorithm, Journal of Digital Convergence, 14(2), 245-258. 

  10. Y. Jeong. (2019). Machine Learning Based Domain Classification for Korean Dialog System, Journal of Convergence for Information Technology, 9(8), 1-8. 

  11. J. C. Lee, D. H. Seo, C. H. Song & W. D. Lee. (2007). FLDF based Decision Tree using Extended Data Expression, The 6th Conference on Machine Learning & Cybernetics, 3478-3483. 

  12. J. C. Lee & W. D. Lee. (2010). Classifier handling incomplete data. Journal of the Korea Institute of Information and Communication Engineering, 14(1), 53-62. 

  13. D. Kim, D. Lee & W. D. Lee. (2006). Classifier using Extended Data Expression, IEEE Mountain Workshop on Adaptive and Learning Systems. DOI : 10.1109/SMCALS.2006.250708 

  14. T. Delavallade & T. H. Dang. (2007). Using Entropy to Impute Missing Data in a Classification Task. IEEE International Fuzzy Systems Conference. DOI : 10.1109/FUZZY.2007.4295430 

  15. A. McCallum, D. Freitag & F. Pereira. (2000). Maximum Entropy Markov Models for Information Extraction and Segmentation. Proc. Of 17th International Conference on Machine Learning, 591-598. 

  16. J. C. Lee. (2018). Application Examples Applying Extended Data Expression Technique to Classification Problems, Journal of the Korea Convergence Society, 9(12), 9-15. DOI : 10.15207/JKCS.2018.9.12.009 

  17. J. C. Lee. (2019). Deep Learning Model for Incomplete Data, Journal of the Korea Convergence Society, 10(2), 1-6. DOI : 10.15207/JKCS.2019.10.2.001 

  18. E. Keogh, C. Blake & C. J. Merz. (1998). UCI Repository of Machine Learning Databases, UCI Machine Learning Repository. http://www.ics .uci.edu/-mlearn/MLRepository.html 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로