최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국융합학회논문지 = Journal of the Korea Convergence Society, v.11 no.3, 2020년, pp.1 - 7
This paper introduces two different techniques for dealing with incomplete data and algorithms for learning this data. The first method is to process the incomplete data by assigning the missing value with equal probability that the missing variable can have, and learn this data with the SVM. This t...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
정보함수가 지녀야 될 속성은 무엇인가? | 정보 함수는 확률 실험에서 어떤 사건이 발생했을 때 이 사건에서 얻을 수 있는 정보의 양을 측정하는 척도이다. 정보함수가 지녀야 될 속성은 두 가지로 나누어지는데, 첫째는 사건이 일어날 확률과 정보의 양은 반비례한다는 것이고, 둘째는 독립된 사건을 동시에 관측했을 때 얻는 정보의 양과 각 사건을 따로 관측했을 때 얻는 정보의 양의 합은 같아야 한다는 것이다. 여러 학자들에 의해 이러한 속성을 만족하는 것은 로그 함수임이 밝혀졌다[16]. | |
UChoo란? | UChoo는 C4.5 알고리즘에 확장된 데이터 표현을 더한 알고리즘으로 많은 손상된 데이터 실험을 하여 좋은 결과를 산출해오고 있다. 여기서 확장된 데이터 표현은 손실된 데이터에 대해 확률적으로 표현하는 방법을 사용하였고 각 사건(event)의 중요도를 달리할 수 있는 표현기법을 고려하였다. | |
UChoo가 다른 결정 트리를 이용하는 알고리즘에 비하여 손실 데이터를 처리하기에 유리한 이유는 무엇인가? | UChoo는 학습 중에 결정트리를 구성해 나가는데, 다른 결정 트리를 이용하는 알고리즘에 비하여 손실 데이터를 처리하기에 유리하다. 각각의 데이터 엔트리들이 0과 1사이의 확률로 표현되기 때문이다. 훈련 데이터 집합에 손실 값이 존재하는 경우 그 변수의 카디너리티로 모든 엔트리에 대해 동일한 확률 값을 할당한다. |
J. Han, J. Pei & M. Kamber. (2011), Data Mining: Concepts and Techniques, Elsevier.
M. Kantardzic. (2002). Data Mining : Concepts, Models, Methods, and Algorithms, Wiley-IEEE Press.
T. Maszczyk & W. Duch. (2008). Comparison of Shannon, Renyi and Tsallis Entropy used in Decision Trees. Lecture Notes in Computer Science, 5097, 643-651.
M. Srednicki & Theoretical Physics Group.(1993) Entropy and Area. Physical Review letters. DOI : 10.1103/PhysRevLett.71.666
R.M.Gray.(2011).Entropy and Information Theory. Springer 2ED. DOI : 10.1007/978-1-4419-7970-4
J. R. Quinlan. (1993). C4.5 : Program for Machine Learning. San Mateo : Morgan Kaufmann
P. E. Utgoff. (1989). Incremental Induction of Decision Trees. Machine Learning, 4(2), 161-186.
R. Kohavi & J. R. Quinlan. (2002). Data mining tasks and methods: Classification: Decision-tree discovery, Handbook of data mining and knowledge discovery, Oxford University Press, 267-276.
J. C. Lee, D. H. Seo, C. H. Song & W. D. Lee. (2007). FLDF based Decision Tree using Extended Data Expression, The 6th Conference on Machine Learning & Cybernetics, 3478-3483.
D. Kim, D. Lee & W. D. Lee. (2006). Classifier using Extended Data Expression, IEEE Mountain Workshop on Adaptive and Learning Systems. DOI : 10.1109/SMCALS.2006.250708
T. Delavallade & T. H. Dang. (2007). Using Entropy to Impute Missing Data in a Classification Task. IEEE International Fuzzy Systems Conference. DOI : 10.1109/FUZZY.2007.4295430
A. McCallum, D. Freitag & F. Pereira. (2000). Maximum Entropy Markov Models for Information Extraction and Segmentation. Proc. Of 17th International Conference on Machine Learning, 591-598.
E. Keogh, C. Blake & C. J. Merz. (1998). UCI Repository of Machine Learning Databases, UCI Machine Learning Repository. http://www.ics .uci.edu/-mlearn/MLRepository.html
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.