$\require{mediawiki-texvc}$
  • 검색어에 아래의 연산자를 사용하시면 더 정확한 검색결과를 얻을 수 있습니다.
  • 검색연산자
검색연산자 기능 검색시 예
() 우선순위가 가장 높은 연산자 예1) (나노 (기계 | machine))
공백 두 개의 검색어(식)을 모두 포함하고 있는 문서 검색 예1) (나노 기계)
예2) 나노 장영실
| 두 개의 검색어(식) 중 하나 이상 포함하고 있는 문서 검색 예1) (줄기세포 | 면역)
예2) 줄기세포 | 장영실
! NOT 이후에 있는 검색어가 포함된 문서는 제외 예1) (황금 !백금)
예2) !image
* 검색어의 *란에 0개 이상의 임의의 문자가 포함된 문서 검색 예) semi*
"" 따옴표 내의 구문과 완전히 일치하는 문서만 검색 예) "Transform and Quantization"
쳇봇 이모티콘
안녕하세요!
ScienceON 챗봇입니다.
궁금한 것은 저에게 물어봐주세요.

논문 상세정보

데이터마이닝을 위한 동적 결정나무

Dynamic Decision Tree for Data Mining

초록

결정나무는 데이터마이닝에서 데이터를 분류하는 기법으로 가장 많이 사용되고 있으며, 데이터 탐색 소프트웨어 DAVIS에서는 동적 기능을 사용하여 데이터 시각화를 하는 것이 가능하다. 본 논문에서는 동적 데이터 분석의 기본 원리와 이를 결정나무에 적용하는 방법을 소개하고, 생성되는 동적 결정나무의 효율성과 유용성을 실제 데이터를 사용하여 분석한다.

Abstract

Decision tree is a typical tool for data classification. This tool is implemented in DAVIS (Huh and Song, 2002). All the visualization tools and statistical clustering tools implemented in DAVIS can communicate with the decision tree. This paper presents methods to apply data visualization techniques to the decision tree using a real data set.

저자의 다른 논문

참고문헌 (12)

  1. Breiman, L., Friedman, J. H., Olshen, R. A. and Stone, C. J. (1984). Classification and Regression Trees, Monterey, CA: Wadsworth & Brooks/Cole Advanced Books & Software 
  2. Cleveland, W. S. and McGill, M. E. (1988). Dynamic Graphics for Statistics, Wadsworth & Brooks/Cole, Belmont, CA 
  3. Huh, M. Y. (2001). Strategy for visual clustering, The Korean Journal of Applied Statistics, 4, 177–190. (in Korean) 
  4. Huh, M. Y. (1995). Exploring multidimensional data with FEDF, Journal of Computational and Graphical Statistics, 4, 335–343 
  5. Huh, M. Y. (2009). http://stat.skku.ac.kr/myhuh. 
  6. Huh, M. Y. and Song, K. Y. (2002). DAVIS: A Java-based data visualization system, Computational Statistics, 17, 411–423 
  7. Kass, G. V. (1980) An exploratory technique for investigating large quantities of categorical data, Applied Statistics, 29, 119–127 
  8. Nocholas, C. J. (1999). The emergence of data visualization and prospects for its business application, Masters of Information Systems Management Professional Seminar 
  9. Quinlan, J. R. ( 1986). Induction of decision trees, Machine Learning, 1, 81–106 
  10. Quinlan, J. R. (1993). C4.5: Programs for Machine Learning, Morgan Kaufmann Publishers 
  11. Quinlan, J. R. (1996). Improved use of continuous attributes in c4.5., Journal of Artificial Intelligence Research, 4, 77–90 
  12. Witten, I. H. and Frank, E. (2005). Data Mining: Practical Machine Learning Tools and Techniques, (Second Edition), Morgan Kaufmann 

이 논문을 인용한 문헌 (0)

  1. 이 논문을 인용한 문헌 없음

원문보기

원문 PDF 다운로드

  • ScienceON :

원문 URL 링크

원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다. (원문복사서비스 안내 바로 가기)

상세조회 0건 원문조회 0건

DOI 인용 스타일