최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국통계학회 논문집 = Communications of the Korean Statistical Society, v.16 no.6, 2009년, pp.959 - 969
최병수 (한성대학교 멀티미디어공학과) , 차운옥 (한성대학교 멀티미디어공학과)
Decision tree is a typical tool for data classification. This tool is implemented in DAVIS (Huh and Song, 2002). All the visualization tools and statistical clustering tools implemented in DAVIS can communicate with the decision tree. This paper presents methods to apply data visualization technique...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
데이터 시각화의 기본적인 원리는 무엇인가? | 데이터 시각화의 기본적인 원리는 데이터 컨디셔닝(data conditioning)으로서, 데이터의 일부를 선택(select)하거나, 삭제(delete), 집중(focus)하여 이 결과가 통계적 모형이나 도형에 미치는 영향을 분석하는 것이다. 데이터 컨디셔닝은 통계적 도형 위에서 컴퓨터의 마우스를 이용하여 데이터의 일부를 하이라이트(highlight) 또는 브러싱(brushing)하고 이를 다른 도형과 링크함으로서 이루어진다. | |
데이터마이닝이란 무엇인가? | 데이터마이닝은 대규모 데이터베이스로부터 이전에는 발견되지 않았던 유용한 정보를 추출하는 지식 발견 작업이다. 데이터에서 체계적이고 자동적으로 통계적 규칙이나 패턴 등 다양한 정보를 찾아내기 위한 데이터마이닝 방법론으로는 통계적 기법, 기계학습, 패턴인식 기법 등이 있다. | |
결정나무에서 2분형(binary split) 방법의 장점은 무엇인가? | 분리는 변수를 사용하여 이루어지며 대개 2분형(binary split) 방법을 적용한다. 가지를 만들 때 꼭 이분형으로 나누어지지 않을 수도 있지만, 이분형 나무는 논리적으로 더 명백할 뿐만 아니라 다분형도 이분형으로 표현할 수 있다는 장점이 있다. 명목형 변수의 경우에는 범주에 의해 이분형을 만들어 나갈 수가 있으며, 한번 분리된 변수는 다시 분리되지 않는다(이분형의 경우). |
Breiman, L., Friedman, J. H., Olshen, R. A. and Stone, C. J. (1984). Classification and Regression Trees, Monterey, CA: Wadsworth & Brooks/Cole Advanced Books & Software
Cleveland, W. S. and McGill, M. E. (1988). Dynamic Graphics for Statistics, Wadsworth & Brooks/Cole, Belmont, CA
Huh, M. Y. (2001). Strategy for visual clustering, The Korean Journal of Applied Statistics, 4, 177?190. (in Korean)
Huh, M. Y. (1995). Exploring multidimensional data with FEDF, Journal of Computational and Graphical Statistics, 4, 335?343
Huh, M. Y. (2009). http://stat.skku.ac.kr/myhuh.
Huh, M. Y. and Song, K. Y. (2002). DAVIS: A Java-based data visualization system, Computational Statistics, 17, 411?423
Kass, G. V. (1980) An exploratory technique for investigating large quantities of categorical data, Applied Statistics, 29, 119?127
Nocholas, C. J. (1999). The emergence of data visualization and prospects for its business application, Masters of Information Systems Management Professional Seminar
Quinlan, J. R. ( 1986). Induction of decision trees, Machine Learning, 1, 81?106
Quinlan, J. R. (1993). C4.5: Programs for Machine Learning, Morgan Kaufmann Publishers
Quinlan, J. R. (1996). Improved use of continuous attributes in c4.5., Journal of Artificial Intelligence Research, 4, 77?90
Witten, I. H. and Frank, E. (2005). Data Mining: Practical Machine Learning Tools and Techniques, (Second Edition), Morgan Kaufmann
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.