$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

점진적 하강 방법을 이용한 속성값 기반의 가중치 계산방법
Gradient Descent Approach for Value-Based Weighting 원문보기

정보처리학회논문지. The KIPS transactions. Part B. Part B, v.17B no.5, 2010년, pp.381 - 388  

이창환 (동국대학교 정보통신학과) ,  배주현 (동국대학교 정보통신학과)

초록
AI-Helper 아이콘AI-Helper

나이브 베이시안 알고리즘은 데이터 마이닝의 여러 분야에서 적용되고 있으며 좋은 성능을 보여주고 있다. 하지만 이 학습 방법은 모든 속성의 가중치가 동일하다는 가정을 하고 있으며 이러한 가정으로 인하여 가끔 정확도가 떨어지는 현상이 발생한다. 이러한 문제를 보완하기 위하여 나이브 베이시안에서 속성의 가중치를 조절하는 다수의 연구가 제안되어 이러한 단점을 보완하고 있다. 본 연구에서는 나이브 베이시안 학습에서 기존의 속성에 가중치를 부여하는 방식에서 한걸음 나아가 속성의 값에 가중치를 부여하는 새로운 방식을 연구하였다. 이러한 속성값의 가중치를 계산하기 위하여 점진적 하강(gradient descent) 방법을 이용하여 가중치를 계산하는 방식을 제안하였다. 제안된 알고리즘은 다수의 데이터를 이용하여 속성 가중치 방식과 비교하였고 대부분의 경우에 더 좋은 성능을 제공함을 알 수 있었다.

Abstract AI-Helper 아이콘AI-Helper

Naive Bayesian learning has been widely used in many data mining applications, and it performs surprisingly well on many applications. However, due to the assumption that all attributes are equally important in naive Bayesian learning, the posterior probabilities estimated by naive Bayesian are some...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 하지만 기존의 방법들은 가중치 계산에서 속성별로 가중치를 부여하므로 이러한 현상을 표현할 수 있는 방법이 제한되고 있다. 따라서 이러한 문제점을 보완하기 위하여 본 연구는 속성의 값 별로 가중치를 계산하는 방법을 제시한다. 이와 같이 속성의 값에 대하여 가중치를 부여하게 되면 나이브 베이시안의 분류식은 다음과 같아진다.
  • 따라서 속성 값의 가중치 계산 방법은 본 연구에서 새롭게 고안하여야 한다. 또한 속성값 가중치 계산 방법과 더불어 속성 가중치의 계산 방법도 같이 개발하여 두 방법 간의 성능을 비교하려 한다.
  • 본 연구의 가중치 계산은 기존의 속성에 대하여 가중치를 부여하는 방식인데 반하여 본 연구는 속성의 값별로 별도의 가중치를 부여하는 새로운 방식이다. 본 논문에서는 이와 같은 속성값 가중치 방식을 위한 새로운 가중치 부여 방법을 제안하고 이를 기존의 속성 가중치 방식과 비교하여 서로의 성능을 비교하기로 한다. 나이브 베이시안에서 속성의 가중치를 부여하는 방법은 몇 가지 방법이 제안되어 있지만 속성값에 대한 가중치의 부여에 대한 방법은 아직 제안된 적이 없다.
  • 본 논문에서는 이와 같은 속성에 가중치를 부여하는 방법을 좀 더 세분화 하여서 속성의 값마다 가중치를 부여하는 방법을 제안한다. (그림 1)은 나이브 베이시안에서 속성마다 가중치를 부여하는 것의 의미를 설명하고 있다.
  • 하지만 지금까지 속성의 값 각각에 대하여 다른 기중치를 부여하려는 시도는 알려진것이 전혀 없다. 본 논문은 나이브 베이시안의 가중치 계산에서 새로운 시도를 하려한다.
  • 앞 절에서는 점진적 하강방법을 이용한 속성 값의 가중치 계산 방법을 제시하였다. 본 논문의 주제가 속성에 가중치를 주는 방법과 속성의 값마다 다른 가중치를 주는 방법의 차이를 분석하는 것이 주된 목적이므로 본 절에서는 속성에 대한 가중치를 계산하는 방법을 제안한다. 앞 절의 속성 값 가중치 계산에서 사용한 방법과 동일한 방법을 이용하여 속성의 가중치를 계산하는 방법을 제시하고자 한다.
  • 제안된 알고리즘은 다수의 데이터를 이용하여 속성 가중치 방식과 비교하였고 많은 경우에 더 좋은 성능을 제공함을 알 수 있었다. 본 연구는 나이브 베이시안의 가중치 부여에서 새로운 연구의 방향을 제시한다고 볼 수 있다. 추후연구로는 더욱 정밀한 속성값 가중치 계산 방법을 개발하여서 나이브 베이시안에 적용할 수 있는 기술을 개발할 계획이다.
  • 본 연구에서는 나이브 베이시안 학습에서 기존의 속성에 가중치를 부여하는 방식에서 한 걸음 더 나아가 속성의 값에 가중치를 부여하는 새로운 방식을 연구하였다. 이러한 속성 값의 가중치를 계산하기 위하여 점진적 하강의 방법을 사용하여 가중치를 계산하는 방식을 제안하였다.
  • 본 연구에서는 나이브 베이시안 환경에서 속성의 값에 대한 가중치를 계산하는 새로운 방식을 제안한다. 본 연구의 가중치 계산은 기존의 속성에 대하여 가중치를 부여하는 방식인데 반하여 본 연구는 속성의 값별로 별도의 가중치를 부여하는 새로운 방식이다.
  • 본 연구에서는 래퍼 방법을 기준으로 속성 값의 가중치를 계산하는 방법을 제안하고자 한다. 구체적으로 래퍼 방법 중에서도 점진적 하강의 방법을 사용하여 가중치를 계산하는 방법을 제시한다.
  • 의 값이 연속(continuous)이며 미분가능(differentiable)하여야 한다. 본 연구에서는 이 문제를 해결하기 위하여 우선 멀티클래스(multi-class)의 문제를 각 클래스 값의 이진클래스(binary class) 문제로 변환한다. 예를 들어서 원래의 데이터가 (a1,a2,⋯,an,cp) 의 형태로 표현되어 있다고 가정하자.
  • 본 연구에서는 점진적 하강(gradient descent)의 방법을 이용하여 속성값의 가중치를 계산하고자 한다. 점진적 하강 방법은 기계학습 혹은 마이닝의 최적화 알고리즘 등에서 다양하에 적용되고 있다.
  • 본 연구에서는 나이브 베이시안 환경에서 속성의 값에 대한 가중치를 계산하는 새로운 방식을 제안한다. 본 연구의 가중치 계산은 기존의 속성에 대하여 가중치를 부여하는 방식인데 반하여 본 연구는 속성의 값별로 별도의 가중치를 부여하는 새로운 방식이다. 본 논문에서는 이와 같은 속성값 가중치 방식을 위한 새로운 가중치 부여 방법을 제안하고 이를 기존의 속성 가중치 방식과 비교하여 서로의 성능을 비교하기로 한다.
  • 본 논문의 주제가 속성에 가중치를 주는 방법과 속성의 값마다 다른 가중치를 주는 방법의 차이를 분석하는 것이 주된 목적이므로 본 절에서는 속성에 대한 가중치를 계산하는 방법을 제안한다. 앞 절의 속성 값 가중치 계산에서 사용한 방법과 동일한 방법을 이용하여 속성의 가중치를 계산하는 방법을 제시하고자 한다. 에러 함수는 속성값의 가중치 계산에서와 같은 함수를 사용한다.
  • Hall[7]은 결정트리를 이용한 나이브 베이시안에서의 가중치 계산 방법을 제안하였다. 이 방법은 우선 가지치기전의 결정트리를 생성하고 각 속성이 결정트리의 어느 레벨에서 나타나는지를 검사한다. 즉 상위 레벨에 나타나는 속성 일수록 중요도가 크다고 할 수 있으므로 해당 속성의 레벨을 기준으로 속성의 가중치를 계산한다.
  • 따라서 각 속성의 값마다 같은 가중치를 부여하는 기존의 방법 보다는 서로 구분된 가중치를 부여하는 것이 더욱 정확한 학습을 가능하게 할 것이다. 이와 같은 이유로 본 연구에서는 각 속성의 값에 대하여 다른 속성 가중치를 부여하는 방법을 제안한다. 속성 전체에 같은 가중치를 부여하면 이러한 속성 값에 따른 영향을 탐지할 수 없으며 따라서 전체적인 성능에 영향을 미칠 수도 있다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
속성의 가중치 계산은 속성 선택의 방법보다도 좀 더 유연하며 속성선택은 속성 가중치 방법의 일부분으로 간주할 수 있는 이유는 무엇인가? 속성의 가중치 계산은 속성의 가중치로써 0 과 1 사이의 실수를 부여함으로써 속성 선택의 방법보다도 좀 더 유연하며 속성선택은 속성 가중치 방법의 일부분으로 간주할 수 있다. 이러한 속성의 가중치 계산 방법은 속성에 대한 바이어스(bias)의 일종으로써 지금까지 대부분 근접이웃 알고리즘의 경우에 주로 사용되어 왔다[15].
나이브 베이시안 알고리즘의 단점 보완을 위한 방법에 대해 설명하시오. 하지만 이 학습 방법은 모든 속성의 가중치가 동일하다는 가정을 하고 있으며 이러한 가정으로 인하여 가끔 정확도가 떨어지는 현상이 발생한다. 이러한 문제를 보완하기 위하여 나이브 베이시안에서 속성의 가중치를 조절하는 다수의 연구가 제안되어 이러한 단점을 보완하고 있다. 본 연구에서는 나이브 베이시안 학습에서 기존의 속성에 가중치를 부여하는 방식에서 한걸음 나아가 속성의 값에 가중치를 부여하는 새로운 방식을 연구하였다.
나이브 베이시안 알고리즘의 단점은? 나이브 베이시안 알고리즘은 데이터 마이닝의 여러 분야에서 적용되고 있으며 좋은 성능을 보여주고 있다. 하지만 이 학습 방법은 모든 속성의 가중치가 동일하다는 가정을 하고 있으며 이러한 가정으로 인하여 가끔 정확도가 떨어지는 현상이 발생한다. 이러한 문제를 보완하기 위하여 나이브 베이시안에서 속성의 가중치를 조절하는 다수의 연구가 제안되어 이러한 단점을 보완하고 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (16)

  1. Claire Cardie and Nicholas Howe. Improving minority class 

  2. Peter Clark and Robin Boswell. Rule induction with CN2: 

  3. Thomas M. Cover and Joy A. Thomas. Elements of 

  4. Pedro Domingos and Michael Pazzani. On the optimality of 

  5. U. Fayyad and K. Irani. Multi-interval discretization of 

  6. Thomas Gartner and Peter A. Flach. Wbcsvm: Weighted 

  7. Mark Hall. A decision tree-based attribute weighting filter 

  8. P. Henrici. Two remarks of the kantorovich inequality. 

  9. Pat Langley and Stephanie Sage. Induction of selective 

  10. Ron Kohavi and George H. John. Wrappers for feature subset 

  11. S. Kullback and R. A. Leibler. On information and suciency. 

  12. C. Merz, P. Murphy, and D. Aha. UCI repository of machine 

  13. J. Ross Quinlan. C4.5: programs for machine learning. 

  14. C. A. Ratanamahatana and D. Gunopulos. Feature selection 

  15. Dietrich Wettschereck, David W. Aha, and Takao Mohri. A 

  16. Harry Zhang and Shengli Sheng. Learning weighted naive 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

이 논문과 함께 이용한 콘텐츠

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로