최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기Journal of the Korean Data & Information Science Society = 한국데이터정보과학회지, v.20 no.1, 2009년, pp.179 - 190
이용구 (중앙대학교 수학통계학부) , 허준 (SPSS Korea (주)데이타솔루션 컨설팅팀)
In the financial industry, the decision tree algorithm has been widely used for classification analysis. In this case one of the major difficulties is that there are so many explanatory variables to be considered for modeling. So we do need to find effective method for reducing the number of explana...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
개인연금보험을 판매하는 대상은 어떻게 나누어지는가? | 이렇게 모든 보험사가 개인연금보험의 판매에 총력을 기울이는 시점에서, 개인연금보험을 판매하는 대상은 2가지 종류로 나눌 수 있다. 첫 번째는 신규 고객을 대상으로, 보험설계사 및 홈쇼핑 등의 판매 채널을 통해서, 개인연금보험을 판매하는 것이고, 두 번째는 기존의 다른 보험 가입고객들에게, 추가 판매를 하는 것이다. | |
변수 선택이란 무엇을 의미하는가? | 그러나 실제로 의사결정나무 기법을 적용함에 있어, 많은 문제점이 나타나게 되는데, 그 중 하나가 많은 수의 설명변수 중 의미 있는 변수를 선택하는 문제이다. 변수 선택이란, 의사결정나무 분석과 같은 지도학습 기법에 사용되는 설명변수들 중에서, 모델에 활용성이 적거나 또는 활용할 때 문제가 되는 변수를 파악하여, 제거하는 것을 의미한다. 실제 금융권의 경우 유사한 성격의 데이터가 매우 많으며, 고객의 다양한 정보를 보유하고 있어, 많은 수의 설명 변수를 가지게 된다. | |
생명보험 시장에서 가장 화두가 되고 있는 것은 무엇인가? | 현재 생명보험 시장에서, 가장 화두가 되고 있는 것이 바로 개인연금보험 또는 개인은퇴보험 시장이라고 할 수 있다. 개인연금보험 또는 개인은퇴보험이란 직장에서의 은퇴 또는 일을 더 이상할 수 없는 연령에 처한 사람들에게 일종의 노후의 생계유지를 지원하는 상품으로 우리 사회의 고령화 문제 및 각종 퇴직 후 생활불안 심리와 맞물려서 큰 인기를 끌고 있다. |
강부식, 박상찬 (2001). 신경망의 민감도 분석을 이용한 귀납적 학습 기법의 변수 부분 집합 선정. , 7, 51-63.
박성민, 박영준 (2005). 회귀분석변수선택 절차를 이용한 인터넷 네트워크 품질 특성과 고객 만족도와의 관계 실증분석. , 822-828.
정석훈, 서용무 (2008). Rough Set 기법을 이용한 신용카드 연체자 분류. Entrue Journal of Information Technology,7, 141-150.
허문열, 박영석 (2005). 상호정보를 사용한 변수선택의 동적 모델링. , 13, 57-74.
허준, 김종우 (2007). 불균형 데이터 집합에서의 의사결정나무 추론: 종합병원의 건강 보험료 청구 심사 사례. Information Systems Review, 9, 45-65.
Anand, S. S., Patrick, A. R., Hughes, J. G., and Bell, D. A. (1998). A data mining methodology for cross-sales. Knowledge-Based Systems, 10, 449-461.
Battiti, R. (1994). Using mutual information for selecting features in supervised neural net learning. IEEE Transactions on Neural Networks, 5, 537-550.
Brieman, L. (1996). Bagging predictors. Machine Learning, 24, 123-140.
Chung, S. S., Lee, K. H. and Lee, S. S. (2005). A study on split variable selection using transformation of variables in decision trees. Journal of Korean Data & Information Science Society, 16, 195-205.
Engelbrecht, A.P. and Cloete, I. (1996). A sensitivity analysis algorithm for pruning feedforward neural networks, neural networks. 1996, IEEE International Conference, 2, 1274-1278.
Kang, J. (2004). A study on factors associated with the success of CRM in the insurance company. Journal of Korean Data & Information Science Society, 15, 141-172.
Kass, G. (1980). An exploratory technique for investigating large quantities of categorical data. Applied Statistics, 29, 119-127.
Krzanowski, W. J. (1987). Selection of variables to preserve multivariate data structure, using principal component. Applied Statistics, 36, 22-33.
Krzanowski, W. J. (1996). A stopping rule for structure-preserving variable selection. Statistics and Computing, 6, 51-56.
Loh, W. and Shih, Y. (1997). Split selection methods for classification trees. Statistica Sinica, 7, 815-840.
Lu, H., Setiono, R. and Liu, H. (1996). Effective data mining using neural networks. IEEE Transactions on Knowledge and Data Engineering, 8, 957-961.
Quinlan, J. R. (1993). C4.5 Programs for machine Learning, San Mateo: Morgan Kaufmann.
SPSS Inc., (2007). Clementine 12.0 User’s Guide, SPSS Inc.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.