$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

거리척도와 앙상블 기법을 활용한 지가 추정
Estimating Farmland Prices Using Distance Metrics and an Ensemble Technique 원문보기

지적과 국토정보 = Journal of cadastre & land informatix, v.46 no.2, 2016년, pp.43 - 55  

이창로 (서울대학교 국토문제연구소) ,  박기호 (서울대학교 지리학과, 국토문제연구소)

초록
AI-Helper 아이콘AI-Helper

본 연구는 사례 기반 학습(instance-based learning)의 논리를 활용하여 지가를 추정하였다. 다양한 사례 기반 학습 기법 중 k-최근린법을 이용하였으며, k-최근린법 적용시 유사성을 측정하는 거리척도는 유클리디안 거리를 비롯해 문헌에 비교적 자주 등장하는 10개의 거리척도를 사용하였다. 본 연구에서는 k-최근린법에 의한 10 종류의 예측값 중 가장 우수한 성능을 보이는 1개의 예측값을 최종 가격으로 선택하는 대신, 이들 예측값들을 병합하는 앙상블(ensemble) 기법의 논리를 적용하여 최종 예측값을 결정하였다. 앙상블 기법 중 일종의 잔차 적합 모형인 경사 부스팅 앨고리듬을 적용하여 최종 가격을 정하였다. 본 연구에서는 이러한 사례 기반 학습과 앙상블 기법의 이점을 실증적으로 제시하기 위해 전라남도 해남군 소재 농지를 사례로 하여 가격을 추정하였으며, k-최근린법에 의한 10 종류의 예측값보다 앙상블 기법에 의한 가격이 보다 정확한 것을 확인할 수 있었다.

Abstract AI-Helper 아이콘AI-Helper

This study estimated land prices using instance-based learning. A k-nearest neighbor method was utilized among various instance-based learning methods, and the 10 distance metrics including Euclidean distance were calculated in k-nearest neighbor estimation. One distance metric prediction which show...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구에서는 거리척도를 활용한 사례 기반 학습과 앙상블 기법에 대해 살펴보고, 이러한 기법들이 지가 추정시 갖는 타당성과 우수성에 대해 실증 사례를 통해 설명하고자 한다.
  • 앙상블 기법 중 자주 사용되는 경사 부스팅 앨고리듬을 적용하여 최종 가격을 결정하였고, 그 결과 기존 10개의 예측값들보다 추정의 정확도가 높아진 것을 확인할 수 있었다. 본 연구에서는 기존 10개 예측값들 사이의 유사성이 비교적 낮아서, 즉 일정 수준 다양성을 가지고 있었기에 이러한 예측 정확도의 개선이 가능했던 것으로 풀이하였다.
  • 본 연구에서는 지가 추정시 폭넓게 활용되는 사례 기반 학습의 활용에 초점을 맞춘다. 사례 기반 학습은 훈련 데이터와 예측 대상과의 유사성(similarity)을 어떻게 정의할지가 관건인데, 보통 거리척도(distance metric)를 활용하여 거리값이 작게 나오면 유사한 것으로, 크게 산출되면 유사성이 떨어지는 것으로 판단한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
앙상블 개념을 실행할 수 있는 일반적인 알고리즘은? 이와 같은 앙상블 개념을 실행할 수 있는 앨고리듬은 다양한데, 일반적으로 접하게 되는 앨고리듬이 배깅(bagging)과 부스팅(boosting)이다. 배깅은 데이터로부터 일부 데이터를 복원 추출하여, 즉 부트스트랩(bootstrap)을 통해 여러 개(예를 들어 100개)의 부분 데이터 집합(subset data)을 만들어 내고, 이러한 부분 데이터 집합에 모형을 100번 적합하여 예측값을 각각 계산한다.
배깅 알고리즘의 원리는? 이와 같은 앙상블 개념을 실행할 수 있는 앨고리듬은 다양한데, 일반적으로 접하게 되는 앨고리듬이 배깅(bagging)과 부스팅(boosting)이다. 배깅은 데이터로부터 일부 데이터를 복원 추출하여, 즉 부트스트랩(bootstrap)을 통해 여러 개(예를 들어 100개)의 부분 데이터 집합(subset data)을 만들어 내고, 이러한 부분 데이터 집합에 모형을 100번 적합하여 예측값을 각각 계산한다. 마지막으로 이러한 예측값을 평균하여 최종 예측치를 정하게 된다.
부스팅 알고리즘의 원리는? 반면 부스팅은 부트스트랩에 기초한 여러 개의 부분 데이터 집합을 생성하지 않는다. 대신 최초의 원데이터를 계속하여 수정하면서 모형을 업데이트한다. 즉 최초의 모형을 구성한 후, 종속변수 Y가 아닌 잔차를 업데이트하는 방식으로 모형을 수정하게 된다. 배깅의 경우 선형회귀모형 등 전통적 모형보다 예측 성능이 뛰어남을 보여 준 사례도 존재하지만(Fanelli et al.
질의응답 정보가 도움이 되었나요?

참고문헌 (23)

  1. 김명현, 이세호, 신동훈. 2015. K-Nearest Neighbors (K-NN) 알고리즘을 통한 KOSPI200 선물지수 예측효과 연구. 대한경영학회지. 28(10):2613-2633. Kim MH, Lee SH, Shin DH. 2015. Predictability Test of K-Nearest Neighbors Algorithm: Application to the KOSPI 200 Futures. Korea Business Management Journal. 28(10):2613-2633. 

  2. 김희종, 김형도. 2014. 그라디언트 부스팅과 균형 분류 를 이용한 채무 불이행 예측. 한국정보기술학회 논문지. 12(1):155-164. Kim HJ, Kim HD. 2014. Predicting Loan Defaults with Gradient Boosting and Balanced Classification. Journal of Advanced Information Technology and Convergence. 12(1):155-164. 

  3. 이석준, 김선옥. 2007. 협업필터링에서 고객의 평가치 를 이용한 선호도 예측의 사전평가에 관한 연구. Asia Pacific Journal of Information Systems. 17(4):187-206. Lee SJ, Kim SO. 2007. Pre-evaluation for Prediction Accuracy by Using the Customer's Ratings in Collaborative Filtering. Asia Pacific Journal of Information Systems. 17(4):187-206. 

  4. 장희순, 방경식. 2014. 부동산 용어사전. 부연사. Jang HS, Bang KS. 2014. Real Estate Dictionary. Buyeonsa. 

  5. Aha DW, Kibler D, Albert MK. 1991. Instancebased Learning Algorithms. Machine Learning. 6(1):37-66. 

  6. Alfaro E, Garcia N, Gamez M, Elizondo D. 2008. Bankruptcy Forecasting: An Empirical Comparison of AdaBoost and Neural Networks. Decision Support Systems. 45(1):110-122. 

  7. Banfield RE. 2007. A Comparison of Decision Tree Ensemble Creation Techniques, IEEE Transactions on Pattern Analysis and Machine Intelligence. 29(1):173-180. 

  8. Chopra S, Hadsell R, LeCun Y. 2005. Learning a Similarity Metric Discriminatively, with Application to Face Verification. In: Computer Vision and Pattern Recognition. Proceedings of a Conference Held by IEEE Computer Society; 2005 Jun 20; San Diego (CA); 2005. Vol. 1. p. 539-546. 

  9. Fanelli G , D antone M , G all J , F ossati A, G ool L . 2013. Random Forests for Real Time 3D Face Analysis. International Journal of Computer Vision. 101(3):437-458. 

  10. Friedman JH. 2001. Greedy Function Approximation: a Gradient Boosting Machine. Annals of Statistics. 29(5): 1189-1232. 

  11. Gama J, Camacho R, Brazdil P, Jorge A, Torgo L. 2005. Machine Learning: ECML 2005. Proceedings of a symposium held at the 16th European Conference on Machine Learning; 2005 Oct 3-7; Porto, Portugal; 2005. p. 601-608. 

  12. Kuhn M, Johnson K. 2013. Applied Predictive Modeling. New York: Springer, p. 389-400. 

  13. Legendre P, LF Legendre. 2012. Numerical Ecology. London: Elsevier, p. 296-298. 

  14. Lemmens A, Croux C. 2006. Bagging and Boosting Classification Trees to Predict Churn. Journal of Marketing Research. 43(2):276-286. 

  15. Li P, Wu Q, Burges CJ. 2007. Mcrank: Learning to Rank Using Multiple Classification and Gradient Boosting. In: Proceedings of a symposium held at the 21st Annual Conference on Neural Information Processing Systems; 2007 Dec 3-5; Vancouver (BC); 2007. p. 897-904. 

  16. Liao Y, Vemuri VR. 2002. Use of K-Nearest Neighbor Classifier for Intrusion Detection. Computers & Security. 21(5):439-448. 

  17. Park B, Bae JK. 2015. Using Machine Learning Algorithms for Housing Price Prediction: The Case of Fairfax County, Virginia Housing Data. Expert Systems with Applications. 42(6):2928-2934. 

  18. Quinlan JR. 1993. Combining Instance-based and Model-based Learning. In: Proceedings of a symposium held at the 10th International Conference on Machine Learning; 1993 Jun 27-29; Amherst (MA); 1993. p. 236-243. 

  19. Rasyidi MA, Kim J, Ryu KR. 2014. Short-Term Prediction of Vehicle Speed on Main City Roads Using the K-Nearest Neighbor Algorithm. Journal of Intelligence and Information Systems. 20(1):121-131. 

  20. Schapire RE. 1999. Theoretical Views of Boosting. In: Proceedings of a symposium held at the 4th European Conference, Euro COLT on Computational Learning Theory; 1999 Mar 29-31; Nordkirchen, Germany; 1999. p. 1-10. 

  21. Shen H, Chou KC. 2005. Using Optimized Evidence-Theoretic K-Nearest Neighbor Classifier and Pseudo-amino Acid Composition to Predict Membrane Protein Types. Biochemical and Biophysical Research Communications. 334(1):288-292. 

  22. Wang YQ. 2008. Building Credit Scoring Systems Based on Support-based Support Vector Machine Ensemble. In: Proceedings of a symposium held at the 4th International Conference on Natural Computation; 2008 Oct 18-20; Jinan, China; 2008. p. 323-326. 

  23. Weinberger KQ, Blitzer J, Saul LK. 2009. Distance Metric Learning for Large Margin Nearest Neighbor Classification. Journal of Machine Learning Research. 10: 207-244. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로