$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

The NN-Stacking: Feature weighted linear stacking through neural networks 원문보기

Neurocomputing, v.399, 2020년, pp.141 - 152  

Coscrato, Victor (Corresponding author at:.) ,  Inácio, Marco Henrique de Almeida (Federal University of Sã) ,  Izbicki, Rafael (o Carlos)

Abstract AI-Helper 아이콘AI-Helper

Abstract Stacking methods improve the prediction performance of regression models. A simple way to stack base regressions estimators is by combining them linearly, as done by Breiman [1]. Even though this approach is useful from an interpretative perspective, it often does not lead to high predicti...

주제어

참고문헌 (26)

  1. Mach. Learn. Breiman 24 1 49 1996 10.1007/BF00117832 Stacked regressions 

  2. Mach. Learn. Deroski 54 3 255 2004 10.1023/B:MACH.0000015881.36452.6e Is combining classifiers with stacking better than selecting the best one? 

  3. Dietterich 1 2000 Proceedings of the International Workshop on Multiple Classifier Systems Ensemble methods in machine learning 

  4. J. Sill, G. Takacs, L. Mackey, D. Lin, Feature-weighted linear stacking, arXiv preprint arXiv:0911.0460 (2009). 

  5. Zhou 2012 Ensemble Methods: Foundations and Algorithms 

  6. Ann. Stat. Fan 2008 1992 10.1214/aos/1176348900 Variable bandwidth and local linear regression smoothers 

  7. Mach. Learn. Breiman 45 1 5 2001 10.1023/A:1010933404324 Random forests 

  8. Month. Notices R. Astronom. Soc. Freeman 468 4 4556 2017 10.1093/mnras/stx764 A unified framework for constructing, tuning and assessing photometric redshift density estimates in a selection bias setting 

  9. Ann. Appl. Stat. Izbicki 11 2 698 2017 10.1214/16-AOAS1013 Photo-z estimation: an example of nonparametric conditional density estimation under selection bias 

  10. NLS: an accurate and yet easy-to-interpret regression method Coscrato 2019 

  11. Csaji 24 48 2001 Approximation with Artificial Neural Networks 

  12. CoRR Kingma 2014 Adam: a method for stochastic optimization. 

  13. J. Mach. Learn. Res. Proc. Track Glorot 9 249 2010 Understanding the difficulty of training deep feedforward neural networks 

  14. D.-A. Clevert, T. Unterthiner, S. Hochreiter, Fast and accurate deep network learning by exponential linear units (Elus), 2015. 

  15. Ioffe 37 448 2015 Proceedings of the 32nd International Conference on Machine Learning Batch normalization: Accelerating deep network training by reducing internal covariate shift 

  16. CoRR Hinton 2012 Improving neural networks by preventing co-adaptation of feature detectors 

  17. A. Paszke, S. Gross, S. Chintala, G. Chanan, E. Yang, Z. DeVito, Z. Lin, A. Desmaison, L. Antiga, A. Lerer, Automatic differentiation in Pytorch, 2017. 

  18. Nugteren 195 2015 Proceedings of the IEEE 9th International Symposium on Embedded Multicore/Many-core Systems-on-Chip Cltune: A generic auto-tuner for opencl kernels 

  19. D. Dheeru, E. Karra Taniskidou, UCI machine learning repository, 2017. http://archive.ics.uci.edu/ml. 

  20. Buza 145 2014 Data Analysis, Machine Learning and Knowledge Discovery Feedback prediction for blogs 

  21. 10.1016/j.commatsci.2018.07.052 K. Hamidieh, A data-driven statistical model for predicting the critical temperature of a superconductor, arXiv preprint arXiv:1803.10260 (2018). 

  22. Friedman 1 2001 The elements of statistical learning 

  23. Meir 118 2003 Advanced Lectures on Machine Learning An introduction to boosting and leveraging 

  24. J. Mach. Learn. Res. Pedregosa 12 2825 2011 Scikit-learn: Machine learning in Python 

  25. Hastie 2001 10.1007/978-0-387-21606-5 The Elements of Statistical Learning 

  26. Stat. Appl. Genet. Mol. Biol. Van der Laan 6 1 2007 10.2202/1544-6115.1309 Super learner 

관련 콘텐츠

오픈액세스(OA) 유형

GREEN

저자가 공개 리포지터리에 출판본, post-print, 또는 pre-print를 셀프 아카이빙 하여 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로