최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기The journal of Bigdata = 한국빅데이터학회지, v.3 no.2, 2018년, pp.35 - 49
방준아 (성균관대학교 통계학과) , 손광민 (성균관대학교 통계학과) , 이소정 (CJ올리브네트웍스 DT융합연구소) , 이현근 (CJ올리브네트웍스 빅데이터센터) , 조수빈 (성균관대학교 통계학과)
It seems unrealistic to say that fried chicken, often known as the American soul food, has one of the biggest markets in South Korea. Yet, South Korea owns more numbers of fried chicken restaurants than those of McDonald's franchise globally[4]. Needless to say not all these fast-food commerce survi...
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
Support Vector Machine이란 무엇이며, 어느 분야에서 활용되는가? | Support Vector Machine(SVM)은 이원 분류를 위한 지도학습 기반 기계학습 기법으로 주로 회귀분석과 분류 분야에서 활용되고 있다. | |
박주영 숭실대 벤처중소기업 학과 교수는 창업자 5명 중 2명은 치킨집이거나 편의점을 개업하는 이유를 무엇이라 설명했나? | 국세청 부가가치세 신고 자료에 따르면 창업자 5명 중 2명은 치킨집이거나 편의점을 개업하는 것으로 나타나고 있다[9]. 박주영 숭실대 벤처중소기업 학과 교수는 이러한 사회적 현상에 대해서 “특히 화이트칼라 직종에 종사하다 은퇴한 창업자들의 경우 자신이 많이 소비했고 익숙한 업종을 중심으로 창업하려는 경향이 크다. 치킨, 술·유흥 업종의 경우 자주 이용했기 때문에 쉽게 생각하고 가게를 오픈하려고 하는 것일 수 있다.”라고 설명한다[5]. | |
Random Forest는 어떤 단계들로 구성되어 있나? | Random Forest는 분류, 회귀분석 등에 사용되는 앙상블 학습방법의 일종으로 여러 개의 의사 결정나무를 임의로 학습하는 방식이다. Random Forest는 다수의 의사결정나무를 구성하는 학습 단계와 입력변수가 들어왔을 때 분류하거나 예측하는 검증 단계로 구성되어 있다. |
고은지, "소상공인 71%, 5년내 문 닫아...식당.여관은 1년내 절반 폐업", 2016.09.28., https://www.yna.co.kr/view/AKR20160927179000003
국가법령정보센터, 국토의 계획 및 이용에 관한 법률, 2018.06.12.
국가법령정보센터, 다중이용업소의 안전관리에 관한 특별법, 2017.12.26.
김현우, "'우후죽순' 치킨집, 전 세계 맥도날드 매장보다 많아", 2015.10.05., https://www.ytn.co.kr/_ln/0102_201510052201553904
박수호, & 서은내, "3040 vs 5060 세대별 창업 특징 살펴보니 | "인생 이모작…내 노후는 내가" 5060 반란", 2016.08.12., http://news.mk.co.kr/newsRead.php?no575619&year2016
배정원, "소비자기대지수", 2012.11.24., http://biz.chosun.com/site/data/html_dir/2012/11/24/2012112400390.html
윤효원, "자영업자 700만명, 절반으로 줄여야", 2018.09.03., http://www.labortoday.co.kr/news/articleView.html?idxno153665
이현, "창업자 5명 중 2명은 치킨집.편의점...이미 포화 상태", 2016.07.11., http://news.jtbc.joins.com/article/article.aspx?news_idNB11269730&pDate20160711
최현준, "선행종합지수", 2012.03.04., http://www.hani.co.kr/arti/economy/economy_general/521840.html
통계청, 기업생멸행정통계, 2016.
통계청, 자영업 현황분석, 2016.
"Orthogonal Partial Least Squares (OPLS) in R", 2013.07.28., https://www.r-bloggers.com/orthogonal-partial-least-squares-opls-in-r
"A Quick Introduction to K-Nearest Neighbors Algorithm", 2017.04.11., https://medium.com/@adi.bronshtein/a-quick-introduction-to-k-nearest-neighbors-algorithm-62214cea29c7
"SVM Separating Hyperplanes", 2012.11.26., https://en.wikipedia.org/wiki/Support_vector_machine#cite_note-CorinnaCortes-1/512px-Svm_separating_hyperplanes_(SVG).svg
"What is an artificial neural network? Here's everything you need to know", 2018.09.13, https://www.digitaltrends.com/cool-tech/what-is-an-artificial-neural-network/
Chen, T., & Guestrin, C., "XGBoost: A Scalable Tree Boosting System", International Conference on Knowledge Discovery and Data Mining, pp.785-794, 2016.
Fawcett, Tom, "An Introduction to ROC Analysis", Pattern Recognition Letters, Vol.27, No.8, pp.861-874, 2006.
Friedman J, Hastie T, Tibshirani R., "Additive Logistic Regression: A Statistical View of Boosting", Annals of Statistics, Vol.28, No.2, pp.337-374, 2000.
Han, J., & Kamber, M., Data mining: Concepts and techniques (3rd ed.), Amsterdam: Elsevier, Morgan Kaufmann, 2011.
Hastie, T., Tibshirani, R., & Buja, A., "Flexible Discriminant Analysis by Optimal Scoring", J. of the American Statistical Association, Vol.89, No.428, pp.1255-1270, 1994.
Hoerl, A., & Kennard, R., "Ridge Regression: Biased Estimation for Nonorthogonal Problems", Technometrics, Vol. 42, No. 1, pp.80-86, 2000.
Keller, J. M., Gray, M. R., & Givens, J. A., "A fuzzy K-nearest neighbor algorithm", IEEE Transactions on Systems, Man, and Cybernetics, Vol.SMC-15, No.4, pp.580-585, 1985.
Kuhn, M., & Johnson, K., Applied predictive modeling (2nd ed.), New York: Springer., 2016.
Leo Breiman, "Random Forests", 2001., https://www.stat.berkeley.edu/-breiman/randomforest2001.pdf
Schalkoff, R.J, Artificial neural networks, McGraw-Hill, 1997.
Sinnott, R.W, "Virtues of the Haversine", Sky and Telescope, Vol. 68, Issue 2, pp.158, 1984.
Vapnik, V. N., The nature of statistical learning theory, New York: Springer, 2010.
Wold, S., Sjostrom, M., & Erikssonb, L., "PLS-regression: A basic tool of chemometrics", Chemometrics and Intelligent Laboratory Systems, Vol.58, No.2, pp.109-130, 2001.
Zou, H., & Hastie, T., "Regularization and Variable Selection via the Elastic Net", J. of the Royal Statistical Society. Series B (Statistical Methodology), Vol. 67, No.2, pp.301-320. 2005.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.