최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국전자거래학회지 = The Journal of Society for e-Business Studies, v.25 no.3, 2020년, pp.1 - 13
이수은 (School of Electrical and Computer Engineering, University of Seoul) , 김한준 (School of Professor Electrical and Computer Engineering, University of Seoul)
Machine learning refers to a model generation technique that can solve specific problems from the generalization process for given data. In order to generate a high performance model, high quality training data and learning algorithms for generalization process should be prepared. As one way of impr...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
앙상블 기법에는 무엇이 있는가? | 기계학습 기법 중의 하나인 앙상블(Ensemble) 기법[2, 10, 22]은 다수의 약한 학습기(weak learner)를 결합하여 하나의 강한 학습기(strong learner)를 생성한다. 앙상블 기법에는 투표 (voting) 방식을 이용한 배깅(Bagging) 기법[1], 가중 투표(weighted voting) 방식을 이용한 부스팅(Boosting) 기법[14], 그리고 단일 모델(single model)로부터 얻어낸 예측 값을 학습 데이터로 삼는 스태킹(Stacking) 기법[15]이 있다. | |
부스팅 기법에서 가중치는 어떻게 조절되는가? | 부스팅 기법이란 배깅 기법과는 달리 생성된 다수 개의 모델들이 동등하지 않게 취급되며, 각 모델이 부여된 가중치가 최종 분류를 위한 투표에 반영된다([Figure 3] 참조). 초기 단계에서 주어진 학습 데이터를 모두 학습하여 모델을 생성한 후, 생성된 모델로부터 데이터를 분류하였을 때 잘 분류된 데이터는 가중치를 적게 주고, 잘못 분류된 데이터는 가중치를 높게 줌으로써 가중치가 조절된다. 이렇게 가중치가 부여된 데이터에 대하여 임의 추출 과정을 통해 연속적으로 새로운 모델을 생성하게 된다. | |
기계학습이란? | 기계학습(machine learning)이란 주어진 데이터에 대한 일반화 과정으로부터 특정 문제를 해결할 수 있는 모델(model) 생성 기술을 의미한다. 우수한 성능의 모델을 생성하기 위해서는 양질의 학습데이터와 일반화 과정을 위한 학습 알고리즘이 준비되어야 한다. |
Breiman, L., "Bagging predictors," Machine Learning, Vol. 24, No. 2, pp. 123-140, 1996.
Brown, G., "Ensemble Learning," Encyclopedia of Machine Learning, Vol. 312, pp. 15-19, 2010.
Cutler, D. R., Edwards, T. C., Beard, K. H., Cutler, A., Hess, K. T., Joshua, J. G., and Lawler, J. J., "Random forests for classification in ecology," Ecology, Vol. 88, No. 11, pp. 2783-2792, 2017.
Demir, N., and Dalkilic, G., "Modi ed stacking ensemble approach to detect network intrusion," Turkish Journal of Electrical Engineering & Computer Sciences, Vol. 26, No. 1 pp. 418-433, 2018.
El-Khatib, M. J., Abu-Naser, B. S., and Abu-Naser, S. S., "Glass classification using artificial neural network," International Journal of Academic Pedagogical Research (IJAPR), Vol. 3, No. 2, pp. 25-31, 2019.
Garrett, D., Peterson, D. A., Anderson, C. W., and Thaut, M. H., "Comparison of linear, nonlinear, and feature selection methods for EEG signal classification," IEEE Transactions on Neural Systems and Rehabilitation Engineering, Vol. 11, No. 2, pp. 141-144, 2003.
Goyal, M., and Rajapakse, J. C., "Deep neural network ensemble by data augmentation and bagging for skin lesion classification," Computer Vision and Pattern Recognition, Vol. 1807.05496, 2018.
Kaggle Datase, Titanic Data. https://www.kaggle.com/c/titanic/data.
Kaggle DataSets, https://www.kaggle.com/datasets.
Pari, R., Sandhya, M., and Sankar, S., "A multitier stacked ensemble algorithm for improving classification accuracy," Computing in Science & Engineering, Vol. 22, No. 4, pp. 74-85, 2020.
Patil, T. R., and Sherekar, S. S., "Performance analysis of Naive Bayes and J48 classification algorithm for data classification," International journal of computer science and applications, Vol. 6, No. 2, pp. 256-261, 2013.
Ramamurthy, M., and Krishnamurthi, I., "Decision tree based classification type question/answer e-assessment system," Advances in Natural and Applied Sciences, Vol. 10, No. 1 pp. 22-26, 2016.
Schapire, R. E., Freund, Y., Bartlett, P., and Lee, W. S., "Boosting the margin: A new explanation for the effectiveness of voting methods," The annals of statistics, Vol. 26, No. 5 pp. 1651-1686, 1998.
Syarif, I., Zaluska, E., Prugel-Bennett, A., and Wills, G., "Application of bagging, boosting and stacking to intrusion detection," International Workshop on Machine Learning and Data Mining in Pattern Recognition, Vol. 7376, No. 8, pp. 593-602, 2012.
UCI Repository Adult Data, http://archive.ics.uci.edu/ml/datasets/Adult.
UCI Repository Cervical Data, http://archive.ics.uci.edu/ml/datasets/Cervical+canc er+%28Risk+Factors%29.
UCI Repository German Data, http://archive.ics.uci.edu/ml/datasets/statlog+(german+credit+data).
UCI Repository, http://archive.ics.uci.edu/ml/datasets.php.
Yang, X., Lo, D., Xia, X., and Sun, J., "TLEL: A two-layer ensemble learning approach for just-in-time defect prediction," Information and Software Technology, Vol. 87, No. 1 pp. 206-220, 2017.
Zhang, S., Li, X., Zong, M., Zhu, X. and Wang, R., "Efficient knn classification with different numbers of nearest neighbors," IEEE Transactions on Neural Networks and Learning Systems, Vol. 29, No. 5, pp. 1774-1785, 2018.
Zhou, Z. H., "Ensemble methods: Foundations and algorithms," Chapman and Hall/CRC, 2012.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.