최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기응용통계연구 = The Korean journal of applied statistics, v.32 no.6, 2019년, pp.899 - 908
박종선 (성균관대학교 통계학과) , 이명규 (성균관대학교 통계학과)
Massive in-depth neural networks with numerous parameters are powerful machine learning methods, but they have overfitting problems due to the excessive flexibility of the models. Dropout is one methods to overcome the problem of oversized neural networks. It is also an effective method that randoml...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
공적응이란? | Hinton 등 (2012)에 의하여 소개된 드롭아웃방법 (Srivastava, 2013; Srivastava 등, 2014)은 각각의 표본마다 다른 모형을 학습시켜 융통성이 큰 모형이 갖는 단점 중 하나인 공적응을 방지하기 위하여 고안되었다. 과도한 융통성을 갖는 모형은 적절하게 행동하지 못하는 노드가 있는 경우에도 다른 노드(node)들의 도움으로 참의 모형과 비슷한 수준의 예측이 가능하게 되는데 이를 공적응이라고 한다. 이러한 현상의 발생을 방지하는 방법으로 모든 표본의 학습시에 동일한 모형을 사용하는 대신 표본이 바뀔 때마다 다른 모형을 적합하도록 하는 것이 드롭아웃이다. | |
심층신경망모형의 단점은? | 수많은 모수들을 포함하는 심층신경망모형(deep neural network model)은 강력한 기계학습 시스템을 구현할 수 있다. 그러나 모형의 과도한 융통성으로 인하여 훈련자료(training dataset)에 대한 적합도가 높음에도 훈련자료 크기의 한계로 인한 공적응(co-adaptation)이 발생하게 되며 결과적으로 훈련자료에 대한 오차에 비하여 검증자료(testing dataset)에 대한 예측력이 상대적으로 떨어지는 과적합(overfitting)문제를 내포하고 있다. | |
드롭아웃이란? | 과도한 융통성을 갖는 모형은 적절하게 행동하지 못하는 노드가 있는 경우에도 다른 노드(node)들의 도움으로 참의 모형과 비슷한 수준의 예측이 가능하게 되는데 이를 공적응이라고 한다. 이러한 현상의 발생을 방지하는 방법으로 모든 표본의 학습시에 동일한 모형을 사용하는 대신 표본이 바뀔 때마다 다른 모형을 적합하도록 하는 것이 드롭아웃이다. 드롭아웃 방법은 모든 표본이 동일한모형을 사용하지 못하도록 각각의 표본이 사용할 모형을 선택할 때 모형에 포함된 노드 또는 활성함수(activation function)들을 무작위로 선택하게 된다. |
Glorot, X. and Bengio, Y. (2010). Understanding the difficulty of training deep feedforward neural networks, Proceedings of the 13th International Conference on Artificial Intelligence and Statistics (AISTATS) 2010, Chia Laguna Resort, Sardinia, Italy. Volume 9 of JMLR: W&CP 9.
Helmbold, D. and Long, P. (2017). Surprising properties of dropout in deep networks, Proceedings of Machine Learning Research, 65, 1-24.
Hinton, G., Srivastava, N., Krizhevsky, A., Sutskever, I. and Salakhutdinov, R. (2012). Improving neural networks by preventing co-adaptation of feature detectors. http://arxiv.org/abs/1207.0580.
Ioffe, S. and Szegedy, C. (2015). Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift, Proceeding ICML'15 Proceedings of the 32nd International Conference on International Conference on Machine Learning, 37, 448-456.
Nowlan, S. and Hinton, G. (1992). Simplifying neural networks by soft weight-sharing, Neural Computation, 4, 473-493.
Salakhutdinov, R. and Mnih, A. (2008). Bayesian probabilistic matrix factorization using Markov chain Monte Carlo, In Proceedings of the 25th International Conference on Machine Learning, ACM.
Srivastava, N. (2013). Improving Neural Networks with Dropout. Master's thesis, University of Toronto.
Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I. and Salakhutdinov, R. (2014). Dropout: A Simple Way to Prevent Neural Networks from Overfitting, Journal of Machine Learning Research, 15, 1929-1958.
Wan, L., Zeiler, M., Zhang, S., Cun, Y. and Fergus, R. (2013). Regularization of neural networks using DropConnect, Proceedings of the 30th International Conference on Machine Learning, 28, 1058-1066.
Xiong, H., Barash, Y. and Frey, B. (2011). Bayesian prediction of tissue-regulated splicing using RNA sequence and cellular context, Bioinformatics, 27, 2554-2562.
해당 논문의 주제분야에서 활용도가 높은 상위 5개 콘텐츠를 보여줍니다.
더보기 버튼을 클릭하시면 더 많은 관련자료를 살펴볼 수 있습니다.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.