최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국산학기술학회논문지 = Journal of the Korea Academia-Industrial cooperation Society, v.21 no.2, 2020년, pp.189 - 194
This paper analyzes the gradient descent method, which is the one most used for learning neural networks. Learning means updating a parameter so the loss function is at its minimum. The loss function quantifies the difference between actual and predicted values. The gradient descent method uses the ...
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
신경망은 빅데이터와 프로세서의 발전으로 인해 새롭게 태어났다고 한 이유는? | 신경망이 새롭게 태어날 수 있었던 것은 빅데이터와 프로세서의 발전 덕분이다. 빅데이터 확보로 많은 경우의 수를 테스트하고, 프로세서의 성능개선 또는 클라우드 컴퓨팅 기술로 엄청난 매개변수들을 학습할 수 있게 되었다. 물론 힌톤교수의 불굴의 노력도 중요한 역할을 하였다. | |
신경망 학습이란? | 본 논문에서는 신경망을 학습하는 데 가장 많이 사용되고 있는 경사하강법에 대해 분석하였다. 학습이란 손실함수가 최소값이 되도록 매개변수를 갱신하는 것이다. 손실함수는 실제값과 예측값의 차이를 수치화 해주는 함수이다. | |
신경망이 새롭게 태어날수 있던 이유는? | 신경망은 2000년대에 들어오면서 딥러닝(deep learning)이란 새로운 이름으로 개명되었고 구글의 딥러닝 바둑 알고리즘이 세계적인 프로기사들을 이김으로써 세상의 조명을 받게 되었다. 신경망이 새롭게 태어날 수 있었던 것은 빅데이터와 프로세서의 발전 덕분이다. 빅데이터 확보로 많은 경우의 수를 테스트하고, 프로세서의 성능개선 또는 클라우드 컴퓨팅 기술로 엄청난 매개변수들을 학습할 수 있게 되었다. |
Smith, Craig S, "The Man Who Helped Turn Toronto into a High-Tech Hotbed". The New York Times. Retrieved 27 June 2017.
J. Liang, E. Meyerson, and R. Miikkulainen. Evolutionary architecture search for deep multitask networks. arXiv preprint arXiv:1803.03745, 2018.
J. Dean, G. Corrado, R. Monga, K. Chen, M. Devin, Q. Le, M. Mao, M. Ranzato, A. Senior, P. Tucker, K. Yang, and A. Ng, "Large scale distributed deep net works," in NIPS, 2012.
T. Schaul, S. Zhang, and Y. LeCun, "No more pesky learning rates," arXiv:1206.1106, 2012.
N. Jaitly, P. Nguyen, A. Senior, and V. Vanhoucke, "Application of pretrained deep neural networks to large vocabulary speech recognition," in Interspeech, 2012.
G. Morse and K. O. Stanley. Simple evolutionary optimization can rival stochastic gradient descent in neural networks. In The Genetic and Evolutionary Computation Conference (GECCO), pages 477-484, 2016.
J. Duchi, E. Hazan, and Y. Singer, "Adaptive subgradient methods for online learning and stochastic optimization," in COLT, 2010.
S. Becker and Y. LeCun, "Improving the convergence of back-propagation learning with second order methods," Tech. Rep., Department of Computer Science, University of Toronto, Toronto, ON, Canada, 1988.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.