최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기디지털융복합연구 = Journal of digital convergence, v.17 no.10, 2019년, pp.251 - 258
이덕균 (대구대학교 인문교양대학) , 박지은 (대구대학교 인문교양대학)
In the future, various products are created in various fields using artificial intelligence. In this age, it is a very important problem to know the operation principle of artificial intelligence learning method and to use it correctly. This paper introduces artificial intelligence learning methods ...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
인공지능의 학습방법은 무엇인가? | 인공지능의 학습방법은 많은 data로부터 이 data를 이용하여 비용함수(Cost function)을 만들고 이를 최적화하는 방법으로 학습이 이루어진다. 여기서 인공지능 학습에 있어 해결해야 하는 문제가 발생한다. | |
Adam 방법의 장점은 무엇인가? | 기존 기계학습 방법의 문제점은 학습의 어려움에 따라 학습의 강도 조절을 하지 못하는 것이었다. 그러나 Adam 방법은 학습의 어려움에 따라 학습 강도를 조정할 수 있는 능력을 포함하고 있다. 이 방법이 가장 널리 사용되고 있으며, 상당부분 효과적인 방법으로 잘 알려진 방법이다. | |
Momentum방법의 문제점은 무엇인가? | 이후에 널리 상용되는 방법 중의 하나인 Momentum방법에 대하여 설명할 것이다. 그러나 이 방법은 여러 가지 이로운 점이 있으나, 변수의 변화가 심하고 해의 수렴성면에 있어 안정적이지 못한 부분이 있다. 이러한 문제점을 극복하고자 개발된 방법이 Adam(Adaptive Moment Estimation) 방법이다[18]. |
G. D. Kim & Y. H. Kim. (2017). A Survey on Oil Spill and Weather Forecast Using Machine Learning Based on Neural Networks and Statistical Methods. Journal of the Korea Convergence Society, 8(10), 1-8.
J. Ku. (2017). A Study on the Machine Learning Model for Product Faulty Prediction in Internet of Things Environment. Journal of Convergence for Information Technology, 7(1), 5-60.
Y. Jeong. (2018). Machine Learning Based Domain Classification for Korean Dialog System. Journal of Convergence for Information Technology, 9(8), 1-8.
Y. Namgoong, C. O. Kim & C. J. Lee. (2019). A machine learning model for the derivation of major molecular descriptor using candidate drug information of diabetes treatment. Journal of the Korea Convergence Society, 10(3), 23-30.
L. Deng, J. Li, J. Huang, K. Yao, D. Yu, F. Seide, M. L. Seltzer, G. Zweig, X. He, J. Williams, Y. Gong & A. Acero. (2013). Recent advances in deep learning for speech research at microsoft. ICASSP.
A. Graves. (2013). Generating sequences with recurrent neural networks. arXiv preprint arXiv:1308.0850.
A. Graves, A. Mohamed & G. Hinton. (2013). Speech recognition with deep recurrent neural networks. In Acoustics, Speech and Signal Processing(ICASSP), 2013 International Conference, 6645-6649
G. E. Hinton, N. Srivastava, A. Krizhevsky, I. Sutskever & R. R. Salakhutdinov. (2012). Improving neural networks by preventing co-adaptation of feature detectors. arXiv preprint arXiv:1207.0580
T. Tieleman & G. E. Hinton. (2013). Lecture 6.5-RMSProp, COURSERA: Neural Networks for Machine Learning. Technical report.
J. Dean, G. Corrado, R. Monga, K. Chen, M. Devin, Q. Le, M. Mao, M. Ranzato, A. Senior, P. Tucker, K. Yang & A. Y. Ng. (2012). Large scale distributed deep networks. in NIPS.
N. Jaitly, P. Nguyen, A. Senior & V. Vanhoucke. (2012). Application of pretrained deep neural networks to large vocabulary speech recognition. in Interspeech.
S. Amari. (1998). Natural gradient works efficiently in learning. Neural computation, 10(2), 251-276.
J. Duchi, E. Hazan & Y. Singer. (2011). Adaptive subgradient methods for online learning and stochastic optimization. The Journal of Machine Learning Research, 12, 2121-2159.
G. Hinton, L. Deng, D. Yu, G. E. Dahl, A. Mohamed, N. Jaitly, A. Senior, V. Vanhoucke, P. Nguyen & T. N. Sainath. (2016). Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups. Signal Processing Magazine, 29(6), 82-97.
A. Krizhevsky, I. Sutskever & G. E. Hinton. (2012). Imagenet classification with deep convolutional neural networks. In Advances in neural information processing systems, 1097-1105.
R. Pascanu & Y. Bengio. (2013). Revisiting natural gradient for deep networks. arXiv preprint arXiv:1301.3584.
I. Sutskever, J. Martens, G. Dahl & G. E. Hinton. (2013). On the importance of initialization and momentum in deep learning. In Proceedings of the 30th International Conference on Machine Learning(ICML-13), 1139-1147.
E. Moulines & F. R. Bach. (2015). ADAM: A method for stochastic optimization. The 3rd International Conference for Learning Representations, San Diego.
Y. Bengio, P. Simard & P. Frasconi. (1994). Learning long-term dependencies with gradient is difficult. IEEE Transaction on neural networks, 5(2), 157-166.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.