최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기정보처리학회지 = Korea information processing society review, v.22 no.1, 2015년, pp.7 - 21
최희열 (삼성전자 종합기술원) , 민윤홍 (삼성전자 종합기술원)
초록이 없습니다.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
딥러닝이란 무엇인가? | 기본적으로 딥러닝은 기존 신경망(neural networks) 에 계층수를 증가시킨 심층신경망(deep neural networks) 혹은 심층망(deep networks)을 효과적으로 학습하여 패턴인식이나 추론에 활용 하는 것을 말한다. 이런 심층망의 장점은 기존의 신경망에 비해 더 많은 중간 계층을 사용함으로 써 데이터에 대한 표현 능력을 크게 증가시킬 수 있다는 것이다. | |
심층망의 장점은 무엇인가? | 기본적으로 딥러닝은 기존 신경망(neural networks) 에 계층수를 증가시킨 심층신경망(deep neural networks) 혹은 심층망(deep networks)을 효과적으로 학습하여 패턴인식이나 추론에 활용 하는 것을 말한다. 이런 심층망의 장점은 기존의 신경망에 비해 더 많은 중간 계층을 사용함으로 써 데이터에 대한 표현 능력을 크게 증가시킬 수 있다는 것이다. 이러한 심층망의 아이디어는 이전부터 존재했지만, 2006년 Hinton 교수의 논문 이전에는 심층망을 위한 효과적인 학습방법의 부재로 크게 주목받지 못했다. | |
패턴인식을 위한 모델을 학습할때는 보통 두 가지 목표가 있는데 각각 무엇인가? | 심층망과 같은 패턴인식을 위한 모델을 학습할때는 보통 두 가지 목표를 동시에 달성하기를 원한다. 하나는 비용함수를 최소화하는 모델을 찾는 것이고, 다른 하나는 찾은 모델이 학습에 사용 되지 않은 데이터에 대해서도 인식을 잘하기를 원하는 것, 즉 과적합(overfitting)을 피하는 것이다. 과적합 문제는 근본적으로 학습 데이터에 대해 비용함수를 최소화하기 때문에 발생한다. |
G. Hinton, R. Salakhutdinov, "Reducing the dimensionality of data with neural networks," Science , Vol. 313, No. 5786, pp. 504-507, Jul. 2006.
A. Krizhevsky, I. Sutskever, G. Hinton, "ImageNet classification with deep convolutional neural networks," Advances in Neural Information Processing (NIPS), Lake Taho, NV, 2012.
J. Markoff, "How Many Computers to Identify a Cat? 16,000," New York Times. June 25, 2012.
J. Markoff, "Scientists See Promise in Deep-Learning Programs," New York Times. November 24, 2012.
G. Marcus, "Is 'Deep Learning' a Revolution in Artificial Intelligence?" The New Yorker, November 25, 2012.
G. Hinton, S. Osindero, Y. Teh, "A fast learning algorithm for deep belief nets," Neural Computation Vol.18, pp. 1527-1554, 2006.
M. Minsky, S. Papert, Perceptrons, Cambridge, MA: MIT Press, 1969.
D. E. Rumelhart, G. E. Hinton, R. J. Williams, "Learning internal representations by error propagation" in Parallel Distributed Processing, MIT Press, 1986, pp. 318-362.
K. Fukushima, "Neocognitron: A self-organizing neural network for a mechanism of pattern recognition unaffected by shift in position," Biological Cybernetics, Vol. 36, No. 4, pp.193-202, 1980.
A. Graves, J. Schmidhuber, "Framewise phoneme classification with bidirectional LSTM and other neural network architectures," Neural Networks, Vol. 18, No. 5-6, pp.602-610, 2005.
P. Baldi, P. J. Sadowski, "Understanding dropout," Advances in Neural Information Processing Systems (NIPS), 2013, pp.2814-2822.
C. M. Bishop, Neural Networks for Pattern Recognition, Oxford: Oxford University Press, 1995.
M. Riesenhuber, T. Poggio, "Hierarchical models of object recognition in cortex," Nature Neuroscience, Vol. 2, No. 11, pp.1019-1025, 1999.
R. Kurzweil, How to Create a Mind: The Secret of Human Thought Revealed. Penguin Books, 2012.
S. J. Thorpe, M. Fabre-Thorpe, "Seeking Categories in the Brain," Science . Vol. 291, No. 5502, pp.260-262, Jan. 2001.
A. Graves, A. Mohamed, G. Hinton. "Speech Recognition with Deep Recurrent Neural Networks," International Conf. on Acoustics, Speech, and Signal Processing (ICASSP), 2013, Vancouver, Canada.
Y. Bengio, A. Courville, P. Vincent, "Representation learning: A review and new perspectives," Pattern Analysis and Machine Intelligence, IEEE Transactions on , Vol. 35, No. 8, pp.1798-1828, 2013.
P. Smolensky, "Information Processing in Dynamical Systems: Foundations of Harmony Theory," in Parallel distributed processing: Explorations in the microstructure of cognition , Vol. 1 , MIT Press, Cambridge, MA, 1986, pp. 194-281.
D. C. Ciresan, U. Meier, J. Masci, J. Schmidhuber, "A committee of neural networks for traffic sign classification," In Proc. of International Joint Conference on Neural Networks (IJCNN), 2011, pp.1918-1921.
Y. Bengio, P. Simard, P. Frasconi, "Learning long-term dependencies with gradient descent is difficult," IEEE Transactions on Neural Networks, Vol. 5, No. 2, pp.157-166, 1994.
Y. Jia, "Caffe: An Open Source Convolutional Architecture for Fast Feature Embedding," 2013, http://caffe.berkeleyvision.org/.
T. Mikolov, W.-T. Yih, G. Zweig, "Linguistic Regularities in Continuous Space Word Representations," In Proc. of NAACL HLT, 2013.
R. Socher, M. Ganjoo, H. Sridhar, O. Bastani, C. D. Manning, A. Y. Ng, "Zero-shot learning through cross-modal transfer," In Proc. of International Conference on Learning Representations (ICLR), Scottsdale, AZ, 2013.
Y. Bengio, E. Thibodeau-Laufer, G. Alain, J. Yosinski, "Deep Generative Stochastic Networks Trainable by Backprop," In Proc. of International Conference on Machine Learning (ICML), 2014.
A. Graves. "Generating Sequences With Recurrent Neural Networks," 2014.
D. Marr, "Vision: A Computational Investigation into Human Representation and Processing of Visual Information," Freeman, San Francisco, 1982.
R. A. Brooks, "Elephants Don't Play Chess," Robotics and Autonomous Systems, Vol. 6, pp.3-15, 1990.
J. Schmidhuber, "Deep Learning in Neural Networks: An Overview," Technical Report IDSIA-03-14, 2014.
C. Farabet, B. Martini, B. Corda, P. Akselrod, E. Culurciello, Y. LeCun, "NeuFlow: A Runtime Reconfigurable Dataflow Processor for Vision", in Proc. of the Fifth IEEE Workshop on Embedded Computer Vision (ECV), Colorado Springs, 2011.
http://spectrum.ieee.org/robotics/artificial-intelligence/machinelearning-maestro-michael-jordan-on-the-delusions-of-big-data-and-other-huge-engineering-efforts
L. Deng, "Three classes of deep learning architectures and their applications: a tutorial survey," APSIPA Transactions on Signal and Information Processing, 2012.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.