$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

기계학습 및 딥러닝 기술동향 원문보기

정보와 통신 : 한국통신학회지 = Information & communications magazine, v.33 no.10, 2016년, pp.49 - 56  

문성은 (연세대학교) ,  장수범 (연세대학교) ,  이정혁 (연세대학교) ,  이종석 (연세대학교)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 패턴 인식 및 회귀 문제를 풀기 위해 쓰이는 기계학습에 대한 전반적인 이론과 설계방법에 대해 알아본다. 대표적인 기계학습 방법인 신경회로망과 기저벡터머신 등에 대해 소개하고 이러한 기계학습 모델을 선택하고 구축하는 데에 있어 고려해야 하는 문제점들에 대해 이야기 한다. 그리고 특징 추출 과정이 기계학습 모델의 성능에 어떻게 영향을 미치는지, 일반적으로 특징 추출을 위해 어떤 방법들이 사용되는 지에 대해 알아본다. 또한, 최근 새로운 패러다임으로 대두되고 있는 딥러닝에 대해 소개한다. 자가인코더, 제한볼츠만기계, 컨볼루션신경회로망, 회귀신경회로망과 같이 딥러닝 기술이 적용된 대표적인 신경망 구조에 대해 설명하고 기존의 기계학습 모델과 비교하여 딥러닝이 가지고 있는 특장점을 알아본다.

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 기계학습에 대한 전반적인 내용을 설명하고 특히 최근 많은 주목을 받고 있는 딥러닝에 대해 소개했다. 기존의 기계학습은 여러 가지 모형들인 신경회로망, 기저벡터머신, PCA 등의 여러 가지 기법들이 다양하게 연구되고 이용되었다.
  • 특히, 예전에는 기계학습이 많이 사용되지 않았던 자연과학 분야 등에서도 기계학습을 도입하려는 움직임이 나타나면서 기계학습은 인공지능이나 패턴 인식 등에 쓰이는 것을 넘어서 매우 범용적인 기술이 되었다. 본 논문에서는 기존의 기계학습 모델들과 그 한계, 그리고 딥러닝의 개념과 그 가능성에 대해 간략하게 다루며 최근 기계학습이 이루어낸 발전에 대해 살펴본다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
확률 밀도 분포를 추정함으로써 기계학습을 수행하는 방법에는 무엇이 있는가? 결정경계를 찾는 신경회로망이나 기저벡터머신과 달리, 각 클래스의 확률 밀도 분포를 추정함으로써 기계학습을 수행하는 방법들도 있다. 대표적인 예로는 Parzen's window, Gaussian mixture model, hidden Markov model 등이 있다<그림 5>.
기계학습 문제는 어떻게 나눌 수 있는가? 기계학습을 통해 풀 수 있는 문제는 크게 주어진 데이터의 클래스를 구분해야 하는 패턴인식(pattern classification) 문제와 연속적인 어떤 값을 추정해야 하는 회귀(regression) 또는 함수 근사화(function approximation) 문제로 나눌 수 있다. 또한 학습 방법에 따라서는 패턴인식이나 회귀 문제에서 학습데이터의 클래스나 출력 값을 알고 이에 대한 피드백을 통해 학습하는 지도학습(supervised learning), 학습 데이터의 클래스나 출력 값을 이용하지 않고 데이터 패턴이나 클러스터, 밀도 등을 추정하는 비지도학습(unsupervised learning), 클래스나 출력 값을 아는 데이터(labeled data)와 모르는 데이터(unlabeled data)를 함께 사용하는 반지도학습(semi-supervised learning), 결과에 대한 피드백만 주어지고 정확한 클래스나 출력 값은 주어지지 않는 강화학습(reinforcement learning)으로 나눌 수 있다.
CNN의 핵심 요소에는 무엇이 있는가? CNN은 사람의 시각뉴런의 수용장(receptive field) 개념을 이용하여서 만들어진 신경망[18]이다<그림 9>. CNN은 컨볼루션 신경층(convolution layer), 풀링 신경층(pooling layer)과 정류선형유닛(rectified linear unit; ReLU)을 핵심 요소로 가진다. 컨볼루션 신경층은 입력과 출력을 어떤 신호의 형태로 보고 가중치를 작은 크기의 필터의 형태로 나타낸 가중치 커널이 특징이다.
질의응답 정보가 도움이 되었나요?

참고문헌 (35)

  1. McCulloch, W. A., and Pitts, W. "A logical calculus of the ideas immanent in nervous activity," Bulletin of Mathematical Biophysics, vol. 5, no. 4, pp. 115-133, 1943. 

  2. Rosenblatt, F. "The perceptron: a probabilistic model for information storage and organization in the brain," Psychological Review, vol. 65, no. 6, pp. 386-408, 1958. 

  3. Minsky, M., and Papert, S., Perceptrons, MIT Press, 1968. 

  4. Leshno, M., Ya, V., Pinkus, A., and Schocken, S. "Multilayer feedforward networks with a nonpolynomial activation function can approximate any function," Neural Networks, vol. 6, no. 6, pp. 861-867, 1993. 

  5. Charalambous, C. "Conjugate gradient algorithm for efficient training of artificial neural networks," in IEE Proceedings of Part G (Circuits, Devices and Systems), vol. 139, no. 3, pp. 301-310, 1992. 

  6. Dennis, Jr, J. E., and More, J. J. "Quasi-Newton methods, motivation and theory," SIAM Review, vol. 19, no. 1, pp. 46-89, 1977. 

  7. More, J. J. "The Levenberg-Marquardt algorithm: implementation and theory," Numerical Analysis, Springer, 1978, pp. 105-116. 

  8. Cortes, C., and Vapnik, V. "Support-vector networks," Machine Learning, vol. 20, no. 3, pp. 273-297, 1995. 

  9. Blumer, A., Ehrenfeucht, A., Haussler, D., and Warmuth, M. K. "Occam's razor," Readings in Machine Learning, 1990, pp. 201-204. 

  10. Domingos, P. "A few useful things to know about machine learning," Communications of the ACM, vol. 55, no. 10, pp. 78-87, 2012. 

  11. Hughes, G. "On the mean accuracy of statistical pattern recognizers," IEEE Transactions on Information Theory, vol. 14, no. 1, pp. 55-63, 1968. 

  12. Jolliffe, I., Principal Component Analysis, John Wiley & Sons, 2002. 

  13. Scholkopft, B., and Mullert, K. R. "Fisher discriminant analysis with kernels," Neural Networks for Signal Processing IX, vol. 1, no. 1, pp. 41-48, 1999. 

  14. Imai, S. "Cepstral analysis synthesis on the mel frequency scale," in Proceedings of IEEE International Conference on Acoustics, Speech, and Signal Processing, vol. 8, 1983, pp. 93-96. 

  15. Dalal, N., and Triggs, B. "Histograms of oriented gradients for human detection," in Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, vol. 1, 2005, pp. 886-893. 

  16. Vincent, P., Larochelle, H., Lajoie, I., Bengio Y., and Manzagol. P. A. "Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion," Journal of Machine Learning Research, vol. 11, pp. 3371-3408, 2010. 

  17. Hinton, G. E., Osindero, S., and Teh, Y. W. "A fast learning algorithm for deep belief nets," Neural computation, vol. 18, no. 7, pp. 1527-1554, 2006. 

  18. Lecun, Y., Bottou, L., Bengio, Y., and Haffner, P. "Gradient-based learning applied to document recognition," Proceedings of the IEEE, vol. 86, no. 11, pp. 2278-2324, 1998. 

  19. Mikolov, T., Kombrink, S., Burget, L., Cernocky, J., and Khudanpur, S. "Extensions of recurrent neural network language model," in Proceedings of 2011 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2011, pp. 5528-5531. 

  20. Dong, C., Loy, C., He, K., and Tang, X. "Image super-resolution using deep convolutional networks," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 38, no. 2, pp. 295-307, 2016. 

  21. Long, J., Shelhamer, E., and Darrell, T. "Fully convolutional networks for semantic segmentation," in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015, pp. 3431-3440. 

  22. Krizhevsky, A., Sutskever, I., and Hinton, G. E. "Imagenet classification with deep convolutional neural networks," In Advances in Neural Information Processing Systems, 2012, pp. 1097-1105. 

  23. Lin, M., Chen, Q., and Yan, S. "Network in network," arXiv preprint, arXiv: 1312.4400, 2013. 

  24. Simonyan, K., and Zisserman, A. "Very deep convolutional networks for large-scale image recognition," arXiv preprint, arXiv: 1409.1556, 2014. 

  25. Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., and Rebinovich, A. "Going deeper with convolutions," in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015. pp. 1-9. 

  26. He, K., Zhang, X., Ren, S., and Sun, J. "Deep residual learning for image recognition," arXiv preprint, arXiv: 1512.03385, 2015. 

  27. Gers, F. A., Schmidhuber, J., and Cummins, F. "Learning to forget: Continual prediction with LSTM," Neural Computation, vol. 12, no. 10, pp. 2451-2471, 2000. 

  28. Chung, J., Gulcehre, C., Cho, K., and Bengio, Y. "Gated feedback recurrent neural networks," in Proceedings of the 32nd International Conference on Machine Learning, 2015, pp. 2067-2075. 

  29. Graves, A., Jaitly, N., and Mohamed, A. R. "Hybrid speech recognition with deep bidirectional LSTM," in Automatic Speech Recognition and Understanding, 2013, pp. 273-278. 

  30. Kumar, A., Irsoy, O., Ondruska, P., Iyyer, M., Bradbury, J., Gulrajani, I., Zhong, V., Paulus, R., and Socher, R. "Ask me anything: Dynamic memory networks for natural language processing," arXiv preprint, arXiv: 1506.07285. 

  31. Pan, S. J., and Yang, Q. "A survey on transfer learning," IEEE Transactions on Knowledge and Data Engineering, vol. 22, no. 10, pp. 1345-1359, 2010. 

  32. Alemi, A.(2016, Aug 31). "Improving inception and image classification in Tensor Flow," Google Research Blog (https://research.googleblog.com/2016/08/improving-inception-and-image.html) 

  33. Silver, D. et al. "Mastering the game of Go with deep neural network and tree search," Nature, vol. 529, no. 7287, pp. 484-489. 

  34. Oord, A. et al. "Wavenet: A generative model for raw audio," arXiv preprint, arXiv: 1609.03499. 

  35. Vinyals, O., Toshev, A., Bengio, S., and Erhan, D. "Show and tell: A neural image caption generator," In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015, pp. 3156-3164. 

저자의 다른 논문 :

관련 콘텐츠

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로