최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기정보와 통신 : 한국통신학회지 = Information & communications magazine, v.33 no.10, 2016년, pp.49 - 56
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
확률 밀도 분포를 추정함으로써 기계학습을 수행하는 방법에는 무엇이 있는가? | 결정경계를 찾는 신경회로망이나 기저벡터머신과 달리, 각 클래스의 확률 밀도 분포를 추정함으로써 기계학습을 수행하는 방법들도 있다. 대표적인 예로는 Parzen's window, Gaussian mixture model, hidden Markov model 등이 있다<그림 5>. | |
기계학습 문제는 어떻게 나눌 수 있는가? | 기계학습을 통해 풀 수 있는 문제는 크게 주어진 데이터의 클래스를 구분해야 하는 패턴인식(pattern classification) 문제와 연속적인 어떤 값을 추정해야 하는 회귀(regression) 또는 함수 근사화(function approximation) 문제로 나눌 수 있다. 또한 학습 방법에 따라서는 패턴인식이나 회귀 문제에서 학습데이터의 클래스나 출력 값을 알고 이에 대한 피드백을 통해 학습하는 지도학습(supervised learning), 학습 데이터의 클래스나 출력 값을 이용하지 않고 데이터 패턴이나 클러스터, 밀도 등을 추정하는 비지도학습(unsupervised learning), 클래스나 출력 값을 아는 데이터(labeled data)와 모르는 데이터(unlabeled data)를 함께 사용하는 반지도학습(semi-supervised learning), 결과에 대한 피드백만 주어지고 정확한 클래스나 출력 값은 주어지지 않는 강화학습(reinforcement learning)으로 나눌 수 있다. | |
CNN의 핵심 요소에는 무엇이 있는가? | CNN은 사람의 시각뉴런의 수용장(receptive field) 개념을 이용하여서 만들어진 신경망[18]이다<그림 9>. CNN은 컨볼루션 신경층(convolution layer), 풀링 신경층(pooling layer)과 정류선형유닛(rectified linear unit; ReLU)을 핵심 요소로 가진다. 컨볼루션 신경층은 입력과 출력을 어떤 신호의 형태로 보고 가중치를 작은 크기의 필터의 형태로 나타낸 가중치 커널이 특징이다. |
McCulloch, W. A., and Pitts, W. "A logical calculus of the ideas immanent in nervous activity," Bulletin of Mathematical Biophysics, vol. 5, no. 4, pp. 115-133, 1943.
Rosenblatt, F. "The perceptron: a probabilistic model for information storage and organization in the brain," Psychological Review, vol. 65, no. 6, pp. 386-408, 1958.
Minsky, M., and Papert, S., Perceptrons, MIT Press, 1968.
Leshno, M., Ya, V., Pinkus, A., and Schocken, S. "Multilayer feedforward networks with a nonpolynomial activation function can approximate any function," Neural Networks, vol. 6, no. 6, pp. 861-867, 1993.
Charalambous, C. "Conjugate gradient algorithm for efficient training of artificial neural networks," in IEE Proceedings of Part G (Circuits, Devices and Systems), vol. 139, no. 3, pp. 301-310, 1992.
Dennis, Jr, J. E., and More, J. J. "Quasi-Newton methods, motivation and theory," SIAM Review, vol. 19, no. 1, pp. 46-89, 1977.
More, J. J. "The Levenberg-Marquardt algorithm: implementation and theory," Numerical Analysis, Springer, 1978, pp. 105-116.
Cortes, C., and Vapnik, V. "Support-vector networks," Machine Learning, vol. 20, no. 3, pp. 273-297, 1995.
Blumer, A., Ehrenfeucht, A., Haussler, D., and Warmuth, M. K. "Occam's razor," Readings in Machine Learning, 1990, pp. 201-204.
Domingos, P. "A few useful things to know about machine learning," Communications of the ACM, vol. 55, no. 10, pp. 78-87, 2012.
Hughes, G. "On the mean accuracy of statistical pattern recognizers," IEEE Transactions on Information Theory, vol. 14, no. 1, pp. 55-63, 1968.
Jolliffe, I., Principal Component Analysis, John Wiley & Sons, 2002.
Scholkopft, B., and Mullert, K. R. "Fisher discriminant analysis with kernels," Neural Networks for Signal Processing IX, vol. 1, no. 1, pp. 41-48, 1999.
Imai, S. "Cepstral analysis synthesis on the mel frequency scale," in Proceedings of IEEE International Conference on Acoustics, Speech, and Signal Processing, vol. 8, 1983, pp. 93-96.
Dalal, N., and Triggs, B. "Histograms of oriented gradients for human detection," in Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, vol. 1, 2005, pp. 886-893.
Vincent, P., Larochelle, H., Lajoie, I., Bengio Y., and Manzagol. P. A. "Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion," Journal of Machine Learning Research, vol. 11, pp. 3371-3408, 2010.
Hinton, G. E., Osindero, S., and Teh, Y. W. "A fast learning algorithm for deep belief nets," Neural computation, vol. 18, no. 7, pp. 1527-1554, 2006.
Lecun, Y., Bottou, L., Bengio, Y., and Haffner, P. "Gradient-based learning applied to document recognition," Proceedings of the IEEE, vol. 86, no. 11, pp. 2278-2324, 1998.
Mikolov, T., Kombrink, S., Burget, L., Cernocky, J., and Khudanpur, S. "Extensions of recurrent neural network language model," in Proceedings of 2011 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2011, pp. 5528-5531.
Dong, C., Loy, C., He, K., and Tang, X. "Image super-resolution using deep convolutional networks," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 38, no. 2, pp. 295-307, 2016.
Long, J., Shelhamer, E., and Darrell, T. "Fully convolutional networks for semantic segmentation," in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015, pp. 3431-3440.
Krizhevsky, A., Sutskever, I., and Hinton, G. E. "Imagenet classification with deep convolutional neural networks," In Advances in Neural Information Processing Systems, 2012, pp. 1097-1105.
Lin, M., Chen, Q., and Yan, S. "Network in network," arXiv preprint, arXiv: 1312.4400, 2013.
Simonyan, K., and Zisserman, A. "Very deep convolutional networks for large-scale image recognition," arXiv preprint, arXiv: 1409.1556, 2014.
Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., and Rebinovich, A. "Going deeper with convolutions," in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015. pp. 1-9.
He, K., Zhang, X., Ren, S., and Sun, J. "Deep residual learning for image recognition," arXiv preprint, arXiv: 1512.03385, 2015.
Gers, F. A., Schmidhuber, J., and Cummins, F. "Learning to forget: Continual prediction with LSTM," Neural Computation, vol. 12, no. 10, pp. 2451-2471, 2000.
Chung, J., Gulcehre, C., Cho, K., and Bengio, Y. "Gated feedback recurrent neural networks," in Proceedings of the 32nd International Conference on Machine Learning, 2015, pp. 2067-2075.
Graves, A., Jaitly, N., and Mohamed, A. R. "Hybrid speech recognition with deep bidirectional LSTM," in Automatic Speech Recognition and Understanding, 2013, pp. 273-278.
Kumar, A., Irsoy, O., Ondruska, P., Iyyer, M., Bradbury, J., Gulrajani, I., Zhong, V., Paulus, R., and Socher, R. "Ask me anything: Dynamic memory networks for natural language processing," arXiv preprint, arXiv: 1506.07285.
Pan, S. J., and Yang, Q. "A survey on transfer learning," IEEE Transactions on Knowledge and Data Engineering, vol. 22, no. 10, pp. 1345-1359, 2010.
Alemi, A.(2016, Aug 31). "Improving inception and image classification in Tensor Flow," Google Research Blog (https://research.googleblog.com/2016/08/improving-inception-and-image.html)
Silver, D. et al. "Mastering the game of Go with deep neural network and tree search," Nature, vol. 529, no. 7287, pp. 484-489.
Oord, A. et al. "Wavenet: A generative model for raw audio," arXiv preprint, arXiv: 1609.03499.
Vinyals, O., Toshev, A., Bengio, S., and Erhan, D. "Show and tell: A neural image caption generator," In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015, pp. 3156-3164.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.