최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기전기의 세계 = The proceedings of KIEE, v.66 no.8, 2017년, pp.26 - 32
서정권 (가천대학교 의대 의공학교실) , 김영재 (가천대학교 의대 의공학교실) , 김광기 (가천대학교 의대 의공학교실)
초록이 없습니다.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
CNN 구조란 무엇인가? | CNN 구조는 Yann Lecun 교수에 의하여 처음 소개 되었는데, 그것은 인공시냅스(Synapse) 구조내의 여러 개의 은닉층 (hidden layer)들을 각각 그 이전의 입력치 layer들로부터 전해 받은 (분류대상이 되는 처음 image를 묘사하는) 입력 데이터에 관한 정보들에 대하여 순차적인 filter weight parameter 행렬(Filter or Kernel)들을 합성곱(convolution)하여 얻어진 값들을 적용하여 인공신경망 구조로 연결시킴으로써 인공지능 시스템을 학습시키는 방식이다.[3] | |
다층인공신경망(MLP) 구조는 어떤 구조로 되어있는가? | 다층인공신경망(MLP) 구조는 인공신경망(이하 ANN) 구조의 일반형이라고 볼 수 있는데, 이 구조는 마치 사람의 뇌의 정보 전달 구조를 모방한 것 같은 구조로 되어 있다. ANN에서 전제하고 있는 뇌의 정보 전달 구조는 뇌의 정보가 은닉층으로 묘사되는 여러 겹의 시냅스 신경정보전달 세포층으로 순차적으로 전달되며, 이 은닉층들은 각각의 층들이 신경 시냅스 세포들 간의 독립적인 신경전달 강도로 서로 연속적으로 연결되어 있다고 가정하는 구조이다. | |
ANN 구조의 학습(Learning or Training)의 학습방식 목표는 무엇인가? | ANN 구조의 학습(Learning or Training)은 각 신경망 층들을 연결하는 시냅스들 간의 연결강도(weight parameter)를 순차적으로 입력되는 학습용 데이터(training sample data)들과 목적 데이터(target label data)들을 활용하여 계산하고 최종 확정함으로써 이루어진다. 학습방식은 목적 데이터와 설정 된 인공신경망 구조를 통과하여 최종적으로 추정된 출력 근사값의 차이를 줄이는 것을 목표로 이루어진다, 이 때 설정되는 함수가 일종의 2차 함수(Quadratic function) 형태의 에너지 함수인데 여러 가지 가능한 반복학습 알고리즘(Iterative method)을 통하여 이 에너지 함수의 값이 줄어드는 방향으로 학습을 진행시킨다.[7] |
Lewis M. Clements, Kara M. Kockelman, Economic effects of automated vehicles, Presented at the 96th Annual Meeting of the Transportation Research Board and forthcoming in Transportation Research Record, (2017).
M. W. Gardner and S. R. Dorling, Artificial neural networks(the multilayer perceptron)-A review of applications in the atmospheric sciences, Atmospheric Environment, Vol. 32, No. 14/15, pp. 2627-2636, (1998).
LeCun, Y., Boser, B., Denker, J. S., Henderson, D., Howard, R. E., Hubbard, W., and Jackel, L. D., Back-Propagation Applied to Handwritten Zipcode Recognition, Neural Computation, 1(4), (1990)
LeCun, Y., Bottou L., Bengio Y. and Haffner P., Gradient-Based Learning Applied to Document Recognition, Proceedings of the IEEE, 86(11): 2278- 2324, November 1998.
Dharmesh Singh and Mandeep Singh, Classification of Mammograms using Support Vector Machine, International Journal of Signal Processing, Image Processing and Pattern Recognition, Vol. 9, No.5, pp.259-268, (2016)
Rosenblatt, F., The Perceptron: A Probabilistic Model For Information Storage And Organization In The Brain, Psychological Review, 65 (6): 386-408, (1958)
Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J.. "Learning representations by backpropagating errors". Nature. 323 (6088): 533-536, 8 October, (1986).
Shen, L., R.M. Rangayyan and J.E.L. Desautels, Application of shape analysis to mammographic calcification, IEEE Trans. Med. Imag., 13: 263-274, (1994).
David Silver, Aja Huang, Chris J. Maddison, Arthur Guez, Laurent Sifre, George van den Driessche, Julian Schrittwieser, Ioannis Antonoglou, Veda Panneershelvam, Marc Lanctot, Sander Dieleman, Dominik Grewe, John Nham, Nal Kalchbrenner, Ilya Sutskever, Timothy Lillicrap, Madeleine Leach, Koray Kavukcuoglu, Thore Graepel & Demis Hassabis, Mastering the game of Go with deep neural networks and tree search, Nature 529, 484-489, 28 January, (2016).
Williams, Michael R., A History of Computing Technology. Los Alamitos, CA: IEEE Computer Society Press, (1997).
Yu, S. and L. Guan, A CAD system for the automatic detection of clustered microcal-cifications in digitized mammogram films, IEEE Trans. Med. Imaging, 19: 115-126, (2000).
Zheng, B., W.F. Good, D.R. Armfield, C. Cohen, T. Hertzberg, J.H. Sumkin and D. Gur, Performance change of mammographic CAD schemes optimized with most-recent and prior image databases, Acad. Radiol., 10: 283-288, (2003).
Form 10-K, For the Fiscal Year Ended September 26, Apple Inc., (2015).
※ AI-Helper는 부적절한 답변을 할 수 있습니다.