최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국융합학회논문지 = Journal of the Korea Convergence Society, v.10 no.2, 2019년, pp.1 - 6
The proposed model is developed to minimize the loss of information in incomplete data including missing data. The first step is to transform the learning data to compensate for the loss information using the data extension technique. In this conversion process, the attribute values of the data are ...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
일반적인 딥러닝의 학습 모델은 어떻게 구성되어 있는가? | 일반적인 딥러닝의 학습 모델은 Fig. 1과 같이 입력층, 여러 개의 은닉층, 출력층으로 구성된다. 그리고 알고리즘에서는 입력층에 입력된 학습 패턴에서 특성 값들을 추출하고, 이 특성 값들에 따라 가중치 값들을 반복적으로 조절해 나가는 과정이 반영된다. | |
데이터 확장 기법이란? | 여기서 Table 3의 (a)는 V3가 손상되었고, (b)는 부류가 손상되었다. 이와 같은 불완전 데이터가 포함된 학습 데이터를 처리하여 정보의 손실을 최소화 하려는 방법을 데이터 확장 기법이라고 한다. Table 4를 이용해 이 과정을 설명한다. | |
딥러닝 학습 과정의 전향과 후향 단계는 어떻게 구분되는가? | 딥러닝 학습 과정[12-14]은 크게 전향과 후향 단계로 구분된다. 전향 단계는 (1)식과 같이 하위 층의 출력 값과 하위층과 현재층과의 가중치 곱의 합으로 현 층의 노드 입력 값을 결정하고, 이 값을 시그모이드, ReLu, tanh, softplus 등의 활성화 함수로 입력하여 출력값을 산출해 간다. 또한 후향 단계는 기대 출력값과 실제 출력값 간의 오차를 구한 후, 이 차이만큼 층과 층 사이의 가중치를 수정한다. 이들 과정은 정해진 학습 횟수 또는 (3)식과 같이 오차의 합이 정해진 수치만큼 수렴될 때까지 계속 반복 실행한다. |
D. E.Rumelhart, G. E.Hinton, & R. J.Williams. (1986). Learning Internal Representations by Error Propagation, PDP, I, 318-362
Y. L. Cun, Y. Bengio, & G. Hinton. (2015) Deep learning, Nature, 521(7553), 436-444. DOI : 10.1038/nature14539
L. Deng, & D. Yu. (2014). Deep learning: methods and applications, Foundations and Trends in Signal Processing, 197-387.
J. Schmidhuber. (2015). Deep learning in neural networks : An overview, Elsevier.
D. Lee, W. Yu, & H. Lim. (2017). Bi-directional LSTM-CNN-CRF for Korean Named Entity Recognition System with Feature Augmentation, Journal of the Korea Convergence Society, 8(12), 55-62.
J. Lee. (2018). A Method of Eye and Lip Region Detection using Faster R-CNN in Face Image, Journal of the Korea Convergence Society, 9(8), 1-8.
D. Kim,D. Lee, & W. D. Lee. (2006). Classifier using Extended Data Expression, IEEE Mountain Workshop on Adaptive and Learning Systems., 154-159, DOI: 10.1109/SMCALS.2006.250708
D. Kim, D. Seo, Y. Li, & W. D. Lee. (2008). A classifier capable of rule refinement, International Conference on Service Operations and Logistics, and Informatics, 168-173
J. M. Kong, D. H. Seo, & W. D. Lee. (2007) Rule refinement with extended data expression, Sixth International Conference on Machine Learning and Applications, 310-315
J. Wu, Y. S. Kim, C. H. Song, & W.D.Lee. (2008) A new classifier to deal with incomplete data, International Conference on Software Engineering, Artificial Intelligence, Networking, 105-110
J. W. Grzymala-Busse. (2003). Rough set strategies to data with missing attribute values, Workshop on Foundations & New Directions in Data Mining, 19-22
M. Yang & S. Yoon. (2018). Production of agricultural weather information by Deep Learning, Journal of Digital Convergence, 16(12), 293-299
B. Ahn. (2018).Study for Drowsy Driving Detection & Prevention System, Journal of Convergence for Information Technology, 8(3), 193-198
E. Keogh, C. Blake, C. J. Merz. UCI Repository of Machine Learning Databases, http://www.ics.uci.edu/-mlearn/MLRepository.html
J. C. Lee, D. H. Seo, C. H. Song, & W. D. Lee.(2007). FLDF based Decision Tree using Extended Data Expression, Conference on Machine Learning & Cybernetics,HongKong, 3478-3483
해당 논문의 주제분야에서 활용도가 높은 상위 5개 콘텐츠를 보여줍니다.
더보기 버튼을 클릭하시면 더 많은 관련자료를 살펴볼 수 있습니다.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.