최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국산업정보학회논문지 = Journal of the Korea Industrial Information Systems Research, v.22 no.5, 2017년, pp.17 - 24
Recently Deep-learning, Technologies using Large or Deep Artificial Neural Networks, have Shown Remarkable Performance, and the Increasing Size of the Network Contributes to its Performance Improvement. However, the Increase in the Size of the Neural Network Leads to an Increase in the Calculation A...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
신경망 크기의 증가의 장단점은 무엇인가? | 신경망 크기의 증가는 성능의 증가로 반영되는 장점이 있지만, 반면 시스템 구현측면에서는 큰 어려움과 문제점이 된다[4-6]. 학습과 적용시의 계산양이 증가하여, 이를 지원하기위한 하드웨어의 규모가 점차 켜져야 한다. | |
모든 해지율을 계산하게 되면 재훈련과정에서 시스템 설계에 겪게 될 어려움을 해결하기 위해 어떤 방식을 사용하는가? | 재훈련과정은 계산양이 많이 필요하기 때문에, 모든 해지율을 계산하는 것은 시스템 설계에 큰 어려움이 된다. 따라서 측정 비율에 해당하는 재학습만을 수행한 후, 중간 값에 대해서는 내삽으로 예측하는 방식을 사용한다. 이에 단순한 선형보간방식을 사용할 수도 있으나, 앞선 그래프를 보면 특정 임계치를 기점으로 오차율이 급속히 증가한다는 것을 볼 수 있다. | |
신경망 크기의 증가는 어떤 문제를 야기하는가? | 최근 딥러닝, 즉 거대 또는 깊은 인공신경망을 사용한 기술이 놀라운 성능을 보이고 있고, 점차로 그 네트워크의 규모가 커지고 있다. 하지만, 신경망 크기의 증가는 계산양의 증가로 이어져서 회로의 복잡성, 가격, 발열, 실시간성 제약 등의 문제를 야기한다. 또한, 신경망 연결에는 많은 중복성이 존재한다, 본 연구에서는 이 중복성을 효과적으로 제거하여 이용하여 원 신경망의 성능과 원하는 범위안의 차이를 보이면서, 네트워크 연결의 수를 줄이는 방법을 제안하고 실험하였다. |
LeCuns, Y., Bengio, Y., and Hinton, G., "Deep learning," Nature, Vol. 521, No. 7553, pp. 436-444, 2015.
Lee, K., H, lee, S.-Y., and Chung, N., Koo, C., "The Effects of IT Usage of Exhibition Onsite and Overall Effectiveness Toward Attendee's Satisfaction", The Journal of Internet Electronic Commerce Research, Vol. 16, No. 6, pp. 77-94, 2016.
Hong, T. H. and Kim, J. W., "Intelligent Intrusion Detection Systems Using the Asymmetric costs of Errors in Data Mining," The Journal of Information Systems, Vol. 15, No. 4, pp. 211-224, 2016
LeCun, Y., Bottou, L., Bengio, Y., and Haffner, P., "Gradient-based Learning Applied to Document Recognition," Proceedings of the IEEE, Vol. 86, No. 11, pp.2278-2324, 1998.
Han, S., Pool, J., Tran, J., and Dally, W., "Learning both Weights and Connections for Efficient Neural Network." In Advances in Neural Information Processing Systems, pp. 1135-1143, 2015.
Naumov, M., Chien, L. S., Vandermersch, P., and Kapasi, U. "Cusparse Library," In GPU Technology Conference, Spetmber, 2010.
Chen, T., Du, Z., Sun, N., Wang, J., Wu, C., Chen, Y., and Temam, O. "Diannao: A Small-Footprint High-throughput Accelerator for Ubiquitous Machine-learning. In ACM Sigplan Notices, Vol. 49, No. 4, pp. 269-284. 2014.
Zhang, S., Du, Z., Zhang, L., Lan, H., Liu, S., Li, L., and Chen, Y., "Cambricon-X: An Accelerator for Sparse Neural Networks," 49th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO), pp. 1-12, 2016.
해당 논문의 주제분야에서 활용도가 높은 상위 5개 콘텐츠를 보여줍니다.
더보기 버튼을 클릭하시면 더 많은 관련자료를 살펴볼 수 있습니다.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.