$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 인공신경망의 연결압축에 대한 연구
A Study on Compression of Connections in Deep Artificial Neural Networks 원문보기

한국산업정보학회논문지 = Journal of the Korea Industrial Information Systems Research, v.22 no.5, 2017년, pp.17 - 24  

안희준 (서울과학기술대학교 전기정보공학과)

초록
AI-Helper 아이콘AI-Helper

최근 딥러닝, 즉 거대 또는 깊은 인공신경망을 사용한 기술이 놀라운 성능을 보이고 있고, 점차로 그 네트워크의 규모가 커지고 있다. 하지만, 신경망 크기의 증가는 계산양의 증가로 이어져서 회로의 복잡성, 가격, 발열, 실시간성 제약 등의 문제를 야기한다. 또한, 신경망 연결에는 많은 중복성이 존재한다, 본 연구에서는 이 중복성을 효과적으로 제거하여 이용하여 원 신경망의 성능과 원하는 범위안의 차이를 보이면서, 네트워크 연결의 수를 줄이는 방법을 제안하고 실험하였다. 특히, 재학습에 의하여 성능을 향상시키고, 각 계층별 차이를 고려하기 위하여 계층별 오류율을 할당하여 원하는 성능을 보장할 수 있는 간단한 방법을 제안하였다. 대표적인 영상인식 신경망구조인 FCN (전연결) 구조와 CNN (컨벌루션 신경망) 구조에서 대하여 실험한 결과 약 1/10 정도의 연결만으로도 원 신경망과 유사한 성능을 보일 수 있음을 확인하였다.

Abstract AI-Helper 아이콘AI-Helper

Recently Deep-learning, Technologies using Large or Deep Artificial Neural Networks, have Shown Remarkable Performance, and the Increasing Size of the Network Contributes to its Performance Improvement. However, the Increase in the Size of the Neural Network Leads to an Increase in the Calculation A...

Keyword

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 이러한 측면은 인공신경망의 구조, 학습방법에 따라 세부적인 달라질 수 있을 것으로 예상된다. 본 논문에서 알고리즘 관점에서 효과적으로 연결의 수를 줄이는 방법으로, 연결 가중치의 크기를 기준으로 연결을 해지하는 방안을 살펴본다. 우선, 제 2절에서는 단일 신경망에서 MNIST데이터의 분류기의 학습된 가중치 패턴의 특성을 살펴보고, 이를 바탕으로 연결해지에 따른 정확도의 감소정도를 살펴본다.
  • 실험에 사용한 신경망 구조도 대표적인 3계층과 4 (5)계층 FCN (전 연결 신경망)와 CNN (컨벌루션 신경망)로 제한하고, 입력데이터도 MNIST 데이터만을 살펴본다. 이러한 제한의 이유는 일관된 비교와 분석이 이 본 논문의 목적이며 논문의 길이제약도 고려하였다. 이후 다양한 데이터와, 네트워크 환경에 대하여는 별도의 연구나 보고서를 통하여 발표할 예정이다.
  • 지금까지 학습된 신경망을 시각화하는 연구의 주목적은 학습이 어떤 방식으로 진행되며 이의 의미를 분석하여, 추가적인 정보 및 학습방법의 개선에 활용할 목적이었다. 본 연구에서는 해지를 할 연결들의 통계적 지역적 특성을 판단하기 위한 목적이다.
  • 본 연구에서는 날로 증가하는 인공신경망의 복잡도를 줄이기 위한 방안으로 약한 연결을 제거하고, 제 학습하는 방법을 살펴보았다. 또한 약한 연결을 제거한 후에 효과적인 재학습을 위하여 심층신경망의 계층적 민감도모델을 제시하고 이를 바탕으로, 제거하는 정도(임계치 또는 비율)를 조절하는 방안을 제시하였다.

가설 설정

  • CNN-3의 경우, 하나의 커널이 위치를 옮기면서 연산이 행해지므로 연결의 개수는 커널의, 크기에 샘플링 수, 즉 입력의 크기를 간격으로 나눈 수를 곱하여 계산한다. 단 CNN에서 사용하는 풀링(pooling) 단계는 본 연구에서는 그대로 유지하는 것을 가정하였다. 이렇게 각 225792, 3612672, 31360 개이다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
신경망 크기의 증가의 장단점은 무엇인가? 신경망 크기의 증가는 성능의 증가로 반영되는 장점이 있지만, 반면 시스템 구현측면에서는 큰 어려움과 문제점이 된다[4-6]. 학습과 적용시의 계산양이 증가하여, 이를 지원하기위한 하드웨어의 규모가 점차 켜져야 한다.
모든 해지율을 계산하게 되면 재훈련과정에서 시스템 설계에 겪게 될 어려움을 해결하기 위해 어떤 방식을 사용하는가? 재훈련과정은 계산양이 많이 필요하기 때문에, 모든 해지율을 계산하는 것은 시스템 설계에 큰 어려움이 된다. 따라서 측정 비율에 해당하는 재학습만을 수행한 후, 중간 값에 대해서는 내삽으로 예측하는 방식을 사용한다. 이에 단순한 선형보간방식을 사용할 수도 있으나, 앞선 그래프를 보면 특정 임계치를 기점으로 오차율이 급속히 증가한다는 것을 볼 수 있다.
신경망 크기의 증가는 어떤 문제를 야기하는가? 최근 딥러닝, 즉 거대 또는 깊은 인공신경망을 사용한 기술이 놀라운 성능을 보이고 있고, 점차로 그 네트워크의 규모가 커지고 있다. 하지만, 신경망 크기의 증가는 계산양의 증가로 이어져서 회로의 복잡성, 가격, 발열, 실시간성 제약 등의 문제를 야기한다. 또한, 신경망 연결에는 많은 중복성이 존재한다, 본 연구에서는 이 중복성을 효과적으로 제거하여 이용하여 원 신경망의 성능과 원하는 범위안의 차이를 보이면서, 네트워크 연결의 수를 줄이는 방법을 제안하고 실험하였다.
질의응답 정보가 도움이 되었나요?

참고문헌 (8)

  1. LeCuns, Y., Bengio, Y., and Hinton, G., "Deep learning," Nature, Vol. 521, No. 7553, pp. 436-444, 2015. 

  2. Lee, K., H, lee, S.-Y., and Chung, N., Koo, C., "The Effects of IT Usage of Exhibition Onsite and Overall Effectiveness Toward Attendee's Satisfaction", The Journal of Internet Electronic Commerce Research, Vol. 16, No. 6, pp. 77-94, 2016. 

  3. Hong, T. H. and Kim, J. W., "Intelligent Intrusion Detection Systems Using the Asymmetric costs of Errors in Data Mining," The Journal of Information Systems, Vol. 15, No. 4, pp. 211-224, 2016 

  4. LeCun, Y., Bottou, L., Bengio, Y., and Haffner, P., "Gradient-based Learning Applied to Document Recognition," Proceedings of the IEEE, Vol. 86, No. 11, pp.2278-2324, 1998. 

  5. Han, S., Pool, J., Tran, J., and Dally, W., "Learning both Weights and Connections for Efficient Neural Network." In Advances in Neural Information Processing Systems, pp. 1135-1143, 2015. 

  6. Naumov, M., Chien, L. S., Vandermersch, P., and Kapasi, U. "Cusparse Library," In GPU Technology Conference, Spetmber, 2010. 

  7. Chen, T., Du, Z., Sun, N., Wang, J., Wu, C., Chen, Y., and Temam, O. "Diannao: A Small-Footprint High-throughput Accelerator for Ubiquitous Machine-learning. In ACM Sigplan Notices, Vol. 49, No. 4, pp. 269-284. 2014. 

  8. Zhang, S., Du, Z., Zhang, L., Lan, H., Liu, S., Li, L., and Chen, Y., "Cambricon-X: An Accelerator for Sparse Neural Networks," 49th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO), pp. 1-12, 2016. 

저자의 다른 논문 :

활용도 분석정보

상세보기
다운로드
내보내기

활용도 Top5 논문

해당 논문의 주제분야에서 활용도가 높은 상위 5개 콘텐츠를 보여줍니다.
더보기 버튼을 클릭하시면 더 많은 관련자료를 살펴볼 수 있습니다.

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로