$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

심층신경망의 더블 프루닝 기법의 적용 및 성능 분석에 관한 연구
Application and Performance Analysis of Double Pruning Method for Deep Neural Networks 원문보기

융합정보논문지 = Journal of Convergence for Information Technology, v.10 no.8, 2020년, pp.23 - 34  

이선우 (인하대학교 전기컴퓨터공학과) ,  양호준 (인하대학교 컴퓨터공학과) ,  오승연 (인하대학교 컴퓨터공학과) ,  이문형 (인하대학교 컴퓨터공학과) ,  권장우 (인하대학교 컴퓨터공학과)

초록
AI-Helper 아이콘AI-Helper

최근 인공지능 딥러닝 분야는 컴퓨팅 자원의 높은 연산량과 가격문제로 인해 상용화에 어려움이 존재했다. 본 논문은 더블 프루닝 기법을 적용하여 심층신경망 모델들과 다수의 데이터셋에서의 성능을 평가하고자 한다. 더블 프루닝은 기본의 네트워크 간소화(Network-Slimming)과 파라미터 프루닝(Parameter-Pruning)을 결합한다. 이는 기존의 학습에 중요하지 않는 매개변수를 절감하여 학습 정확도를 저해하지 않고 속도를 향상시킬 수 있다는 장점이 있다. 다양한 데이터셋 학습 이후에 프루닝 비율을 증가시켜, 모델의 사이즈를 감소시켰다. NetScore 성능 분석 결과 MobileNet-V3가 가장 성능이 높게 나타났다. 프루닝 이후의 성능은 Cifar 10 데이터셋에서 깊이 우선 합성곱 신경망으로 구성된 MobileNet-V3이 가장 성능이 높았고, 전통적인 합성곱 신경망으로 이루어진 VGGNet, ResNet또한 높은 폭으로 성능이 증가함을 확인하였다.

Abstract AI-Helper 아이콘AI-Helper

Recently, the artificial intelligence deep learning field has been hard to commercialize due to the high computing power and the price problem of computing resources. In this paper, we apply a double pruning techniques to evaluate the performance of the in-depth neural network and various datasets. ...

주제어

표/그림 (12)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • FER2013(Facial Emotion Recognition 2013)과 FER+ 데이터는 학습 데이터와 클래스는 비슷하지만, 입력 크기가 차이가 있는 데이터로 입력 크기에 따른 프루닝 결과를 비교하기 위하여 적용되었다. 또한, FER 데이터셋은 학습 및 테스트 데이터의 분포가 균일하지 않은 상태이기 때문에 프루닝의 영향도 살펴보고자한다. FER2013 데이터셋은 48× 48× 1 크기로 구성되었으며, 사람의 정확도는 약 65± 5%로, 35,887개의 이미지와 총 7개의 레이블(화남(Angry), 역겨움(Disgust), 공포(Fear), 행복(Happy), 슬픔(Sad), 놀람(Surprise), 보통(Neutral)로 이루어져 있다.
  • 본 논문에서 성능평가 방법은 프루닝 비율에 따라 변하는 속도 모두를 측정하여 이를 기반으로 심층신경망 모델의 속도와 연산량을 기반으로 모델을 평가하는 검증방법 중 하나인, Net-Score[27]를 측정하고자 하였다. Net-Score는 식 (4)와 같이 표현할 수 있다.
  • VGGNet모델은 ILSVRC2014에서 오직 3×3크기의 합성곱 신경망을 이용하여 제안한 네트워크로, 구현이 쉽다는 장점있고, 어느정도 성능이 보장된다는 점이 특징이다. 본 논문에서는 VGG19의 합성곱신경망의 매개변수만을 비교를 위하여 마지막 3개의 완전 결합 층 (Fully Connected Layer)을 전역 평균 풀링(Global Average Pooling)으로 전환하여 매개변수의 개수를 줄였다.
  • 본 논문에서는 기존의 매개변수 프루닝[13]과 채널 간소화 프루닝 기법[17]을 각각 적용 할때와 동시에 적용할때의 성능결과를 보고 데이터셋에 따른 성능을 비교하였다. 이와 더불어 속도를 우선시 하는 깊이별 분리 합성곱 신경망[5-7] 3종과 일반적으로 사용되는 합성곱 신경망 기반의 모델 2종[8, 10]종에 각각 적용하였다.
  • 본 논문에서는 딥러닝 모델에서 대표적인 프루닝 방법인 매개변수 프루닝과 네트워크 간소화 방법을 구현하였다. 또한 각 방법을 각기 적용하였을 경우와 함께 적용하였을 경우를, 데이터 크기와 학습 레이블이 다른 네가지 데이터셋 3종류에 대하여 적용하였고 각기다른 신경망 모델 5가지와 MobileNet-V1, V2, V3와 VGGNet19, ResNet18 모델에 학습하여 실험하여 비교하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
프루닝이란? 프루닝은 경량화 기법의 하나로, 학습 이후 각 심층 신경망 층의 상대적으로 불필요한 매개변수를 제거함으로써, 딥러닝 성능의 저하를 최소화하면서 성공적인 정확도를 가져오는 방법으로 사용되어왔다. Fig.
심층신경망의 합성곱 신경망은 무엇이 필요한가? 일반적으로 심층신경망은 정확도와 속도에서의 거래(trade-off)가 있는데 정확도를 최대한 보전하면서 속도를 효율적으로 올리기 위한 연구가 상용화에 있어서 중요한 이슈 중 하나이다.심층신경망의 합성곱 신경망은 기본적으로 행렬 연산이기 때문에 많은 연산이 필요하다. 초기에 이를 극복하기 위하고자 다양한 시도들이 이루어졌다.
네트워크 간소화와 매개변수 프루닝 중 먼저 선택된 방법은 매개변수 프루닝이었던 이유는? 네트워크 간소화와 매개변수 프루닝 중 먼저 선택된 방법은 매개변수 프루닝이었다. 그 이유는 네트워크 간소화를 먼저 하게되면, 필터 안의 특정 중요 필터를 먼저 없애기 때문에 매개변수 프루닝 이후에 네트워크 간소화를 진행하였다. 네트워크 간소화는, 최대 60%까지 진행되었으며 그 이상을 진행할 경우 네트워크 재구성이 안되는 결과를 보였다.
질의응답 정보가 도움이 되었나요?

참고문헌 (32)

  1. E. Real, A. Aggarwal, Y. Huang & Q. V. Le. (2019, July). Regularized evolution for image classifier architecture search. In Proceedings of the aaai conference on artificial intelligence, 33, 4780-4789. DOI : 10.1609/aaai.v33i01.33014780 

  2. S. Karen & Z. Andrew. (2014), Very Deep Convolutional Networks for Large-Scale Image Recognition. arXiv preprint arXiv:1409.1556. 

  3. K. He, X. Zhang, S. Ren & J. Sun. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 770-778). 

  4. C. Szegedy et al. (2015). Going deeper with convolutions. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 1-9). 

  5. A. Howard. et al. (2019). Searching for mobilenetv3. In Proceedings of the IEEE International Conference on Computer Vision (pp. 1314-1324). 

  6. M. Sandler, A. Howard, M. Zhu, A. Zhmoginov & L. C. Chen. (2018). Mobilenetv2: Inverted residuals and linear bottlenecks. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 4510-4520). 

  7. G. H. Andrew, Z. Menglong, C. Bo, K. Dmitry, W. Weijun, W. Tobias, A. Marco & A. Hartwig. (2017). MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications. arXiv preprint arXiv:1704.04861. 

  8. N. I, Forrest. H. Song, W. M. Matthew, A. Khalid, J. D. William & K. Kurt. (2016). SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size. arXiv preprint arXiv:1602.07360. 

  9. X. Zhang, X. Zhou, M. Lin & J. Sun. (2018). Shufflenet: An extremely efficient convolutional neural network for mobile devices. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 6848-6856). 

  10. F. Chollet. (2017). Xception: Deep learning with depthwise separable convolutions. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 1251-1258). 

  11. Gholami, A., Kwon K., Wu B., Tai Z., Yue X., Jin P., Zhao S., Keutzer K., (2018. June). Squeezenext: Hardware-aware neural network design. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops (pp. 1638-1647). 

  12. L. Yann, S. D. John & A. S. Sara. (1990). Optimal brain damage. In Advances in neural information processing systems (pp. 598-605). 

  13. S. Han, J. Pool, J. Tran & W. Dally. (2015). Learning both weights and connections for efficient neural network. In Advances in neural information processing systems (pp. 1135-1143). 

  14. H. Song, M. Huizi & J. D. William (2015). Deep compression: Compressing deep neural networks with pruning, trained quantization and huffman coding. arXiv preprint arXiv:1510.00149. 

  15. R. Reed, (1993). Pruning algorithms-a survey. IEEE transactions on Neural Networks, 4(5), 740-747. DOI : 10.1109/72.248452 

  16. N. Lee, T. Ajanthan & P. H. Torr. (2018). Snip: Single-shot network pruning based on connection sensitivity. arXiv preprint arXiv:1810.02340. 

  17. Z. Liu, J. Li, Z. Shen, G. Huang, S. Yan & C. Zhang, (2017). Learning efficient convolutional networks through network slimming. In Proceedings of the IEEE International Conference on Computer Vision (pp. 2736-2744). 

  18. Y. He, X. Zhang & J. Sun, (2017). Channel pruning for accelerating very deep neural networks. In Proceedings of the IEEE International Conference on Computer Vision (pp. 1389-1397). 

  19. M. Tan & Q. V. Le. (2019). Efficientnet: Rethinking model scaling for convolutional neural networks. arXiv preprint arXiv:1905.11946. 

  20. M. Tan & Q. V. Le. (2019). Mixconv: Mixed depthwise convolutional kernels. CoRR, abs/1907.09595 

  21. J. H. Luo, J. Wu & W. Lin. (2017). Thinet: A filter level pruning method for deep neural network compression. The IEEE International Conference on Computer Vision (ICCV) (pp. 5058-5066) 

  22. Z. Liu, M. Sun, T. Zhou, G. Huang, T. Darrell. (2019). Rethinking the Value of Network Pruning, International Conference on Learning Representations (ICLR) Seq 

  23. A. Morcos, H. Yu, M. Paganini & Y. Tian. (2019). One ticket to win them all: generalizing lottery ticket initializations across datasets and optimizers. In Advances in Neural Information Processing Systems (pp. 4932-4942). 

  24. A. Krizhevsky & Hinton, G. (2009). Learning multiple layers of features from tiny images. 

  25. I. J. Goodfellow et al. (2013, Nov). Challenges in Representation Learning: A report on three machine learning contests. In International Conference on Neural Information Processing (pp. 117-124). Springer, Berlin, Heidelberg. 

  26. E. Barsoum, C. Zhang, C. C. Ferrer & Z. Zhang. (2016, October). Training deep networks for facial expression recognition with crowd-sourced label distribution. In Proceedings of the 18th ACM International Conference on Multimodal Interaction (pp. 279-283). 

  27. A. Wong. (2019, August). NetScore: Towards universal metrics for large-scale performance analysis of deep neural networks for practical on-device edge usage. In International Conference on Image Analysis and Recognition (pp. 15-26). Springer, Cham. 

  28. M. Tan, B. Chen, R. Pang, V. Vasudevan, M. Sandler, A. Howard & Q. V. Le. (2019). Mnasnet: Platform-aware neural architecture search for mobile. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 2820-2828). 

  29. P. Ramachandran, B. Zoph & Q. V. Le. (2017). Searching for activation functions. arXiv preprint arXiv:1710.05941. 

  30. I. Loshchilov & F. Hutter. (2016). Sgdr: Stochastic gradient descent with warm restarts. arXiv preprint arXiv:1608.03983. 

  31. A. Aimar et al. (2018). Nullhop: A flexible convolutional neural network accelerator based on sparse representations of feature maps. IEEE transactions on neural networks and learning systems, 30(3), 644-656. DOI : 10.1109/TNNLS.2018.2852335 

  32. M. Schmidt, G. Fung & R. Rosales. (2007, September). Fast optimization methods for l1 regularization: A comparative study and two new approaches. In European Conference on Machine Learning (pp. 286-297). Springer, Berlin, Heidelberg. DOI : 10.1007/978-3-540-74958-5_28 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로