$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

초소형 IoT 장치에 구현 가능한 딥러닝 양자화 기술 분석
Analysis of Deep learning Quantization Technology for Micro-sized IoT devices 원문보기

사물인터넷융복합논문지 = Journal of internet of things and convergence, v.9 no.1, 2023년, pp.9 - 17  

김영민 (가천대학교 IT융합공학과) ,  한경현 (홍익대학교 전자전산공학과) ,  황성운 (가천대학교 컴퓨터공학과)

초록
AI-Helper 아이콘AI-Helper

많은 연산량을 가진 딥러닝은 초소형 IoT 장치나 모바일 장치에 구현하기가 어렵다. 최근에는 이러한 장치에서도 딥러닝을 구현할 수 있도록 모델의 연산량을 줄이는 딥러닝 경량화 기술이 소개되었다. 양자화는 연속적인 분포를 가지는 파라미터 값들을 고정된 비트의 이산 값으로 표현하여 모델의 메모리 및 크기 등을 줄여 효율적으로 사용할 수 있는 경량화 기법이다. 그러나 양자화로 인한 이산 값 표현으로 인해 모델의 정확도가 낮아지게 된다. 본 논문에서는 정확도를 개선할 수 있는 다양한 양자화 기술을 소개한다. 먼저 기존 양자화 기술 중 APoT와 EWGS를 선택하여 동일한 환경에서 실험을 통해 결과를 비교 분석하였다. 선택된 기술은 ResNet모델에서 CIFAR-10 또는 CIFAR-100 데이터 세트로 훈련되고 테스트 되었다. 실험 결과 분석을 통해 기존 양자화 기술의 문제점을 파악하고 향후 연구에 대한 방향성을 제시하였다.

Abstract AI-Helper 아이콘AI-Helper

Deep learning with large amount of computations is difficult to implement on micro-sized IoT devices or moblie devices. Recently, lightweight deep learning technologies have been introduced to make sure that deep learning can be implemented even on small devices by reducing the amount of computation...

주제어

표/그림 (11)

참고문헌 (25)

  1. Howard, Andrew G., et al. "Mobilenets: Efficient?convolutional neural networks for mobile vision?applications." arXiv preprint arXiv:1704.04861, 2017. 

  2. Blalock, Davis, et al. "What is the state of neural?network pruning?." Proceedings of machine learning?and systems 2, pp.129-146, 2020. 

  3. Hinton, Geoffrey, Oriol Vinyals, and Jeff Dean.?"Distilling the knowledge in a neural network." arXiv?preprint arXiv:1503.02531, 2015. 

  4. Itay Hubara, Matthieu Courbariaux, Daniel Soudry,?Ran El-Yaniv, and Yoshua Bengio. "Binarized neural?networks." Advances in neural information processing?systems 29, 2016. 

  5. Raghuraman Krishnamoorthi. "Quantizing deep?convolutional networks for efficient inference: A?whitepaper." arXiv preprint arXiv:1806.08342, 2018. 

  6. Benoit Jacob, Skirmantas Kligys, Bo Chen, Menglong?Zhu, Matthew Tang, Andrew Howard, Hartwig Adam,?and Dmitry Kalenichenko. "Quantization and training?of neural networks for efficient integer-arithmetic-only?inference." In Proceedings of the IEEE conference on?computer vision and pattern recognition, pp.2704-2713, 2018. 

  7. Hao Wu, Patrick Judd, Xiaojie Zhang, Mikhail Isaev,?and Paulius Micikevicius. "Integer quantization for?deep learning inference: Principles and empirical?evaluation." arXiv preprint arXiv:2004.09602, 2020. 

  8. Song Han, Huizi Mao, and William J Dally. "Deep?compression: Compressing deep neural networks with?pruning, trained quantization and Huffman coding."?arXiv preprint arXiv:1510.00149, 2015. 

  9. Zhaohui Yang, Yunhe Wang, Kai Han, Chunjing Xu,?Chao Xu, Dacheng Tao, and Chang Xu. "Searching for?low-bit weights in quantized neural networks."?Advances in neural information processing systems?33, pp.4091-4102, 2020. 

  10. Kohei Yamamoto. "Learnable companding quantization?for accurate low-bit neural networks." In Proceedings?of the IEEE/CVF Conference on Computer Vision and?Pattern Recognition, pp.5029-5038, 2021. 

  11. Yunchao Gong, Liu Liu, Ming Yang, and Lubomir Bourdev.?"Compressing deep convolutional networks using?vector quantization." arXiv preprint arXiv:1412.6115,?2014. 

  12. Yang, Jiwei, et al. "Quantization networks." Proceedings?of the IEEE/CVF Conference on Computer Vision and?Pattern Recognition, pp.7308-7316, 2019. 

  13. Gong, Ruihao, et al. "Differentiable soft quantization:?Bridging full-precision and low-bit neural networks."?Proceedings of the IEEE/CVF International?Conference on Computer Vision, pp.4852-4861, 2019. 

  14. Kim, Dohyung, Junghyup Lee, and Bumsub Ham.?"Distance-aware quantization." Proceedings of the?IEEE/CVF International Conference on Computer?Vision, pp.5271-5280, 2021. 

  15. Aojun Zhou, Anbang Yao, Yiwen Guo, Lin Xu, and?Yurong Chen. "Incremental network quantization:?Towards lossless cnns with low-precision weights."?arXiv preprint arXiv:1702.03044, 2017. 

  16. Yuhang Li, Xin Dong, and Wei Wang. "Additive?powers-of-two quantization: An efficient non-uniform?discretization for neural networks." In International?Conference on Learning Representations, 2020. 

  17. Lee, Junghyup, Dohyung Kim, and Bumsub Ham.?"Network quantization with element-wise gradient?scaling." Proceedings of the IEEE/CVF conference on?computer vision and pattern recognition,?pp.6448-6457, 2021. 

  18. Yoshua Bengio, Nicholas Leonard, and Aaron Courville.?"Estimating or propagating gradients through?stochastic neurons for conditional computation."?arXiv preprint arXiv:1308.3432, 2013. 

  19. Avron, Haim, and Sivan Toledo. "Randomized algorithms?for estimating the trace of an implicit symmetric?positive semi-definite matrix." Journal of the ACM?(JACM), Vol.58, No.2, pp.1-34, 2011. 

  20. Itay Hubara, Yury Nahshan, Yair Hanani, Ron Banner,?and Daniel Soudry. "Improving post training neural?quantization: Layer-wise calibration and integer?programming." arXiv preprint arXiv:2006.10518, 2020. 

  21. Markus Nagel, Mart van Baalen, Tijmen Blankevoort,?and Max Welling. "Data-free quantization through?weight equalization and bias correction." In?Proceedings of the IEEE/CVF International?Conference on Computer Vision, pp.1325-1334, 2019. 

  22. Li, Yuhang, et al. "Brecq: Pushing the limit of?post-training quantization by block reconstruction."?arXiv preprint arXiv:2102.05426, 2021. 

  23. Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian?Sun. "Deep residual learning for image recognition."?In Proceedings of the IEEE conference on computer?vision and pattern recognition, pp.770-778, 2016. 

  24. Alex Krizhevsky, Geoffrey Hinton, et al. "Learning?multiple layers of features from tiny images." 2009. 

  25. Lee, Junghyup, et al. "Sfnet: Learning object-aware?semantic correspondence." Proceedings of the?IEEE/CVF Conference on Computer Vision and?Pattern Recognition, pp.2278-2287, 2019. 

저자의 다른 논문 :

관련 콘텐츠

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로