본 논문은 Accelerator-Aware Pruning이 적용 된 Sparse CNN을 효율 적으로 처리하는 가속회로의 구조에 대한 연구이다. 이미지 학습 및 처리 를 위해 AlexNet이 나타난 이후, 많은 CNN구조가 제안됨에 따라 여러 가속회로가 제안되었다. 처리량을 줄이면서도 더 나은 혹은 유사한 결과 를 유지하기 위해 Pruning이라는 방법이 제시되었고, Pruning이 적용된 Sparse CNN이 생겨났지만 기존의 가속회로에서는 Sparse CNN을 처리 할 때 비효율적인 경우가 생겨났다. 그래서 이 Sparse CNN에서 필요한 연산만 효율적으로 처리하기 위한 가속회로 구조가 제안되었다. 하지만 Sparse CNN에 대응하는 구조에서도 비효율적인 동작을 하는 경우가 있 으며, 이러한 문제를 해결하기 위해 Accelerator-Aware Pruning이라는 방법이 제안되었다. 75% 이상 Acclelerator-Aware Pruning을 적용해도 대부분의 CNN에서는 문제가 없으며, 앞으로도 이러한 수준의 Accelerator-Aware Pruning을 적용할 것으로 보인다. 그래서 75% 이상 Accelerator-Aware Pruning이 적용된 Sparse CNN들을 가장 효율적으로 처리하기 위한 가속회로 구조를 연구하였고, 기존에 사용되던 구조에서 PE안의 ...
본 논문은 Accelerator-Aware Pruning이 적용 된 Sparse CNN을 효율 적으로 처리하는 가속회로의 구조에 대한 연구이다. 이미지 학습 및 처리 를 위해 AlexNet이 나타난 이후, 많은 CNN구조가 제안됨에 따라 여러 가속회로가 제안되었다. 처리량을 줄이면서도 더 나은 혹은 유사한 결과 를 유지하기 위해 Pruning이라는 방법이 제시되었고, Pruning이 적용된 Sparse CNN이 생겨났지만 기존의 가속회로에서는 Sparse CNN을 처리 할 때 비효율적인 경우가 생겨났다. 그래서 이 Sparse CNN에서 필요한 연산만 효율적으로 처리하기 위한 가속회로 구조가 제안되었다. 하지만 Sparse CNN에 대응하는 구조에서도 비효율적인 동작을 하는 경우가 있 으며, 이러한 문제를 해결하기 위해 Accelerator-Aware Pruning이라는 방법이 제안되었다. 75% 이상 Acclelerator-Aware Pruning을 적용해도 대부분의 CNN에서는 문제가 없으며, 앞으로도 이러한 수준의 Accelerator-Aware Pruning을 적용할 것으로 보인다. 그래서 75% 이상 Accelerator-Aware Pruning이 적용된 Sparse CNN들을 가장 효율적으로 처리하기 위한 가속회로 구조를 연구하였고, 기존에 사용되던 구조에서 PE안의 곱셈기를 줄이고 PE 자체를 늘려서 속도는 118% 증가하지만 면 적은 54%밖에 증가하지 않는 더 효율적인 구조를 발견하였다.
본 논문은 Accelerator-Aware Pruning이 적용 된 Sparse CNN을 효율 적으로 처리하는 가속회로의 구조에 대한 연구이다. 이미지 학습 및 처리 를 위해 AlexNet이 나타난 이후, 많은 CNN구조가 제안됨에 따라 여러 가속회로가 제안되었다. 처리량을 줄이면서도 더 나은 혹은 유사한 결과 를 유지하기 위해 Pruning이라는 방법이 제시되었고, Pruning이 적용된 Sparse CNN이 생겨났지만 기존의 가속회로에서는 Sparse CNN을 처리 할 때 비효율적인 경우가 생겨났다. 그래서 이 Sparse CNN에서 필요한 연산만 효율적으로 처리하기 위한 가속회로 구조가 제안되었다. 하지만 Sparse CNN에 대응하는 구조에서도 비효율적인 동작을 하는 경우가 있 으며, 이러한 문제를 해결하기 위해 Accelerator-Aware Pruning이라는 방법이 제안되었다. 75% 이상 Acclelerator-Aware Pruning을 적용해도 대부분의 CNN에서는 문제가 없으며, 앞으로도 이러한 수준의 Accelerator-Aware Pruning을 적용할 것으로 보인다. 그래서 75% 이상 Accelerator-Aware Pruning이 적용된 Sparse CNN들을 가장 효율적으로 처리하기 위한 가속회로 구조를 연구하였고, 기존에 사용되던 구조에서 PE안의 곱셈기를 줄이고 PE 자체를 늘려서 속도는 118% 증가하지만 면 적은 54%밖에 증가하지 않는 더 효율적인 구조를 발견하였다.
This paper is a study on the structure of an acceleration circuit that efficiently processes Sparse CNN with Accelerator-Aware Pruning. A number of CNN structures have been proposed for image learning and processing, and acceleration circuits have been proposed. In order to reduce th...
This paper is a study on the structure of an acceleration circuit that efficiently processes Sparse CNN with Accelerator-Aware Pruning. A number of CNN structures have been proposed for image learning and processing, and acceleration circuits have been proposed. In order to reduce throughput, a method called pruning has been proposed, and sparse CNN processing is ineffective on previous acceleration circuits. Therefore, the structure of the acceleration circuit corresponding to process Sparse CNN such as Cambricon-X is proposed for efficiently processing. However, these acceleration circuit is still sometimes inefficient. To solve this problem, a method called Accelerator-Aware Pruning has been proposed. Over 75% of Accelerator-Aware Pruning cause any problem with most CNNs, and Accelerator-Aware Pruning seems to be applied for sparse CNN in the future. Therefore, we aimed to investigate the acceleration circuit for the most efficient processing of Sparse CNN with more than 75% Accelerator-Aware Pruning.
This paper is a study on the structure of an acceleration circuit that efficiently processes Sparse CNN with Accelerator-Aware Pruning. A number of CNN structures have been proposed for image learning and processing, and acceleration circuits have been proposed. In order to reduce throughput, a method called pruning has been proposed, and sparse CNN processing is ineffective on previous acceleration circuits. Therefore, the structure of the acceleration circuit corresponding to process Sparse CNN such as Cambricon-X is proposed for efficiently processing. However, these acceleration circuit is still sometimes inefficient. To solve this problem, a method called Accelerator-Aware Pruning has been proposed. Over 75% of Accelerator-Aware Pruning cause any problem with most CNNs, and Accelerator-Aware Pruning seems to be applied for sparse CNN in the future. Therefore, we aimed to investigate the acceleration circuit for the most efficient processing of Sparse CNN with more than 75% Accelerator-Aware Pruning.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.