최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기The journal of the institute of internet, broadcasting and communication : JIIBC, v.20 no.3, 2020년, pp.171 - 179
서태문 (부산대학교 기계공학과) , 강민국 (포항공과대학교 컴퓨터공학과) , 강동중 (부산대학교 기계공학과)
Recently, studies have shown that convolution neural networks are achieving the best performance in image classification, object detection, and image generation. Vision based defect inspection which is more economical than other defect inspection, is a very important for a factory automation. Althou...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
비정상 검출은 무엇인가? | 비정상 검출은 다수의 내좌층(Inlier) 데이터와 이상점(Outlier) 데이터가 존재하는 상황에서 이상점 데이터를 검출하는 과정이다. 내좌층 데이터란 풍부한 양의 정상적인 데이터를 의미하고, 이상점 데이터란 제품 결함 사진과 같이 내좌층 데이터에 비해 그 수가 매우 적고 부적절한 데이터를 의미한다. | |
CNN 기반의 비정상 검출 알고리즘에는 무엇이 있는가? | 컨볼루션 신경망 회로(Convolutional Neural Networks, CNNs)가 데이터의 특징 공간을 풍부하게 학습할 수 있음이 실험적으로 증명됨에 따라12,13,18 CNN 기반의 다양한 비정상 검출 알고리즘들이 제안되어 왔다. 방법론은 크게 두 가지로, 첫 번째는 오토인코더의 풍부한 특징 공간 학습력을 이용한 방법6,9,10이고, 두 번째는 적대적 생성모델을 활용한 방법7,8,19이다. 오토인코더는 데이터의 잠재변수를 찾기 위해 데이터의 차원을 축소(Encoding)시킨 후, 처음의 차원으로 다시 복원(Decoding)시키는 방법론인데, 축소되었던 저차원의 특징을 데이터의 잠재 변수 공간으로 가정하고, SVM 또는 선형 분류기에 인가하여 이상점 검출을 하는 방법이 오토인코더를 이용한 비정상 검출 방법이다. | |
딥러닝 기반의 비정상 검출에는 어떤 방법이 있는가? | 최신 딥러닝 기반의 비정상 검출은 오토인코더와 신경망 규제 방법을 통해 데이터에 대한 풍부한 정보를 가지고 있는 잠재변수를 추출한 후, 이를 SVM(Support Vector Machine) 분류기에 인가하여 비정상을 검출하는 방법9, 변분 오토인코더와 같은 확률적 오토인코더를 이용하는 방법10 적대적 생성신경망11,12을 통해 정상 이미지에 대한 확률분포를 학습하고, 학습에 참여하지 못한 비정상 데이터가 신경망에 인가되면, 왜곡된 이미지가 생성되는 현상을 이용한 방법이 있다. |
C. Callegari, S. Vaton, and M. Pagano. A New Statistical Approach to Network Anomaly Detection. In Proceedings of the International Symposium on Performance Evaluation of Computer and Telecommunication Systems.(SPECTS).2018.
E. Eskin. Anomaly Detection over Noisy Datausing Learned Probability Distribution. In Pro-ceedings of the International Conference on Machine Learning(ICML). pages 255-262, 2000. DOI: https://doi.org/10.7916/D8C53SKF
G. Huang, Z. Liu, L. van der Maaten, K. Q. W-einberger. Densely Connected Convolutional Networks. In Computer vision and Pattern Recognition(CVPR). pages 4700-4708, 2017. arXiv:1608.06993
N. Kodali, J. Abernethy, J. Hays, Z. Kira, On Convergence and Stability of GANs. In arXiv preprintarXiv:1705.07215. 2017.
P. Seebock, S. Waldstein, S. Klimscha, B. S. G-erendas,R.Donner,T. Schlegl, U. SchmidtErfurth, G. Langs. Identifying and Categorizing An-omalies in Retinal Imaging Data. In arXiv preprintarXiv: 1612.00686. 2016.
T. Schlegl, P. Seebock, S. M. Waldstein, U. S-chmidt-Erfurth. Unsupervised Anomaly Detection With Generative Adversarial Networks to Guide Marker Discovery. In International Conference on Information Processing in Medical Imaging(IPMI). pages 146-157, 2017. DOI: https://doi.org/10.1007/978-3-319-59050-9_12
L. Ruff, R. A. Vandermeulen, N. Gornitz, L. Deecke, S. A. Siddiqui, A. Binder, E. Muller, M.Kloft. Deep One-Class Classification. In Proceedings of the International Conference on Machine learning. pages 4393-4402, 2018.
A. Vasilev, V. Golkov, M. Meissner, I. Lipp, E. Sgarlata, V. Tomassini, D. K. Jones, D. Cremers. q-Space Novelty Detection with Variational Autoencoders. In arXiv preprint arXiv:1806.02997. 2018.
A. Vasilev, V. Golkov, M. Meissner, I. Lipp, E. Sgarlata, V. Tomassini, D. K. Jones, D. Cremers. q-Space Novelty Detection with Variational Autoencoders. In arXiv preprint arXiv:1806.02997.2018.
I. J. Goodfellow, J. Pouget-Abadie, M. Mirza, B.Xu, D. Warde-Farley, S. Ozair, A. Courville, Y. Bengio. Generative Adversarial Nets. In proceedingsof Neural Information Processing Systems(NIPS). 2014.
A. Radford, L. Metz, S. Chintala. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks. In Proceedings of International Conference on Learning Representations(ICLR). 2016.
X. Hou, L. Shen, K. Sun, G. Qiu. Deep Feature Consistent Variational Autoencoder. In Winter Conference on Applications of Computer Vision(WACV).pages 1133-1141, 2017.
D. Berthelot, T. Schumm, L. Metz. BEGAN: Boundary Equilibrium Generative Adversarial Networks. In arXiv preprint arXiv:1703.10717, 2018.
D. P. Kingma, M. Welling. Auto-Encoding Variational Bayes. In Proceedings of the International Conference on Learning Representations(ICLR), 2014.
Y. Blau, T. Michaeli. The Perception-Distortion Tradeoff. In Conference on Computer Vision andPattern Recognition(CVPR), 2018.
M. L. Shyu, S. C. Chen, K. Sarinnapakorn, L. Chang. A Novel Anomaly Detection Scheme Based on Principal Component Classifier. In proceedings of the IEEE Foundations and NewDirections of Data Mining Workshop. pages 172-179, 2003.
K. Simonyan, A. Zisserman. Very Deep Convolutional Networks for Large-Scale Image Recgnition. In International Conference on Learning Representation (ICLR). 2014.
H. Zenati, C. S. Foo, B. Lecouat, G. Manek, V. R. Chandrasekhar. Efficient Gan-Based Anomaly Detection. In International Conference on learningRepresentations Workshop(ICLR). 2018.
J. Zhao, M. Mathieu, Y. LeCun. Energy-Based Generative Adversarial Networks. In International Conference on Learning Representations(ICLR). 2017.
M. Arjovsky, S. Chintala, L. Bottou. Wasserstein GAN. In proceedings of International Conference on Machine Learning(ICML). pages 214-223, 2017.
X. Mao, Q. LI, H. Xie, R. Y. K. Lau, Z. Wang, S. P. Smolley. Least Squares Generative Adversarial Networks. In International Conference on Computer Vision(ICCV). pages 2794-2802, 2017.
J. Y. Zhu, T. Park, P. Isola, A. A. Efros. Unpaired Image-to-Image Translation using Cycle Consistent Adversarial Networks. In International Conference on Computer Vision(ICCV). pages2223-2232, 2017.
G. E. Hinton, R. R. Salakhutdinov. Reducing the Dimensionality of Data with Neural Networks. In Science 313, pages 504-507, 2006.
I. Gulrajani, F. Ahmed, M. Arjovsky, V. Dumoulin. Improved Training of Wasserstein GANs. In Advances in Neural Information Processing Systems(NIPS). 2017.
D. P. Kingma, J. L. Ba. ADAM: A method for Stochastic Optimization. In Proceedings of the International Conference on Learning Refresentation(ICLR). 2015.
S. Ruder. An Overview of Gradient Descent Optimization Algorithms. In arXiv preprint arXiv:1609.04747. 2016.
S. Ioffe, C. Szegedy. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift. In Proceedings of the International Conference on Machine Learning(ICML).pages 448-456, 2015.
In-Kyu Park. A Study on the Prediction of the Nonlinear Chaotic Time Series Using Genetic Algorithm based Fuzzy Neural Network The Journal of The Institute of Internet, Broadcasting and Communication(JIIBC), Vol. 11, No. 4, pp. 91-97, 2011.
Yun-Kyung Park, Hye-Won Lee, Sang-Moon Kim. Identify the Failure Mode of Weapon System (or equipment) using Machine Learning Journal of the Korea Academia-Industrial cooperation Society(JKAIS), Vol 19, No.8 pp.64-70 2018
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.