최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기情報保護學會誌 = KIISC review, v.30 no.5, 2020년, pp.71 - 77
김용수 (부산대학교) , 강효은 (부산대학교) , 김호원 (부산대학교)
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
GAN은 무엇인가? | Goodfellow 등[5]은 생성자(generator) 및 판별자(discriminator)로 구성된 두 종류의 모델을 적대적으로 훈련함으로써 실제 데이터와 매우 유사한 데이터를 생성할 수 있는 프레임워크를 제안하였다. 판별자 D는 실제 데이터와 생성자가 생성한 데이터를 분류하도록 학습되며, 생성자 G는 데이터의 분포를 모델링하여 실제 데이터와 유사한 데이터를 생성함으로써 판별자 D를 속이도록 학습된다. | |
딥러닝 기술은 무엇에 취약한가? | 최근 딥러닝 기술의 급속한 발전으로 인해 얼굴 인식, 객체 탐지, 질병 진단 등 다양한 지능형 시스템에 적용되고 있다. 하지만, 최근 연구에 따르면 딥러닝 기술은 공격자가 입력 데이터를 조작하여 의도적으로 오작동을 일으키는 적대적 공격(adversarial attack)에 취약한 것으로 밝혀졌다. | |
적대적 교란 신호의 한계점은? | 적대적 교란 신호에 관한 대부분의 연구들은 다양한 최적화 기법을 통해 딥러닝 모델을 오작동하게 만드는 작은 노이즈를 찾는 방법이며, 대표적으로 FGSM(Fast Gradient Sign Method)[1], PGD(Projected Gradient Descent)[2], C&W(Carlini & Wagner)[3] 공격 기법이 있다. 하지만 적대적 교란 신호는 이미지의 픽셀 값을 직접적으로 조작하는 방법이기 때문에, 카메라 시스템을 해킹하여 공격하는 것과 같이 디지털 환경에서만 공격이 가능하다는 한계점이 있다. |
I. Goodfellow, et al., "Explaining and Harnessing Adversarial Examples," International Conference on Learning Representations, 2015.
A. Madrym et al., "Towards Deep Learning Models Resistant to Adversarial Attacks," arXiv preprint arXiv:1706.06083, 2017.
N. Carlini, D. Wagner, "Towards Evaluating the Robustness of Neural Networks," IEEE Symposium on Security and Privacy, 2017.
T. B. Brown, et al., "Adversarial Patch," arXiv preprint arXiv:1712.09665, 2018.
I. Goodfellow, et al., "Generative Adversarial Nets," Proceedings of the 27th International Conference on Neural Information Processing Systems, Vol. 2, pp. 2672-2680, 2014.
C. Szegedy, et al., "Intriguing Properties of Neural Networks," International Conference on Learning Representations, 2014.
S. Qiu, et al., "Review of Artificial Intelligence Adversarial Attack and Defense Technologies," Applied Sciences, 9(5), 2019.
X. Yuan, et al., "Adversarial Examples: Attacks and Defenses for Deep Learning," IEEE Transactions on Neural Networks and Learning Systems, 30(9), pp.2805-2824, Sep 2019.
S. Moosavi-Dezfooli, et al., "DeepFool: A Simple and Accurate Method to Fool Deep Neural Networks," arXiv preprint arXiv:1511.04599, 2015.
X. Liu, et al., "DPatch: Attacking Object Detectors with Adversarial Patches," arXiv preprint arXiv:1806.02299, 2018.
C. Xiao, et al., "Generating Adversarial Examples with Adversarial Networks," arXiv preprint arXiv:1801.02610, 2018.
A. Liu, et al., "Perceptual-Sensitive GAN for Generating Adversarial Patches," Proceedings of the AAAI Conference on Artificial Intelligence, 33, pp. 1028-2035, 2019.
P. Isola, et al., "Image-to-Image Translation with Conditional Adversarial Networks," arXiv preprint arXiv:1611.07004, 2016.
J. Y. Zhu, et al., "Unpaired Image-to-Image Translation using Cycle-consistent Adversarial Networks," IEEE International Conference on Computer Vision (ICCV), pp. 2242-2251, 2017.
J. Stallkamp, et al., "Man vs. Computer: Benchmarking machine learning algorithms for traffic sign recognition," Neural Networks : the official journal of the International Neural Network Society, 32, 2012.
A. Krizhevsky, et al., "CIFAR-10 (Canadian Institute For Advanced Research)," http://www.cs.toronto.edu/-kriz/cifar.html.
K. Simonyan, A. Zisserman, "Very Deep Convolutional Networks for Large-scale Image Recognition," arXiv preprint arXiv:1409.1556, 2015.
K. He, "Deep Residual Learning for Image Recognition," arXiv preprint arXiv:1512.03385, 2015.
F. N. Iandola, et al., "SqueezeNet: AlexNet-level Accuracy with 50x Fewer Parameters and <0.5MB Model Size," arXiv preprint arXiv:1602.07360, 2016.
M. Sandler, et al., "MobileNetV2: Inverted Residuals and Linear Bottlenecks," arXiv preprint arXiv:1801.04381, 2019.
Z. Wang, et al., "Image Quality Assessment: From Error Visibility to Structural Similarity," IEEE Transactions on Image Processing, 13(4), pp. 600-612, 2004.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.