$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

AI 모델의 Robustness 향상을 위한 효율적인 Adversarial Attack 생성 방안 연구
A Study on Effective Adversarial Attack Creation for Robustness Improvement of AI Models 원문보기

Journal of Internet Computing and Services = 인터넷정보학회논문지, v.24 no.4, 2023년, pp.25 - 36  

정시온 (Department of Information Security, Hoseo University) ,  한태현 (Department of Information Security, Hoseo University) ,  임승범 (Department of Information Security, Hoseo University) ,  이태진 (Department of Information Security, Hoseo University)

초록
AI-Helper 아이콘AI-Helper

오늘날 AI(Artificial Intelligence) 기술은 보안 분야를 비롯하여 다양한 분야에 도입됨에 따라 기술의 발전이 가속화되고 있다. 하지만 AI 기술의 발전과 더불어 악성 행위 탐지를 교묘하게 우회하는 공격 기법들도 함께 발전되고 있다. 이러한 공격 기법 중 AI 모델의 분류 과정에서 입력값의 미세한 조정을 통해 오 분류와 신뢰도 하락을 유도하는 Adversarial attack이 등장하였다. 앞으로 등장할 공격들은 공격자가 새로이 공격을 생성하는 것이 아닌, Adversarial attack처럼 기존에 생성된 공격에 약간의 변형을 주어 AI 모델의 탐지체계를 회피하는 방식이다. 이러한 악성코드의 변종에도 대응이 가능한 견고한 모델을 만들어야 한다. 본 논문에서는 AI 모델의 Robustness 향상을 위한 효율적인 Adversarial attack 생성 기법으로 2가지 기법을 제안한다. 제안하는 기법은 XAI 기법을 활용한 XAI based attack 기법과 모델의 결정 경계 탐색을 통한 Reference based attack이다. 이후 성능 검증을 위해 악성코드 데이터 셋을 통해 분류 모델을 구축하여 기존의 Adversarial attack 중 하나인 PGD attack과의 성능 비교를 하였다. 생성 속도 측면에서 기존 20분이 소요되는 PGD attack에 비하여 XAI based attack과 Reference based attack이 각각 0.35초, 0.47초 소요되어 매우 빠른 속도를 보이며, 특히 Reference based attack의 경우 생성률이 97.7%로 기존 PGD attack의 생성률인 75.5%에 비해 높은 성공률을 보이는 것을 확인하였다. 따라서 제안한 기법을 통해 더욱 효율적인 Adversarial attack이 가능하며, 이후 견고한 AI 모델을 구축하기 위한 연구에 기여 할 수 있을 것으로 기대한다.

Abstract AI-Helper 아이콘AI-Helper

Today, as AI (Artificial Intelligence) technology is introduced in various fields, including security, the development of technology is accelerating. However, with the development of AI technology, attack techniques that cleverly bypass malicious behavior detection are also developing. In the classi...

주제어

표/그림 (17)

AI 본문요약
AI-Helper 아이콘 AI-Helper

문제 정의

  • 제안한 기법으로 생성된 Adversarial example의 성능 비교를 위해 기존 Adversarial attack 중 PGD attack을 사용한다. PGD attack으로 생성된 Adversarial example과 제안한 기법으로 생성된 Adversarial example의 성능 비교를 통해 제안한 2가지 기법을 통한 효율적인 Adversarial example 생성이 가능한지 확인하고자 한다.
본문요약 정보가 도움이 되었나요?

참고문헌 (16)

  1. IBM. IBM Global AI Adoption Index, 2022.?https://www.ibm.com/downloads/cas/ 

  2. Diro, Abebe Abeshu, and Naveen Chilamkurti.?"Distributed attack detection scheme using deep?learning approach for Internet of Things", Future?Generation Computer Systems, Vol.82, pp.761-768.?2018. https://doi.org/10.1016/j.future.2017.08.043 

  3. Goodfellow, Ian J., Jonathon Shlens, and Christian?Szegedy. "Explaining and harnessing adversarial?examples", arXiv preprint arXiv:1412.6572, 2014.?https://doi.org/10.48550/arXiv.1412.6572 

  4. Shafique, M., Naseer, M., Theocharides, T., Kyrkou,?C., Mutlu, O., Orosa, L., & Choi, J. "Robust machine?learning systems: Challenges, current trends,?perspectives, and the road ahead", IEEE Design &?Test, Vol.37, No.2, pp.30-57, 2020.?https://ieeexplore.ieee.org/document/8979377 

  5. GU, Jindong. Explainability and Robustness of Deep?Visual Classification Models. arXiv preprint?arXiv:2301.01343, 2023. https://doi.org/10.48550/arXiv.2301.01343 

  6. Im Choi, Jung, and Qing Tian. "Adversarial attack and?defense of YOLO detectors in autonomous driving scenarios", 2022 IEEE Intelligent Vehicles Symposium?(IV). IEEE, 2022.?https://doi.org/10.1109/IV51971.2022.9827222 

  7. SINGH, Jagsir; SINGH, Jaswinder. "A survey on?machine learning-based malware detection in?executable files", Journal of Systems Architecture,?2021. https://doi.org/10.1016/j.sysarc.2020.101861 

  8. Moosavi-Dezfooli, Seyed-Mohsen, Alhussein Fawzi,?and Pascal Frossard. "Deepfool: a simple and accurate?method to fool deep neural networks", Proceedings of?the IEEE conference on computer vision and pattern?recognition, pp.2574-2582, 2016.?https://openaccess.thecvf.com/content_cvpr_2016/html/Moosavi-Dezfooli_DeepFool_A_Simple_CVPR_2016_paper.html 

  9. Papernot, N., McDaniel, P., Jha, S., Fredrikson, M.,?Celik, Z. B., & Swami, A. "The limitations of deep?learning in adversarial settings", 2016 IEEE European?symposium on security and privacy (EuroS&P), pp.?372-387, 2016.?https://ieeexplore.ieee.org/document/7467366 

  10. Chen, P. Y., Zhang, H., Sharma, Y., Yi, J., & Hsieh,?C. J. "Zoo: Zeroth order optimization based black-box?attacks to deep neural networks without training?substitute models", Proceedings of the 10th ACM?workshop on artificial intelligence and security, pp.?15-26, 2017. https://doi.org/10.1145/3128572.3140448 

  11. Carlini, N., & Wagner, D. "Towards evaluating the?robustness of neural networks," 2017 ieee symposium?on security and privacy (sp), pp. 39-57, 2017.?https://ieeexplore.ieee.org/document/7958570 

  12. Madry, A., Makelov, A., Schmidt, L., Tsipras, D., &?Vladu, A. "Towards deep learning models resistant to?adversarial attacks", arXiv preprint arXiv:1706.06083,?2017. https://doi.org/10.48550/arXiv.1706.06083 

  13. Gunning, D., & Aha, D. "DARPA's explainable?artificial intelligence (XAI) program", AI magazine,?Vol.40, No.2, pp.44-58, 2019.?https://doi.org/10.1609/aimag.v40i2.2850 

  14. Ribeiro, Marco Tulio, Sameer Singh, and Carlos?Guestrin. " "Why should i trust you?" Explaining the?predictions of any classifier", Proceedings of the 22nd?ACM SIGKDD international conference on knowledge?discovery and data mining, pp.1135-1144, 2016.?https://doi.org/10.1145/2939672.2939778 

  15. Lundberg, Scott M., and Su-In Lee. "A unified?approach to interpreting model predictions", Advances?in neural information processing systems, Vol.30,?2017.?https://proceedings.neurips.cc/paper/2017/hash/8a20a8621978632d76c43dfd28b67767-Abstract.html 

  16. Han, D., Wang, Z., Chen, W., Zhong, Y., Wang, S.,?Zhang, H., ... & Yin, X. "DeepAID: interpreting and?improving deep learning-based anomaly detection in?security applications", Proceedings of the 2021 ACM?SIGSAC Conference on Computer and?Communications Security, pp. 3197-3217, 2021.?https://doi.org/10.1145/3460120.3484589 

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로