$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 적대적 회피 공격에 대응하는 안전한 자율주행 자동차 시스템
Secure Self-Driving Car System Resistant to the Adversarial Evasion Attacks 원문보기

情報保護學會論文誌 = Journal of the Korea Institute of Information Security and Cryptology, v.33 no.6, 2023년, pp.907 - 917  

이승열 (호서대학교) ,  이현로 (호서대학교) ,  하재철 (호서대학교)

초록
AI-Helper 아이콘AI-Helper

최근 자율주행 자동차는 운전자 지원 시스템에 딥러닝 기술을 적용하여 운전자에게 편의성을 제공하고 있지만, 딥러닝 기술이 적대적 회피 공격(adversarial evasion attacks)에 취약함이 밝혀졌다. 본 논문에서는 객체 인식 알고리즘인 YOLOv5(You Only Look Once)를 대상으로 MI-FGSM (Momentum Iterative-Fast Gradient Sign Method)를 포함한 5가지 적대적 회피 공격을 수행하였으며 객체 탐지 성능을 mAP(mean Average Precision)로 측정하였다. 특히, 본 논문에서는 모폴로지 연산을 적용하여 적대적 공격으로부터 노이즈를 제거하고 경계선을 추출하여 YOLO가 객체를 정상적 탐지할 수 있는 방안을 제안하고 이를 실험을 통해 그 성능을 분석하였다. 실험 결과, 적대적 공격을 수행했을 때 YOLO의 mAP가 최소 7.9%까지 떨어져 YOLO가 객체를 정확하게 탐지하지 못하는 것을 87.3%까지 성능을 개선하였다.

Abstract AI-Helper 아이콘AI-Helper

Recently, a self-driving car have applied deep learning technology to advanced driver assistance system can provide convenience to drivers, but it is shown deep that learning technology is vulnerable to adversarial evasion attacks. In this paper, we performed five adversarial evasion attacks, includ...

Keyword

표/그림 (13)

AI 본문요약
AI-Helper 아이콘 AI-Helper

문제 정의

  • 본 논문에서 모폴로지 연산을 적용하여 YOLO로 부터 적대적 회피 공격을 대응하는 기법을 제안한다. 모폴로지 연산을 활용한 적대적 회피 공격을 방어하는 수식은 다음과 같다.
  • 본 논문에서는 카메라 이미지에 대한 객체 인식 알고리듬 YOLO에 섭동을 추가하는 방식으로 적대적 회피 공격을 시도하는 실험을 진행하였다. 실험 결과 대부분의 적대적 회피 공격 기법들은 낮은 mAP 값을 가짐으로써 오분류 가능성이 매우 크다는 것을 확인하였다.
본문요약 정보가 도움이 되었나요?

참고문헌 (22)

  1. I. Goodfellow, J. Shlens and C.?Szegedy, "Explaining and Harnessing?Adversarial Examples," In International Conference on Learning?Representations(ICLR'15), pp. 7-9,?Mar. 2015. 

  2. N. Akhtar and A. Mian, "Threat of?adversarial attacks on deep learning in computer vision: A survey," IEEE Access, Vol. 6, pp. 14410-14430, Feb.2018. 

  3. N. Carlini and D. Wagner. "Towards evaluating the robustness of neural?networks," IEEE Symposium on Security and Privacy(SP'17), pp. 39-57, Jun. 2017. 

  4. W. Zhao, S. Alwidian and Q.H. Mahmoud, "Adversarial Training Methods for Deep Learning: A Systematic Review," Journal of?Algorithms, Vol. 15, Issue 8(283), Aug. 2022. 

  5. N. Papernot, P. McDaniel, X. Wu, S. Jha and A. Swami, "Distillation as a defense to adversarial perturbations against deep neural networks," IEEE Symposium on Security and Privacy(SP'16), pp. 582-597, Aug. 2016. 

  6. S. Zheng, Y. Song, T. Leung and I. Goodfellow, "Improving the robustness of deep neural networks via stability training," IEEE Conference on Computer Vision and Pattern Recognition(CVPR'16), pp. 4480-4488,2016 

  7. W. Xu, D. Evans, and Y. Qi, "Feature squeezing: Detecting adversarial examples in deep neural networks,"?Network and Distributed System Security Symposium(NDSS'18), pp.1-15, Feb. 2018. 

  8. Y. Lee and Y. Kim, "Comparison of?CNN and YOLO for Object Detection, "Journal of the semiconductor &display technology, Vol. 19. No. 1, pp.85-92, Mar. 2020. 

  9. J. Redmon, S. Divvala, R. Cirshick and A. Farhadi, "You only look once: Unified, real-time object detection," IEEE Conference on Computer Vision?and Pattern Recognition(CVPR'16),?pp. 779-788, 2016. 

  10. Y. Zhang, Z. Guo, J. Wu, Y. Tian H.?Tang and X. Guo, "Real-Time Vehicle?Detection Based on Improved?YOLOv5," J. of Sustainability, Vol.?14, Issue 19, pp. 1-19, Sep. 2022 

  11. T. Mostafam, J. Chowdhury, K.?Rhaman and R. Alam. "Occluded?Object Detection for Autonomous?Vehicles Employing YOLOv5, YOLOX?and Faster R-CNN," Proceedings of?the IEEE conference on Information?Technology,Electronics and Mobile?Communication Conference, pp.?0405-0410, Oct. 2022 

  12. Y. Dong, F. Liao, T. Pang and H. su,?J. Zhu, X. Hu and J. Li, "Boosting?adversarial attacks with momentum,"?Proceedings of the IEEE conference?on computer vision and pattern?recognition. pp. 9185-9193, Jun. 2018. 

  13. A. Madry, A. Makelov, L. Schmidt, D.?Tsipras, and A. Vladu, "Towards deep?learning models resistant to?adversarial attacks," In International?Conference on Learning?Representations(ICLR'18), 2018. 

  14. S. Moosavi-Dezfooli, A. Fawzi, and P.?Frossard. "Deepfool: a simple and?accurate method to fool deep neural?networks," IEEE Conference on?Computer Vision and Pattern?Recognition(CVPR'16), pp. 2574-2582,?Jun. 2016 

  15. X. Liu, Y. LI, C. Wu and C.J. Hsieh,?"ADV-BNN:Improved adversarial?defense through robust Bayesian?neural network," In International?Conference on Learning?Representations(ICLR'19), pp. 1-13,?May. 2019. 

  16. A. Athalye, N. Carilni and D. Wagner, "Obfuscated gradients give a false sense of security: Circumventing defenses to adversarial examples, "Proceedings of the 35th International?Conference on Machine Learning(ICML'18), pp. 274-283, 2018. 

  17. Akhtar, Naveed, and M. Ajmal. "Threat of adversarial attacks on deep learning in computer vision,"?Proceedings of the IEEE conference, Vol. 6, pp. 14410-14430, Feb. 2018 

  18. P. Samangouei, M. Kabcab and R. Chellappa, "Defense-gan:Protecting classifiers against adversarial attacksusing generative models," Proceedings of ICLR, pp. 1-17, May. 2018. 

  19. M. Dongyu and C. Hao. "Magnet:two-pronged defense against adversarial?examples," Proceedings of the ACMSIGSAC, pp. 135-147, Oct. 2017. 

  20. A.N. Evans and X.U. Liu, "A morphological gradient approach tocolor edge detection," IEEE Trans. on Image Processing, Vol. 15, No. 6, pp.1454-1463, May. 2006. 

  21. T.U. Lin, M. Maire, S. Belongie, J. Hays, P. Perona, D. Ramanan, P. Dollar, and C.L. Zitnick, "Microsoft coco: Common objects in context," In European Conference on Computer Vision, Vol. 8693, pp. 740-755, Sep.2014. 

  22. J. Choi and A. Tian, "Adversarial?attack and defense of YOLO detectors in autonomous driving scenarios, "IEEE Intelligent Vehicles Symposium(IV), pp. 1011-1017, Jul. 2022. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로