$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 완전 무인 매장의 AI 보안 취약점: 객체 검출 모델에 대한 Adversarial Patch 공격 및 Data Augmentation의 방어 효과성 분석
AI Security Vulnerabilities in Fully Unmanned Stores: Adversarial Patch Attacks on Object Detection Model & Analysis of the Defense Effectiveness of Data Augmentation

情報保護學會論文誌 = Journal of the Korea Institute of Information Security and Cryptology, v.34 no.2, 2024년, pp.245 - 261  

이원호 (숭실대학교) ,  나현식 (숭실대학교) ,  박소희 (숭실대학교) ,  최대선 (숭실대학교)

초록
AI-Helper 아이콘AI-Helper

코로나19 팬데믹으로 인해 비대면 거래가 보편화되면서, 완전 무인 매장의 증가 추세가 두드러지고 있다. 이러한 매장에서는 모든 운영 과정이 자동화되어 있으며, 주로 인공지능 기술이 적용된다. 그러나 이러한 인공지능기술에는 여러 보안 취약점이 존재하고, 이러한 취약점들은 완전 무인 매장 환경에서 치명적으로 작용할 수 있다. 본 논문은 인공지능 기반의 완전 무인 매장이 직면할 수 있는 보안 취약점을 분석하고, 특히 객체 검출 모델인 YOLO에 초점을 맞추어, 적대적 패치를 활용한 Hiding Attack과 Altering Attack이 가능함을 보인다. 이러한 공격으로 인해, 적대적 패치를 부착한 객체는 검출 모델에 의해 인식되지 않거나 다른 객체로 잘못 인식될 수 있다는 것을 확인한다. 또한, 보안 위협을 완화하기 위해 Data Augmentation 기법이 적대적 패치 공격에 어떠한 방어 효과를 주는지 분석한다. 우리는 이러한 결과를 토대로 완전 무인 매장에서 사용되는 인공지능 기술에 내재된 보안 위협에 대응하기 위한 적극적인 방어 연구의 필요성을 강조한다.

Abstract AI-Helper 아이콘AI-Helper

The COVID-19 pandemic has led to the widespread adoption of contactless transactions, resulting in a noticeable increase in the trend towards fully unmanned stores. In such stores, all operational processes are automated, primarily using artificial intelligence (AI) technology. However, this AI tech...

주제어

표/그림 (11)

AI 본문요약
AI-Helper 아이콘 AI-Helper

문제 정의

  • 완전 무인 매장 시스템에서 사용되는 여러 인공지능 모델 중에서 객체 검출 모델은 특히 적대적 패치에 취약함을 보인다[40]. 따라서, 본 논문은 객체 검출 모델을 대상으로 적대적 패치 공격을 수행하고자 한다. 공격 목표는 객체를 없는 것으로 오인식하도록 하는 Hiding Attack과 다른 객체로 오분류 하도록 하는 Altering Attack으로 실험을 진행하였다.
  • 본 논문에서는 상품의 데이터 세트에 대해 Data Augmentation 기법을 적용하고 이에 따른 적대적 패치 공격에 대한 견고성을 분석하고자 하였다. Imgaug[46] 라이브러리를 사용하여 모델을 학습시켰다.
  • 본 논문은 완전 무인 매장 사례들을 조사하고, 발생할 수 있는 취약점을 분석한다. 그리고 적대적 패치를 활용한 완전 무인 매장 공격을 수행하여 어떠한 문제를 일으킬 수 있는지를 보임과 동시에 Data Augmentation 기법에 대해 적대적 패치 공격의 방어 효과가 있는지 분석한다.

가설 설정

  • 4.1.2에서 디지털 환경에서의 적대적 패치 공격의 경우 공격자가 훈련 데이터에 대한 접근이 가능하다고 가정하였다. 이에 따라 디지털 환경에서는 훈련 데이터를 기반으로 적대적 패치를 생성하고 이를 학습에 사용하지 않은 데이터(test data)에 무작위 위치에 부착하고 학습한 YOLO 객체 탐지 모델에 입력하는 방식으로 공격을 수행하였다.
  • 본 논문에서는 공격자가 공격 대상 모델(target model)에 대한 매개변수(parameters), 구조(architecture), 가중치(weight) 등의 모든 정보를 알고 있다고 가정하는 White-box Attack을 수행하였다. 디지털 환경과 물리적 환경으로 구분하여 공격자의 지식을 더 구체적으로 설정하여 실험을 진행했다.
  • 우선 디지털 환경에서는 훈련 데이터에 대한 접근이 가능하다고 가정하여 데이터에 기반하여 적대적 패치를 생성할 수 있도록 하였다. 반면, 물리적 환경에서는 매장의 선반 색상, 조명, 배경 등 실제 완전 무인 매장의 환경적 요인을 사전에 고려하면서 패치를 생성할 수 없다는 현실적인 제약이 존재한다.
본문요약 정보가 도움이 되었나요?

참고문헌 (48)

  1. Amazon Technologies, Inc., "Transitioning items from a materials-handling facility," US 2015/0012396A1, Jan. 2015. 

  2. FaindersAI, "FaindersAI" https://fainder.ai/, Oct. 2023. 

  3. SuperSwift, "SuperSwift" https://www.youtube.com/watch?vVJSlS3ujdEo, Jan. 2024. 

  4. T.B. Brown, D. Mane, A. Roy, M.Abadi, and J. Gilmer, "Adversarial?patch," arXiv preprint arXiv:1712.09665, 2017. 

  5. D. Karmon, D. Zoran, and Y. Goldberg, "Lavan: Localized and visible adversarial noise," International Conference on Machine Learning, pp. 2507-2515, July. 2018. 

  6. A. Chindaudom, P. Siritanawan, K. Sumongkayothin, and K. Kotani, "AdversarialQR: An adversarial patch in QR code format," 2020 Joint 9th International Conference on Informatics, Electronics & Vision (ICIEV) and 2020 4th International Conference on Imaging, Vision & Pattern Recognition (icIVPR), IEEE, pp. 1-6, Aug. 2020. 

  7. A. Liu, X. Liu, J. Fan, Y. Ma, A.Zhang, H. Xie, and D. Tao, "Perceptual-sensitive GAN for generating adversarial patches," Proceedings of the AAAI Conference on Artificial Intelligence, vol. 33, no. 01, pp. 1028-1035, July. 2019. 

  8. X. Zhou, Z. Pan, Y. Duan, J. Zhang,?and S. Wang, "A data independent?approach to generate adversarial?patches," Machine Vision and?Applications, vol. 32, no. 3 pp. 1-9,?2021. 

  9. A. Madry, A. Makelov, L. Schmidt, D.?Tsipras, and A. Vladu, "Towards deep?learning models resistant to?adversarial attacks," arXiv preprint?arXiv:1706.06083, 2017. 

  10. S. Hoory, T. Shapira, A. Shabtai, and?Y. Elovici, "Dynamic adversarial patch?for evading object detection models,"?arXiv preprint arXiv:2010.13070, 2020. 

  11. K. Wankhede, B. Wukkadada, and V.?Nadar, "Just walk-out technology and?its challenges: A case of Amazon Go,"?2018 International Conference on?Inventive Research in Computing?Applications (ICIRCA), IEEE, pp.?254-257, July. 2018. 

  12. Spharos, "Spharos" https://shinsegae-inc.com/business/spharos/info.do, Mar.?2023. 

  13. StandardAi, "StandardAi" https://standard.ai/, Jul.2023. 

  14. AIFI, "AIFI" https://aifi.com/, Jul.?2023. 

  15. C. Szegedy, W. Zaremba, I.?Sutskever, J. Bruna, D. Erhan, I.?Goodfellow, and R. Fergus, "Intriguing?properties of neural networks," arXiv?preprint arXiv:1312.6199, 2013. 

  16. I.J. Goodfellow, J. Shlens, and C.?Szegedy, "Explaining and harnessing?adversarial examples," arXiv preprint?arXiv:1412.6572, 2014. 

  17. S.M. Moosavi-Dezfooli, A. Fawzi, and P.?Frossard, "Deepfool: A simple and?accurate method to fool deep neural?networks," Proceedings of the IEEE?Conference on Computer Vision and?Pattern Recognition, pp. 2574-2582, 2016. 

  18. N. Carlini and D. Wagner, "Towards evaluating the robustness of neural?networks," 2017 IEEE Symposium on Security and Privacy (SP), IEEE, pp. 39-57, May. 2017. 

  19. A. Kurakin, I.J. Goodfellow, and S. Bengio, "Adversarial examples in the physical world," Artificial Intelligence Safety and Security, Chapman and Hall/CRC, pp. 99-112, 2018. 

  20. K. Nguyen, T. Fernando, C. Fookes, and S. Sridharan, "Physical adversarial attacks for surveillance: A Survey," IEEE Transactions on Neural?Networks and Learning Systems,2023. 

  21. A. Liu, X. Liu, J. Fan, Y. Ma, A.Zhang, H. Xie, and D. Tao, "Perceptual-sensitive gan for generating adversarial patches," Proceedings of the AAAI Conference on Artificial Intelligence, vol. 33, no. 1,pp. 1028-1035, July. 2019. 

  22. O. Gafni, L. Wolf, and Y. Taigman, "Live face de-identification in video,"?Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 9378-9387, 2019. 

  23. M. Sharif, S. Bhagavatula, L. Bauer, and M.K. Reiter, "A general framework for adversarial examples with objectives," ACM Transactions on Privacy and Security (TOPS), vol. 22, no. 3, 2019. 

  24. J. Deng, J. Guo, N. Xue, and S. Zafeiriou, "Arcface: Additive angular margin loss for deep face recognition,"?Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 4690-4699,2019. 

  25. G. Ryu, H. Park, and D. Choi, "Adversarial attacks by attaching noise markers on the face against deep face recognition," Journal of?Information Security and Applications, vol. 60, 102874, 2021. 

  26. X. Liu, H. Yang, Z. Liu, L. Song, H.?Li, and Y. Chen, "DPatch: An?adversarial patch attack on object?detectors," arXiv preprint arXiv:1806.?02299, 2018. 

  27. S. Ren, K. He, R. Girshick, and J.?Sun, "Faster R-CNN: Towards?real-time object detection with region?proposal networks," Advances in?Neural Information Processing Systems,?vol. 28, 2015. 

  28. J. Redmon, S. Divvala, R. Girshick,?and A. Farhadi, "You only look once:?Unified, real-time object detection,"?Proceedings of the IEEE Conference?on Computer Vision and Pattern?Recognition, pp. 779-788, 2016. 

  29. Y. Zhao, H. Yan, and X. Wei, "Object?hider: Adversarial patch attack?against object detectors," arXiv?preprint arXiv:2010.14974, 2020. 

  30. J. Wang, X. Long, Y. Gao, E. Ding,?and S. Wen, "Graph-PCNN: Two?stage human pose estimation with?graph pose refinement," Computer?Vision-ECCV 2020: 16th European?Conference, Glasgow, UK, August 23?-28, 2020, Proceedings, Springer?International Publishing, Part XI 16,?pp. 492-508, 2020. 

  31. H. Ma, Z. Wang, Y. Chen, D. Kong,?L. Chen, X. Liu, ... & X. Xie, "PPT:?Token-pruned pose transformer for?monocular and multi-view human pose?estimation," European Conference on?Computer Vision, Springer Nature?Switzerland, pp. 424-442, Oct. 2022. 

  32. Y. Xu, J. Zhang, Q. Zhang, and D.?Tao, "VitPose: Simple vision transformer baselines for human pose?estimation," Advances in Neural?Information Processing Systems, vol.35, pp. 38571-38584, 2022. 

  33. R. Girshick, "Fast R-CNN," Proceedings of the IEEE International Conference on Computer Vision, pp. 1440-1448, 2015. 

  34. L. Pishchulin, E. Insafutdinov, S. Tang, B. Andres, M. Andriluka, P. V. Gehler, and B. Schiele, "DeepCut: Joint subset partition and labeling for multi person pose estimation,"?Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 4929-4937, 2016. 

  35. Z. Luo, Z. Wang, Y. Huang, L. Wang, T. Tan, and E. Zhou, "Rethinking the heatmap regression for bottom-up human pose estimation," Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 13264-13273, 2021. 

  36. S. Thys, W. Van Ranst, and T. Goedeme, "Fooling automated surveillance cameras: Adversarial?patches to attack person detection,"?Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, 2019. 

  37. J. Redmon and A. Farhadi,"YOLO9000: Better, faster, stronger,"?Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 7263-7271, 2017. 

  38. Y.C.T. Hu, B.H. Kung, D.S. Tan, J.C. Chen, K.L. Hua, and W.H. Cheng, "Naturalistic physical adversarial?patch for object detectors," Proceedings of the IEEE/CVF International?Conference on Computer Vision, pp.7848-7857, 2021. 

  39. I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair,and Y. Bengio, "Generative adversarial?nets," Advances in Neural Information Processing Systems, vol. 27, 2014. 

  40. D. Wang, W. Yao, T. Jiang, G. Tang,?and X. Chen, "A survey on physical?adversarial attack in computer vision,"?arXiv preprint arXiv:2209.14262, 2022. 

  41. D. Hasler and S.E. Suesstrunk,?"Measuring colorfulness in natural?images," Human Vision and Electronic?Imaging VIII, SPIE, vol. 5007, pp.?87-95, June. 2003. 

  42. A. Chambolle, "An algorithm for total?variation minimization and applications,"?Journal of Mathematical Imaging and?Vision, vol. 20, pp. 89-97, 2004. 

  43. M. Sharif, S. Bhagavatula, L. Bauer, and?M.K. Reiter, "Accessorize to a crime: Real?and stealthy attacks on state-of-the-art?face recognition," Proceedings of the 2016?ACM SIGSAC Conference on Computer?and Communications Security, pp.?1528-1540, Oct. 2016. 

  44. Roboflow, "Snacks" https://universe.roboflow.com/korea-nazarene-university/snacks-kwjcc/dataset/1, May. 2023 

  45. Github, "Yolov5" https://github.com/ultralytics/yolov5, Mar. 2023 

  46. Github, "imgaug" https://github.com/aleju/imgaug, Nov. 2023 

  47. R.R. Selvaraju, M. Cogswell, A. Das, R. Vedantam, D. Parikh, and D. Batra, "Grad-cam: Visual explanations from deep networks via gradient-based localization," Proceedings of the IEEE International Conference on Computer Vision, pp. 618-626, 2017. 

  48. H. Ma, K. Xu, X. Jiang, Z. Zhao, and T. Sun, "Transferable black-box attack against face recognition with spatial mutable adversarial patch,"?IEEE Transactions on Information Forensics and Security, 2023. 

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로