$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

Evasion attack에 대한 인공지능 보안이슈 원문보기

정보과학회지 = Communications of the Korean Institute of Information Scientists and Engineers, v.36 no.2 = no.345, 2018년, pp.32 - 36  

권현 (한국과학기술원) ,  윤현수 (한국과학기술원) ,  최대선 (공주대학교)

초록이 없습니다.

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 따라서 이 논문에서는 딥 뉴럴 네트워크의 보안 문제인 Evasion attack에 대한 내용을 다루고자 한다. 이 논문의 구성은 2장에서는 Evasion attack의 생성방법을 소개흐卜고, 3장에서는 Evasion attack의 생성원리를 설명한다.
  • 특히, 인공지능 기술 중에 최근 이미지 인식, 음성인식, 패턴 분석 등에 좋은 성능을 갖는 딥 뉴럴네트워크가 많이 사용되고 있는 추세이다. 논문에서는 이러한 딥뉴럴 네트워크에 큰 위협이 되는 Evasion attack에 대한 전반적인 공격 내용을 다루었다. 앞으로 딥러닝 기술을 많이 활용되는 이 시점에서, Evasion attack 공격연구뿐만 아니라 Evasion attack에 대응하는 다양한 방어연구가 필요하다.
본문요약 정보가 도움이 되었나요?

참고문헌 (15)

  1. Schmidhuber, Jurgen. "Deep learning in neural networks: An overview." Neural Networks 61 85-117, 2015 

  2. Karen Simonyan and Andrew Zisserman. Very deep convolutional networks for large-scale image recognition. In International Conference on Learning Representations, 2015. 

  3. Hinton, Geoffrey, et al. "Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups." IEEE Signal Processing Magazine 29:6 82-97, 2012 

  4. Potluri, Sasanka, and Christian Diedrich. "Accelerated deep neural networks for enhanced Intrusion Detection System." 2016 IEEE 21st International Conference on Emerging Technologies and Factory Automation, 2016. 

  5. Bishop, Christopher M. Neural networks for pattern recognition. Oxford university press, 1995. 

  6. Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow, and Rob Fergus. Intriguing properties of neural networks. In International Conference on Learning Representations, 2014. 

  7. Papernot, Nicolas, Patrick McDaniel, and Ian Goodfellow. "Transferability in machine learning: from phenomena to black-box attacks using adversarial samples." arXiv preprint arXiv : 1605.0 7277, 2016. 

  8. Papernot, Nicolas, et al. "Distillation as a defense to adversarial perturbations against deep neural networks." Security and Privacy (SP), 2016 IEEE Symposium on. IEEE, 2016. 

  9. Papernot, Nicolas, et al. "The limitations of deep learning in adversarial settings." 2016 IEEE European Symposium on Security and Privacy, 2016. 

  10. Moosavi-Dezfooli, Seyed-Mohsen, Alhussein Fawzi, and Pascal Frossard. "Deepfool: A simple and accurate method to fool deep neural networks." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016. 

  11. Carlini, Nicholas, and David Wagner. "Towards evaluating the robustness of neural networks." 2017 IEEE Symposium on Security and Privacy, 2017. 

  12. Papernot, Nicolas, et al. "Practical black-box attacks against machine learning." Proceedings of the 2017 ACM on Asia Conference on Computer and Communications Security. ACM, 2017. 

  13. Ian Goodfellow, Jonathon Shlens, and Christian Szegedy. Explaining and harnessing adversarial examples. In International Conference on Learning Representations, 2015. 

  14. Yanpei Liu, Xinyun Chen, Chang Liu, and Dawn Song. Delving into transferable adversarial examples and black-box attacks. ICLR, abs/1611.02770, 2017. 

  15. Alexey Kurakin, Ian Goodfellow, and Samy Bengio. Adversarial examples in the physical world. ICLR Workshop, 2017. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로