$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

정보보호 분야의 XAI 기술 동향 원문보기

情報保護學會誌 = KIISC review, v.31 no.5, 2021년, pp.21 - 31  

김홍비 (호서대학교 정보보호학과) ,  이태진 (호서대학교 정보보호학과)

초록
AI-Helper 아이콘AI-Helper

컴퓨터 기술의 발전에 따라 ML(Machine Learning) 및 AI(Artificial Intelligence)의 도입이 활발히 진행되고 있으며, 정보보호 분야에서도 활용이 증가하고 있는 추세이다. 그러나 이러한 모델들은 black-box 특성을 가지고 있으므로 의사결정 과정을 이해하기 어렵다. 특히, 오탐지 리스크가 큰 정보보호 환경에서 이러한 문제점은 AI 기술을 널리 활용하는데 상당한 장애로 작용한다. 이를 해결하기 위해 XAI(eXplainable Artificial Intelligence) 방법론에 대한 연구가 주목받고 있다. XAI는 예측의 해석이 어려운 AI의 문제점을 보완하기 위해 등장한 방법으로 AI의 학습 과정을 투명하게 보여줄 수 있으며, 예측에 대한 신뢰성을 제공할 수 있다. 본 논문에서는 이러한 XAI 기술의 개념 및 필요성, XAI 방법론의 정보보호 분야 적용 사례에 설명한다. 또한, XAI 평가 방법을 제시하며, XAI 방법론을 보안 시스템에 적용한 경우의 결과도 논의한다. XAI 기술은 AI 판단에 대한 사람 중심의 해석정보를 제공하여, 한정된 인력에 많은 분석데이터를 처리해야 하는 보안담당자들의 분석 및 의사결정 시간을 줄이는데 기여할 수 있을 것으로 예상된다.

AI 본문요약
AI-Helper 아이콘 AI-Helper

문제 정의

  • 이에 AI에 해석가능성을 제공하기 위해 XAI 방법이 주목받고 있지만 아직 보안 분야에서의 XAI 기술의 적용 사례가 많이 출현하지 않은 상황이다. 본 논문에서는 XAI 개념 및 필요성, 정보보호 분야에서의 XAI 방법론 적용 사례, 평가 방법에 대해 소개하였다. 본 논문에서 소개한 XAI 방법론 및 결과를 통해 향후 보안 분야에서 AI 기술 도입 시 신뢰성에 도움을 줄 수 있을 것이라고 기대한다.
본문요약 정보가 도움이 되었나요?

참고문헌 (29)

  1. C. Beek. et al, "McAfee Labs Threat Report August 2019," Mcfee Labs. rep. 2019. 

  2. 하연 편집부, 설명가능한 인공지능(XAI) 기술 동향과 데이터 산업의 시장 전망. 하연. 2021. 

  3. D. Gunning and D. Aha. "DARPA's explainable artificial intelligence (XAI) program." AI Magazine. 40(2). Jun. 2019. 

  4. W. Samek, T. Wiegand, and KR. Muller. "Explainable artificial intelligence: Understanding, visualizing and interpreting deep learning models." arXiv preprint arXiv:1708.08296. Aug. 2017. 

  5. A. Das, and P. Rad. "Opportunities and challenges in explainable artificial intelligence (xai): A survey." arXiv preprint arXiv:2006.11371. Jun. 2020. 

  6. AB. Arrieta, et al. "Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI." Information Fusion. 58. pp. 82-115. Dec. 2019. 

  7. J. Vaughan, et al. "Explainable neural networks based on additive index models." arXiv preprint arXiv:1806.01933. Jun. 2018. 

  8. Z. Xi, and G. Panoutsos. "Interpretable Convolutional Neural Networks Using a Rule-Based Framework for Classification." Intelligent Systems: Theory, Research and Innovation in Applications. 864. 2020. 

  9. A. Mills, T. Spyridopoulos and P. Legg. "Efficient and interpretable real-time malware detection using random-forest." 2019 International conference on cyber situational awareness, data analytics and assessment (Cyber SA). IEEE, pp. 1-8. Nov. 2019. 

  10. S. Bach, et al. "On pixel-wise explanations for non-linear classifier decisions by layer-wise relevance propagation." PloS one. 10(7). July. 2015. 

  11. A. Kuppan, and NA. Le-Khac. "Black box attacks on explainable artificial intelligence (XAI) methods in cyber security." 2020 International Joint Conference on Neural Networks (IJCNN). IEEE, pp. 1-8. Sep. 2020. 

  12. B. Zhou, et al. "Learning deep features for discriminative localization." Proceedings of the IEEE conference on computer vision and pattern recognition. pp. 2921-2929. Dec. 2016. 

  13. G. Iadarola, et al. "Evaluating deep learning classification reliability in android malware family detection." 2020 IEEE International Symposium on Software Reliability Engineering Workshops (ISSREW). IEEE, pp. 255-260. Oct. 2020. 

  14. MT. Ribeiro, S. Singh, and C. Guestrin. ""Why should i trust you?" Explaining the predictions of any classifier." Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. pp. 1135-1144. Feb. 2016. 

  15. M. Kinkead, et al. "Towards Explainable CNNs for Android Malware Detection." Procedia Computer Science. 184. pp. 959-965. Mar. 2021. 

  16. LS. Shapley. "17. A value for n-person games." Princeton University Press, 2016. 

  17. SM, Lundberg and S. Lee. "A unified approach to interpreting model predictions." Proceedings of the 31st international conference on neural information processing systems. pp.4768-4777. May. 2017. 

  18. M. Wang, et al, "An explainable machine learning framework for intrusion detection systems," IEEE Access, 8, pp. 73127-73141, Apr. 2020, 

  19. H. Kim, et al. "Cost-Effective Valuable Data Detection Based on the Reliability of Artificial Intelligence." IEEE Access. pp. 108959-108974. Sept, 2021. 

  20. A. Warnecke, et al. "Evaluating explanation methods for deep learning in security." 2020 IEEE European Symposium on Security and Privacy (EuroS&P). IEEE, pp. 158-174. Sept. 2020. 

  21. K. Grosse, et al. "Adversarial examples for malware detection." European symposium on research in computer security. Springer, Cham, pp. 62-79. Aug. 2017. 

  22. W. Guo, et al. "Lemna: Explaining deep learning based security applications." Proceedings of the 2018 ACM SIGSAC Conference on Computer and Communications Security. pp. 364-379. Oct. 2018. 

  23. N. McLaughlin, et al. "Deep android malware detection." Proceedings of the seventh ACM on conference on data and application security and privacy. pp. 301-308. Mar. 2017. 

  24. Z. Li, et al. "Vuldeepecker: A deep learning-based system for vulnerability detection." arXiv preprint arXiv:1801.01681. Jan. 2018. 

  25. A. Daniel, et al. "Drebin: Efficient and explainable detection of android malware in your pocket"." Proceedings of 21th Annual Network and Distributed System Security Symposium (NDSS). Feb. 2014. 

  26. C. Smutz, and A. Stavrou. "Malicious PDF detection using metadata and structural features." Proceedings of the 28th annual computer security applications conference. pp. 239-248. Dec. 2012. 

  27. Y. Zhou, and X. Jiang. "Dissecting android malware: Characterization and evolution." 2012 IEEE symposium on security and privacy. IEEE, pp. 95-109. May. 2012. 

  28. S. Hochreiter, and J. Schmidhuber. "Long short-term memory." Neural computation. 9(8). Nov. 1997. 

  29. T. Mikolov, et al. "Efficient estimation of word representations in vector space." arXiv preprint arXiv:1301.3781. Sep. 2013 

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로