$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

Intrusion Detection System based on Packet Payload Analysis using Transformer 원문보기

韓國컴퓨터情報學會論文誌 = Journal of the Korea Society of Computer and Information, v.28 no.11, 2023년, pp.81 - 87  

Woo-Seung Park (Dept. of Defense Science, Korea National Defense University) ,  Gun-Nam Kim (Dept. of Defense Science, Korea National Defense University) ,  Soo-Jin Lee (Dept. of Defense Science, Korea National Defense University)

초록
AI-Helper 아이콘AI-Helper

네트워크 패킷메타데이터를 학습한 침입탐지시스템이 최근 많이 제안되었다. 그러나 이러한 방식은 모델 학습에 사용할 메타데이터 생성을 위해 패킷을 분석하는 시간, 그리고 학습 전 메타데이터를 전처리하는 시간이 필요하다. 또한, 특정 메타데이터를 학습한 모델은 실제 네트워크로 유입되는 원본 패킷을 그대로 사용하여 침입을 탐지하는 것이 불가능하다. 이러한 문제를 해결하기 위해 본 논문에서는 패킷 페이로드를 하나의 문장으로 학습시켜 침입을 탐지하는 자연어 처리 기반의 침입탐지시스템을 제안하였다. 제안하는 기법의 성능 검증을 위해 UNSW-NB15와 Transformer 모델을 활용하였다. 먼저, 데이터세트PCAP 파일에 대한 라벨링을 실시한 후 2종의 Transformer 모델(BERT, DistilBERT)에 문장 형태로 직접 학습시켜 탐지성능을 분석하였다. 실험 결과 이진분류 정확도는 각각 99.03%, 99.05%로 기존 연구에서 제안한 기법들과 유사하거나 우수한 탐지성능을 보였으며, 다중분류는 각각 86.63%, 86.36%로 더 우수한 성능을 나타냄을 확인하였다.

Abstract AI-Helper 아이콘AI-Helper

Intrusion detection systems that learn metadata of network packets have been proposed recently. However these approaches require time to analyze packets to generate metadata for model learning, and time to pre-process metadata before learning. In addition, models that have learned specific metadata ...

주제어

표/그림 (9)

AI 본문요약
AI-Helper 아이콘 AI-Helper

문제 정의

  • 또한, 특정 메타데이터를 학습한 모델은 다른 특성을 가지는 패킷을 탐지하지 못한다는 한계를 가진다. 이러한 문제점을 해결하기 위해 본 논문에서는 네트워크로 유입되는 패킷에서 페이로드를 추가적인 변환과정 없이 하나의 문장으로 학습시키는 자연어 처리 모델 기반의 침입탐지시스템을 제안하였다.
  • 자연어 처리 모델은 텍스트 데이터 문장의 구조와 의미를 파악하여 효과적인 분류를 수행할 수 있어 최근 많은 연구에서 활용되고 있다. 이러한 장점을 활용하여 본 논문에서는 패킷 페이로드를 하나의 문장으로 직접 Transformer 모델에 학습시켜 침입을 탐지하는 방안을 제안하였다.
본문요약 정보가 도움이 되었나요?

참고문헌 (21)

  1. Gun-Nam Kim, Han-Seok Kim and Soo-Jin Lee, "Intrusion?Detection System based on Packet Payload Analysis using?LightGBM" Journal of The Korea Society of Computer and?Information, vol. 28(6), pp 47-54, Jun 2023 DOI: 10.9708/jksci.2023.28.06.047 

  2. N. Moustafa and J. Slay, "UNSW-NB15: a comprehensive data?set for network intrusion detection systems (UNSW-NB15 network?data set)," 2015 Military Communications and Information?Systems Conference (MilCIS), pp. 1-6, Nov 2015. DOI: 10.1109/milcis.2015.7348942. 

  3. Canadian Institute for Cybersecurity, "UNSW-NB15 Data set"?https://www.unsw.adfa.edu.au/unsw-canberra-cyber/cybersecurity/ADFA-NB15-Datasets/ 

  4. Australian Center for Cyber Security, "NSL-KDD dataset"?https://www.unb.ca/cic/datasets/nsl.html 

  5. Sydney M. Kasongo and Yanxia Sun, "Performance Analysis of?Intrusion Detection Systems Using a Feature Selection Method on?the UNSW?NB15 Dataset", Kasongo and Sun J Big Data (2020)?7:105. DOI: 10.1186/s40537-020-00379-6 

  6. J. Vimalrosy and S. Brittorameshkumar, "OSS-RF: INTRUSION?DETECTION USING OPTIMIZED SINE SWARM BASED?RANDOM FOREST CLASSIFIER ON UNSW-NB15?DATASET", IJTPE Journal, vol. 14, pp 275-283, June 2022. 

  7. M. H. Kabir, M. S. Rajib, A. S. M. T. Rahman, Md. M. Rahman,?and S. K. Dey, "Network Intrusion Detection Using UNSW-NB15 Dataset: Stacking Machine Learning Based Approach," 2022?International Conference on Advancement in Electrical and?Electronic Engineering (ICAEEE), pp. 1-6, Feb 2022. DOI:?10.1109/ icaeee54957.2022.9836404. 

  8. N. Moustafa. and J. Slay, "The evaluation of Network Anomaly?Detection Systems: Statistical analysis of the UNSW-NB15 data?set and the comparison with the KDD99 data set. Information?Security Journal: A Global Perspective, vol. 25, no. 1-3, pp. 18-31,?2016. DOI: 10.1080/19393555.2015.1125974. 

  9. A. Das, Pramod and Sunitha B S "Anomaly-based Network?Intrusion Detection using Ensemble Machine Learning Approach",?International Journal of Advanced Computer Science and?Applications(IJACSA), vol 13(2), pp. 635-645, 2022. DOI:?10.14569/IJACSA.2022.0130275 

  10. D. Jing and H.-B. Chen, "SVM Based Network Intrusion?Detection for the UNSW-NB15 Dataset," 2019 IEEE 13th?International Conference on ASIC (ASICON), pp. 1-4, Oct 2019.?DOI: 10.1109/asicon47005.2019.8983598. 

  11. F. Meghdouri, T. Zseby, and F. Iglesias, "Analysis of Lightweight?Feature Vectors for Attack Detection in Network Traffic,"?Applied Sciences, vol. 8, no. 11, pp 2196, Nov 2018. DOI:?10.3390/app8112196. 

  12. W. Zihan, Z. Hong, W. Penghai and S. Zhibo, "RTIDS: A Robust?Transformer-Based Approach for Intrusion Detection System",?IEEE Access, vol. 10, pp. 64375-64387 June 2022. DOI: 10.1109/ACCESS.2022.3182333 

  13. Y. G. Yang, H. M. Fu, S. Gao, Y. H Zhou and W. M. Shi,?"Intrusion detection: A model based on the improved vision?transformer", National Natural Science Foundation of China,?April 2022. DOI: 10.1002/ett.4522 

  14. Ju-wan Lim, In-kyung Kim, Myung-hak Lee, Jung-min Ha and?Jae-koo Lee, "Performance comparison of network anomaly?detection using BERT, LSTM and GRU", KICS, pp. 1268-1269,?Feb 2022 

  15. Y. A. Farrukh, I. Khan, S. Wali, D. Bierbrauer, and N. Bastian,?"Payload-Byte: A Tool for Extracting and Labeling Packet?Capture Files of Modern Network Intrusion Detection Datasets,",?pp 58-67, Sep. 2022. DOI: 10.36227/techrxiv.20714221.v1. 

  16. Vaswani, Ashish, Noam M. Shazeer, Niki Parmar, Jakob?Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser and?Illia Polosukhin. "Attention is All you Need." NIPS, 2017. 

  17. J. Devlin, Ming-Wei Chang, Kenton Lee, and K. Toutanova,.?"BERT: Pre-training of Deep Bidirectional Transformers for?Language Understanding", 2019 Conference of the North?American Chapter of the Association for Computational?Linguistics: Human Language Technologies, vol 1, pp 4171-4186, May 2019. DOI: 10.48550/arXiv.1810.04805. 

  18. V. sanh, L. debut, J. chaumond and T. wolf, "DistilBERT, a?distilled version of BERT: smaller, faster, cheaper and lighter",?Mar 2020. DOI: 10.48550/arXiv.1910.01108 

  19. Yinhan Liu, Myle Ott, Naman Goyal and Jingfei Du, "RoBERTa:?A Robustly Optimized BERT Pretraining Approach", Computation?and Language, Jul 2019. DOI: 10.48550/arXiv.1907.11692. 

  20. Zhenzhong Lan, Mingda Chen and Sebastian Goodman,?"ALBERT: A Lite BERT for Self-supervised Learning of?Language Representations", Computation and Language, vol. 6,?Feb 2020. DOI: 10.48550/arXiv.1909.11942. 

  21. Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell,?R.Salakhutdinov and Quoc V. Le "XLNet: Generalized?Autoregressive Pretraining for Language Understanding",?NeurIPS, Jun 2019. DOI: 10.48550/arXiv.1906.08237. 

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로