AI 기술이 발전함에 따라 일반 사용자부터 기업, 국가까지 AI에 대한 관심으로 다양한 분야에서 AI를 활용한 연구가 지속되고 있다. 특히, 악성코드 및 이상 탐지 분야에서 탐지에 인공지능이 활용되고 있다. 신규 악성코드가 대량으로 생성되어 악성코드 분석가가 직접 분석 및 탐지하기 어렵기 때문이다. 하지만 AI 판단 결과를 중요한 ...
AI 기술이 발전함에 따라 일반 사용자부터 기업, 국가까지 AI에 대한 관심으로 다양한 분야에서 AI를 활용한 연구가 지속되고 있다. 특히, 악성코드 및 이상 탐지 분야에서 탐지에 인공지능이 활용되고 있다. 신규 악성코드가 대량으로 생성되어 악성코드 분석가가 직접 분석 및 탐지하기 어렵기 때문이다. 하지만 AI 판단 결과를 중요한 의사결정이 필요한 작업에 활용하기는 어렵다. 이러한 AI의 신뢰성을 향상시키기 위해 eXplainable AI 기술이 연구되고 있지만 XAI 기술이 모두 같은 결과를 보이는 것은 아니다. 따라서 본 논문에서는 설명적 AI 판단 결과에 대한 평가 기준을 제공하기 위해 기존 XAI와 4가지 평가 방법 중 기존 값에 영향을 받는 문제를 해결한 하이브리드 XAI 평가 모델을 제안한다. 변형 값이 있는지 여부를 지정하는 새로운 기능이 기존 기능에 추가되고 기능 값이 제거된 데이터가 1/N 확률로 생성됩니다. 데이터셋에서 특징 수는 두 배가 되고 데이터 수는 특징 수만큼 증가합니다. 생성된 모든 데이터는 AI 학습에 활용되며, 가장 최신의 정확한 방법인 SHAP를 적용하여 특징의 중요도를 추출합니다. 제안된 4가지 평가 기준에 따라 XAI Feature 선택 정확도와 XAI Score 정확도를 평가한다. 어떤 XAI가 더 정확한 순서와 점수 범위를 더 잘 나타내는지에 대한 해석을 제공합니다.
AI 기술이 발전함에 따라 일반 사용자부터 기업, 국가까지 AI에 대한 관심으로 다양한 분야에서 AI를 활용한 연구가 지속되고 있다. 특히, 악성코드 및 이상 탐지 분야에서 탐지에 인공지능이 활용되고 있다. 신규 악성코드가 대량으로 생성되어 악성코드 분석가가 직접 분석 및 탐지하기 어렵기 때문이다. 하지만 AI 판단 결과를 중요한 의사결정이 필요한 작업에 활용하기는 어렵다. 이러한 AI의 신뢰성을 향상시키기 위해 eXplainable AI 기술이 연구되고 있지만 XAI 기술이 모두 같은 결과를 보이는 것은 아니다. 따라서 본 논문에서는 설명적 AI 판단 결과에 대한 평가 기준을 제공하기 위해 기존 XAI와 4가지 평가 방법 중 기존 값에 영향을 받는 문제를 해결한 하이브리드 XAI 평가 모델을 제안한다. 변형 값이 있는지 여부를 지정하는 새로운 기능이 기존 기능에 추가되고 기능 값이 제거된 데이터가 1/N 확률로 생성됩니다. 데이터셋에서 특징 수는 두 배가 되고 데이터 수는 특징 수만큼 증가합니다. 생성된 모든 데이터는 AI 학습에 활용되며, 가장 최신의 정확한 방법인 SHAP를 적용하여 특징의 중요도를 추출합니다. 제안된 4가지 평가 기준에 따라 XAI Feature 선택 정확도와 XAI Score 정확도를 평가한다. 어떤 XAI가 더 정확한 순서와 점수 범위를 더 잘 나타내는지에 대한 해석을 제공합니다.
As AI technology advances, research using AI in various fields is continuing with interest in AI from general users to companies and countries. In particular, artificial intelligence is used for detection in the field of malware and anomaly detection. This is because a large amount of malicious code...
As AI technology advances, research using AI in various fields is continuing with interest in AI from general users to companies and countries. In particular, artificial intelligence is used for detection in the field of malware and anomaly detection. This is because a large amount of malicious code is newly generated, so it is difficult for a malicious code analyst to directly analyze and detect it. However, it is difficult to use the results of AI judgment for tasks that require important decision-making. Although eXplainable AI technology is being studied to improve the reliability of such AI, XAI technologies do not all show the same results. Therefore, in this paper, we propose a hybrid XAI evaluation model that solves the problems affected by the existing values among the four evaluation methods and the existing XAI in order to provide evaluation criteria for the explanatory AI judgment results. A new feature that specifies whether a deformation value is present is added to an existing feature, and data from which the feature value is removed with a 1/N probability is generated. In the dataset, the number of features is doubled and the number of data is increased by the number of features. All of the generated data is used for AI training, and then, the most recent and accurate method, SHAP, is applied to extract the importance of features. The XAI Feature selection accuracy and XAI Score accuracy are evaluated according to the proposed four evaluation criteria. It provides an interpretation of which XAIs better represent the more accurate ordering and range of scores.
As AI technology advances, research using AI in various fields is continuing with interest in AI from general users to companies and countries. In particular, artificial intelligence is used for detection in the field of malware and anomaly detection. This is because a large amount of malicious code is newly generated, so it is difficult for a malicious code analyst to directly analyze and detect it. However, it is difficult to use the results of AI judgment for tasks that require important decision-making. Although eXplainable AI technology is being studied to improve the reliability of such AI, XAI technologies do not all show the same results. Therefore, in this paper, we propose a hybrid XAI evaluation model that solves the problems affected by the existing values among the four evaluation methods and the existing XAI in order to provide evaluation criteria for the explanatory AI judgment results. A new feature that specifies whether a deformation value is present is added to an existing feature, and data from which the feature value is removed with a 1/N probability is generated. In the dataset, the number of features is doubled and the number of data is increased by the number of features. All of the generated data is used for AI training, and then, the most recent and accurate method, SHAP, is applied to extract the importance of features. The XAI Feature selection accuracy and XAI Score accuracy are evaluated according to the proposed four evaluation criteria. It provides an interpretation of which XAIs better represent the more accurate ordering and range of scores.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.