본 논문은 기업 내 생성형 AI(Generative Artificial Intelligence) 시스템의 보안 위협과 대응 방안을 제시한다. AI 시스템이 방대한 데이터를 다루면서 기업의 핵심 경쟁력을 확보하는 한편, AI 시스템을 표적으로 하는 보안 위협에 대비해야 한다. AI 보안 위협은 기존 사람을 타겟으로 하는 사이버 보안 위협과 차별화된 특징을 가지므로, AI에 특화된 대응 체계 구축이 시급하다. 본 연구는 AI 시스템 보안의 중요성과 주요 위협 요인을 분석하고, 기술적/관리적 대응 방안을 제시한다. 먼저 AI 시스템이 구동되는 IT인프라 보안을 강화하고, AI 모델 자체의 견고성을 높이기 위해 적대적 학습 (adversarial learning), 모델 경량화(modelquantization) 등 방어 기술을 활용할 것을 제안한다. 아울러 내부자 위협을 감지하기 위해, AI 질의응답 과정에서 발생하는 이상 징후를 탐지할 수 있는 AI 보안 체계 설계 방안을 제시한다. 또한 사이버 킬 체인 개념을 도입하여 AI 모델 유출을 방지하기 위한 변경 통제와 감사 체계 확립을 강조한다. AI 기술이 빠르게 발전하는 만큼 AI 모델 및 데이터 보안, 내부 위협 탐지, 전문 인력 육성 등에 역량을 집중함으로써 기업은 안전하고 신뢰할 수 있는 AI 활용을 통해 디지털 경쟁력을 제고할 수 있을 것이다.
본 논문은 기업 내 생성형 AI(Generative Artificial Intelligence) 시스템의 보안 위협과 대응 방안을 제시한다. AI 시스템이 방대한 데이터를 다루면서 기업의 핵심 경쟁력을 확보하는 한편, AI 시스템을 표적으로 하는 보안 위협에 대비해야 한다. AI 보안 위협은 기존 사람을 타겟으로 하는 사이버 보안 위협과 차별화된 특징을 가지므로, AI에 특화된 대응 체계 구축이 시급하다. 본 연구는 AI 시스템 보안의 중요성과 주요 위협 요인을 분석하고, 기술적/관리적 대응 방안을 제시한다. 먼저 AI 시스템이 구동되는 IT 인프라 보안을 강화하고, AI 모델 자체의 견고성을 높이기 위해 적대적 학습 (adversarial learning), 모델 경량화(model quantization) 등 방어 기술을 활용할 것을 제안한다. 아울러 내부자 위협을 감지하기 위해, AI 질의응답 과정에서 발생하는 이상 징후를 탐지할 수 있는 AI 보안 체계 설계 방안을 제시한다. 또한 사이버 킬 체인 개념을 도입하여 AI 모델 유출을 방지하기 위한 변경 통제와 감사 체계 확립을 강조한다. AI 기술이 빠르게 발전하는 만큼 AI 모델 및 데이터 보안, 내부 위협 탐지, 전문 인력 육성 등에 역량을 집중함으로써 기업은 안전하고 신뢰할 수 있는 AI 활용을 통해 디지털 경쟁력을 제고할 수 있을 것이다.
This paper examines the security threats to enterprise Generative Artificial Intelligence systems and proposes countermeasures. As AI systems handle vast amounts of data to gain a competitive edge, security threats targeting AI systems are rapidly increasing. Since AI security threats have distinct ...
This paper examines the security threats to enterprise Generative Artificial Intelligence systems and proposes countermeasures. As AI systems handle vast amounts of data to gain a competitive edge, security threats targeting AI systems are rapidly increasing. Since AI security threats have distinct characteristics compared to traditional human-oriented cybersecurity threats, establishing an AI-specific response system is urgent. This study analyzes the importance of AI system security, identifies key threat factors, and suggests technical and managerial countermeasures. Firstly, it proposes strengthening the security of IT infrastructure where AI systems operate and enhancing AI model robustness by utilizing defensive techniques such as adversarial learning and model quantization. Additionally, it presents an AI security system design that detects anomalies in AI query-response processes to identify insider threats. Furthermore, it emphasizes the establishment of change control and audit frameworks to prevent AI model leakage by adopting the cyber kill chain concept. As AI technology evolves rapidly, by focusing on AI model and data security, insider threat detection, and professional workforce development, companies can improve their digital competitiveness through secure and reliable AI utilization.
This paper examines the security threats to enterprise Generative Artificial Intelligence systems and proposes countermeasures. As AI systems handle vast amounts of data to gain a competitive edge, security threats targeting AI systems are rapidly increasing. Since AI security threats have distinct characteristics compared to traditional human-oriented cybersecurity threats, establishing an AI-specific response system is urgent. This study analyzes the importance of AI system security, identifies key threat factors, and suggests technical and managerial countermeasures. Firstly, it proposes strengthening the security of IT infrastructure where AI systems operate and enhancing AI model robustness by utilizing defensive techniques such as adversarial learning and model quantization. Additionally, it presents an AI security system design that detects anomalies in AI query-response processes to identify insider threats. Furthermore, it emphasizes the establishment of change control and audit frameworks to prevent AI model leakage by adopting the cyber kill chain concept. As AI technology evolves rapidly, by focusing on AI model and data security, insider threat detection, and professional workforce development, companies can improve their digital competitiveness through secure and reliable AI utilization.
본 연구는 기업 내 AI 시스템의 보안 위험을 분석하고, 현재 적용되고 있는 접근 통제 방식의 적절성을 검토하고자 한다. 특히, 사회공학적 기법이나 피싱 공격으로 내부 네트워크가 침해되는 상황을 가정하고, 이에 대한 효과적인 대응 방안을 모색하는 것을 목적으로 한다.
본 연구는 기업 내 AI 시스템의 보안 위험을 분석하고, 현재 적용되고 있는 접근 통제 방식의 적절성을 검토하고자 한다. 특히, 사회공학적 기법이나 피싱 공격으로 내부 네트워크가 침해되는 상황을 가정하고, 이에 대한 효과적인 대응 방안을 모색하는 것을 목적으로 한다. 이를 위해 AI 시스템 보안의 중요성과 주요 위협 요인을 살펴보고, 보안 강화를 위한 기술적, 관리적 접근 방안을 체계적으로 정리하고자 한다.
질의 입력부와 응답 출력부를 명확히 분리하고, 각 단계에서 질문과 답변을 분석하여 내부자 위협을 탐지하고 차단하는 구조를 취하고 있다. 동시에 AI 모델에 대한 접근과 반출 행위를 면밀히 모니터링하고 통제함으로써 모델 유출 자체를 원천 방지하고자 한다. 이를 통해 악의적인 내부자가 AI 시스템을 악용하려는 시도를 조기에 인지하고 선제적으로 대응할 수 있을 것으로 기대된다.
본 연구에서는 이러한 사이버 킬 체인의 기본 개념을 유지하면서도, AI 모델 탈취 과정에 맞게 각 단계를 재정의하고 AI 고유의 보안 이슈를 반영한 대응 전략을 제시하고자 한다. 특히, 기존의 침입 탐지 시스템(Intrusion Detection System, IDS)에서 한 단계 더 나아가, AI 모델 변경에 대한 승인 절차를 도입한 점이 본 연구의 차별점이다.
이는 AI 모델의 무결성을 보호하고 무단 변경을 방지하는 데 효과적인 방안이 될 것으로 기대된다. 이러한 관점에서 AI 모델을 표적으로 하는 공격 시나리오를 분석하고 선제적 대응 방안을 마련하고자 한다. 구체적으로, AI 모델 탈취 과정을 정찰, 무기화, 전달, 악용, 설치, 명령 및 제어, 목표 달성 등의 단계로 구분하고, 각 단계에서의 공격 징후를 포착하여 맞춤형 방어 전략을 수립함으로써 AI 모델 유출 위험을 체계적으로 관리할 수 있을 것이다.
제안 방법
특히, 사회공학적 기법이나 피싱 공격으로 내부 네트워크가 침해되는 상황을 가정하고, 이에 대한 효과적인 대응 방안을 모색하는 것을 목적으로 한다. 이를 위해 AI 시스템 보안의 중요성과 주요 위협 요인을 살펴보고, 보안 강화를 위한 기술적, 관리적 접근 방안을 체계적으로 정리하고자 한다.
성능/효과
국내에서도 대기업을 중심으로 AI 도입이 가속화되고 있다. 삼성전자는 모든 제품에 AI 기술을 적용하겠다고 발표하였으며, LG, 현대, SK등의 주요 기업들도 AI 기술 도입과 활용에 적극적인 움직임을 보이고 있다. 뿐만 아니라 중소기업들도 자사의 경쟁력 강화를 위해 AI 기술을 도입하는 사례가 늘어나고 있다[6].
위의 사례들은 AI 모델과 데이터 유출이 기업의 핵심 경쟁력과 직결되는 심각한 문제임을 보여준다. 3장에서는 이러한 다양한 유출 경로에 대한 구체적인 대응 방안을 논의할 것이다.
첫째, AI 모델 자체가 공격 대상이 될 수 있다. 세계적인 기업이 아닌 이상, 기업이 AI 모델을 처음부터 새롭게 개발하는 것은 막대한 컴퓨팅 파워와 데이터 전처리에 소요되는 시간으로 인해 쉽지 않다.
둘째, AI 시스템이 의사결정에 직접 관여함에 따라 공격 파급력이 크다. 과거에는 의사결정 과정에서 주로 전문가들의 견해를 참조했으나, 최근에는 AI가 인간이 간과하거나 고려하지 못한 변수들을 제안하면서 의사결정 지원 도구로 자리매김하고 있다[7].
셋째, AI 기술이 빠르게 발전함에 따라 새로운 공격 기법이 지속적으로 출현하고 있다. 예를 들어, 경쟁 기업이 딥페이크(Deepfake) 기술을 이용하여 기업 내 핵심 인력을 사칭하거나[13], AI 도구를 활용하여 사회공학적 공격의 성공률을 높일 수 있다.
넷째, 데이터 투명성과 모델 설명 가능성이 부족하여 공격 징후를 포착하기 쉽지 않다. 데이터 투명성 문제는 AI 모델이 방대한 데이터로 학습하는 과정에서 어떤 근거로 특정 결론에 도달했는지 설명하기 어려운 블랙박스와 같은 상태가 되기 때문에 발생한다[14].
전통적인 보안 체계는 직원을 신뢰하고 검증된 인력에 대해 일정 수준의 권한을 부여하는 방식으로 운영되었다. 그러나 기업의 핵심 기밀이 AI 시스템으로 이관되고, AI가 다른 프로그램과 플러그인(Plug-in)을 통해 상호작용하는 환경이 되면서 AI에 특화된 보안 체계를 도입해야 한다.
따라서 기업은 AI 모델의 견고성을 높이고, 데이터 투명성을 확보하며, 설명 가능한 AI를 구현하는 동시에 내부 위협 탐지, AI 기술 발전 동향 분석 등에 역량을 집중함으로써 AI 고유의 보안 위험에 효과적으로 대응할 수 있어야 한다.
Zero Trust는 '네트워크 내부에서도 신뢰하지 않는다'는 원칙 하에 모든 접근 시도를 감시하고 통제하는 개념으로, 최근 클라우드, 모바일 환경에서 각광받고 있다. 2.2절 Microsoft 사례에서 볼 수 있듯이, 부적절한 액세스 토큰 관리는 대규모 데이터 유출로 이어질 수 있는 만큼, Zero Trust를 통해 엄격한 접근 통제를 적용하는 것이 중요하다. 다만 Zero Trust는 데이터 접근 권한 관리에는 효과적이지만, AI 모델 자체의 취약점을 완벽히 방어하기에는 한계가 있다.
따라서 기업은 자사의 데이터 특성, 모델 아키텍처, 가용 자원 등을 종합적으로 고려하여 최적의 AI 모델 보안 전략을 수립해야 한다.
또한 접근 가능한 단말기를 사전 등록하고 인증하는 장치 제어 정책을 적용하며, 승인된 AI 모델은 지정된 스토리지에만 저장하도록 해야 한다. 아울러 AI 모델 파일에 버전 정보와 메타데이터를 포함하여 무단 변경을 탐지하고, 비정상적인 AI 모델 이동 시 데이터 손실 방지(DLP) 시스템을 통해 차단하는 방안도 고려할 수 있다. 이러한 일련의 조건들이 충족되지 않을 경우, 제안된 사이버 킬 체인 매커니즘이 작동하여 관련 행위를 차단하고 관리자에게 경고를 발송하게 된다.
이처럼 사이버 킬 체인의 모든 단계에서 공격 시도를 감지하고 선제적으로 대응함으로써, 기업은 내 외부의 AI 모델 유출 위협으로부터 핵심 자산을 보호할 수 있다. 나아가 AI 모델 보안 프로세스와 거버넌스를 확립하고, AI 윤리 준수 여부를 상시 점검하는 등 AI 모델 관리 체계를 고도화함으로써 기업은 안전하고 책임감 있는 AI 활용 환경을 조성할 수 있을 것이다.
또한 설명 가능한 AI로 모델의 투명성을 제고하고, 지속적인 모니터링으로 이상 징후를 조기에 포착할 수 있어야 한다. 제안된 AI 보안 체계 설계도는 내부자 위협 감지에 효과적이며, 사이버 킬 체인 개념을 활용한 AI 모델 유출 방지 방안도 주목할 만하다.
후속연구
AI 모델은 설계 및 학습 과정에서 다양한 취약점이 내재될 수 있으므로, 이를 사전에 식별하고 평가하는 포괄적인 보안성 검증 프로세스가 필수적이다. 먼저 데이터 중독 공격(Data Poisoning)과 같이 악의적인 데이터를 학습 데이터에 삽입하여 모델의 성능을 저하시키는 공격에 대응하기 위해, 학습 데이터의 오염이나 조작 여부를 확인하는 데이터 무결성 검증이 필요하다. 다음으로 특정 트리거를 삽입해 모델이 의도와 다르게 동작하도록 유도하는 백도어 공격(Backdoor Attack)에 대비하기 위해, 모델 구조와 학습 과정에서의 오류나 결함을 점검하는 모델 완전성 검사가 수행되어야 한다.
먼저 데이터 중독 공격(Data Poisoning)과 같이 악의적인 데이터를 학습 데이터에 삽입하여 모델의 성능을 저하시키는 공격에 대응하기 위해, 학습 데이터의 오염이나 조작 여부를 확인하는 데이터 무결성 검증이 필요하다. 다음으로 특정 트리거를 삽입해 모델이 의도와 다르게 동작하도록 유도하는 백도어 공격(Backdoor Attack)에 대비하기 위해, 모델 구조와 학습 과정에서의 오류나 결함을 점검하는 모델 완전성 검사가 수행되어야 한다. 또한 입력 데이터에 약간의 변화를 주어 모델이 잘못된 예측을 하도록 유도하는 적대적 예제(Adversarial Example) 공격에 대응하는 한편, 모델의 과도한 복잡성으로 인해 발생하는 과적합(Overfitting) 문제 역시 해결해야 한다.
동시에 AI 모델에 대한 접근과 반출 행위를 면밀히 모니터링하고 통제함으로써 모델 유출 자체를 원천 방지하고자 한다. 이를 통해 악의적인 내부자가 AI 시스템을 악용하려는 시도를 조기에 인지하고 선제적으로 대응할 수 있을 것으로 기대된다.
기업 맞춤형 AI 모델의 유출을 방지하기 위해 사이버 킬 체인(Cyber Kill Chain) 개념을 적극 활용할 필요가 있다. 사이버 킬 체인은 공격자의 행위를 7단계로 구분하여, 각 단계별 대응 전략을 수립하는 프레임워크이다[17].
특히, 기존의 침입 탐지 시스템(Intrusion Detection System, IDS)에서 한 단계 더 나아가, AI 모델 변경에 대한 승인 절차를 도입한 점이 본 연구의 차별점이다. 이는 AI 모델의 무결성을 보호하고 무단 변경을 방지하는 데 효과적인 방안이 될 것으로 기대된다. 이러한 관점에서 AI 모델을 표적으로 하는 공격 시나리오를 분석하고 선제적 대응 방안을 마련하고자 한다.
이러한 관점에서 AI 모델을 표적으로 하는 공격 시나리오를 분석하고 선제적 대응 방안을 마련하고자 한다. 구체적으로, AI 모델 탈취 과정을 정찰, 무기화, 전달, 악용, 설치, 명령 및 제어, 목표 달성 등의 단계로 구분하고, 각 단계에서의 공격 징후를 포착하여 맞춤형 방어 전략을 수립함으로써 AI 모델 유출 위험을 체계적으로 관리할 수 있을 것이다.
악용(Exploitation) 단계에서는 공격자가 전달한 공격 도구를 실행하여 AI 모델을 유출하려는 시도를 무력화해야 한다. AI 모델의 무결성을 검증하는 기술을 도입하고, 실행 프로세스에 대한 통제를 강화할 필요가 있다. 설치(Installation) 단계는 공격자가 AI 시스템 내부에 침투하여 지속적인 통제권을 확보하려는 단계이다.
이처럼 사이버 킬 체인의 모든 단계에서 공격 시도를 감지하고 선제적으로 대응함으로써, 기업은 내 외부의 AI 모델 유출 위협으로부터 핵심 자산을 보호할 수 있다. 나아가 AI 모델 보안 프로세스와 거버넌스를 확립하고, AI 윤리 준수 여부를 상시 점검하는 등 AI 모델 관리 체계를 고도화함으로써 기업은 안전하고 책임감 있는 AI 활용 환경을 조성할 수 있을 것이다. 따라서 기업은 본 연구에서 제안한 사이버 킬 체인 기반의 AI 모델 보호 전략을 참고하여, 자사에 최적화된 대응 방안을 수립하는 데 역량을 집중해야 한다.
나아가 AI 모델 보안 프로세스와 거버넌스를 확립하고, AI 윤리 준수 여부를 상시 점검하는 등 AI 모델 관리 체계를 고도화함으로써 기업은 안전하고 책임감 있는 AI 활용 환경을 조성할 수 있을 것이다. 따라서 기업은 본 연구에서 제안한 사이버 킬 체인 기반의 AI 모델 보호 전략을 참고하여, 자사에 최적화된 대응 방안을 수립하는 데 역량을 집중해야 한다. 특히 명령 및 제어 단계에서 강조된 AI 모델 변경에 대한 철저한 승인 절차와 감사 체계 확립이 무단 변경 차단의 핵심임을 인지하고, 각 단계별 위험 요인과 징후를 식별하여 맞춤형 대응 전략을 마련해야 할 것이다.
따라서 기업은 본 연구에서 제안한 사이버 킬 체인 기반의 AI 모델 보호 전략을 참고하여, 자사에 최적화된 대응 방안을 수립하는 데 역량을 집중해야 한다. 특히 명령 및 제어 단계에서 강조된 AI 모델 변경에 대한 철저한 승인 절차와 감사 체계 확립이 무단 변경 차단의 핵심임을 인지하고, 각 단계별 위험 요인과 징후를 식별하여 맞춤형 대응 전략을 마련해야 할 것이다. 아울러 새로운 공격 기법에 선제적으로 대비하기 위해, 위험 관리 체계를 지속해서 점검하고 개선해 나가는 자세 또한 필요하다.
특히 AI 모델 개발자, 데이터 엔지니어, 보안 담당자 간 긴밀한 협업이 이루어지도록 조직 체계를 정비하고 소통 채널을 마련해야 한다. 또한 2.2절에서 언급한 삼성전자의 사례처럼, 외부 AI 서비스 이용에 따른 데이터 유출 위험을 방지하기 위해 전 직원을 대상으로 한 AI 보안 인식 제고 교육을 정기적으로 실시해야 한다. 이 교육에서는 민감한 기업 정보를 외부 AI 서비스에 노출시키지 않도록 주의할 것과, 만약 자체적인 AI 시스템을 구축하여 운영할 경우 어떤 보안 지침을 준수해야 하는지 등 실무에 필요한 내용을 다뤄야 한다.
이를 통해 전사적인 AI 보안 문화를 정착시킬 수 있다. 나아가 우수 인력 유치와 유지를 위한 동기 부여 체계를 강화하고, 직무 순환과 경력 개발 기회를 제공함으로써 AI 보안 조직의 지속 가능성을 확보할 필요가 있다.
본 연구에서 제안한 AI 시스템 보안 강화 방안들은 나름의 타당성과 실효성을 갖추고 있으나, 실제 적용 과정에서는 한계와 어려움이 예상된다. 적대적 학습이나 모델 경량화 등의 기법은 개발 비용과 성능 저하의 위험성을 내포하고 있으며, 기업별 특성에 맞는 선별적 접근이 필요하다.
적대적 학습이나 모델 경량화 등의 기법은 개발 비용과 성능 저하의 위험성을 내포하고 있으며, 기업별 특성에 맞는 선별적 접근이 필요하다. 제안된 AI 보안 체계가 내부자 위협에 특화되어 있다는 점도 한계로 지적될 수 있어, 내외부 위협을 아우르는 통합적 보안 체계로의 발전이 요구된다. 무엇보다 AI 기술 자체가 빠르게 진화하고 있는 만큼, 제안 방안들도 지속적인 업데이트와 보완이 필요하다.
본 연구는 이러한 한계점들을 인식하고 향후 보완해야 할 방향을 제시하는 데 그 의의가 있다. AI 기술의 중요한 전환기를 맞아, AI 보안 분야의 심화 연구가 더욱 활발히 이루어져야 한다.
참고문헌 (17)
백승익, 임규건, 여등승, "인공지능과 사회의 변화",?한국지능정보사회진흥원, 제23권, 제4호, pp. 3-23, 2016.
S. Wamba-Taguimdje, S. F. Wamba, J. R. K.?Kamdjoug, C. E. T. Wanko. "Influence of artificial?intelligence (AI) on firm performance: the?business value of AI-based transformation?projects", Business process management journal,?Vol 26, Issue 7, 1893-1924, 2020.
S. Pattanayak, V. K. Shukla. "Review of recommender system for OTT platform through?artificial intelligence", International Conference?on Artificial Intelligence and Smart Systems?(ICAIS), IEEE, 1-5, 2021.
Y. Han, J. Chen, M. Dou, J. Wang, K. Feng.?"The Impact of Artificial Intelligence on the?Financial Services Industry", Academic Journal?of Management and Social Sciences, Vol. 2,?No. 3, pp. 83-85, 2023.
N. Nebelung, M. D. de Oliveira Santos, S. T.?Helena, A. F. de Moura Leite, M. B. Canciglieri,?A. L. Szejka. "Towards Real-Time Machining?Tool Failure Forecast Approach for Smart Manufacturing Systems", IFAC-PapersOnLine,?Vol. 55, No. 2, pp. 548-553, 2022.
이유환. "디지털 전환 핵심기술 (ICBM+AI) 도입이 제조기업의 혁신성과에 미치는 영향 연구: 혁신전략의 조절효과를 중심으로" 기업경영연구, 제30권, 제5호, pp. 53-74, 2023.
N. Gudigantala, S. Madhavaram, P. Bicen. "An?AI decision-making framework for business?value maximization", Wiley Online Library,?Vol. 44, No. 1, pp. 67-84, 2023.
보안뉴스, "MS의 인공지능 개발자들, 실수로 38TB의 데이터 노출시켜", https://boannews.com/media/view.asp?idx122106&page59&mkind1&kind1, 2023.
CNN, "Google employee charged with stealing AI trade secrets", https://edition.cnn.com/2024/03/06/tech/google-employee-chargedstealing-ai-trade-secrets/index.html, 2024.
AI타임스, "삼성, chatGPT 데이터 유출 후 임직원?AI 사용금지", https://www.aitimes.com/news/articleView.html?idxno150837, 2023.
Y. Kishore. "Optimizing Enterprise Conversational AI: Accelerating Response Accuracy with Custom Dataset Fine-Tuning", Intell. Inf. Manag., Vol. 16, No. 2, pp. 65-76,?2024.
박재경, 장준서. "AI 모델의 적대적 공격 대응?방안에 대한 연구", 한국컴퓨터정보학회 학술발표논문집, 제31권, 제2호, 619-620, 2023.
CNN, "Finance worker pays out $25 million?after video call with deepfake 'chief financial officer'", https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html, 2024.
N. Thalpage. "Unlocking the Black Box: Explainable Artificial Intelligence (XAI) for?Trust and Transparency in AI Systems", J.?Digit. Art Humanit., Vol. 4, No. 1, pp. 31-36,?2023.
J. D. Connor. "The Sony hack: Data and decision in the contemporary studio, Michigan Publishing", University of Michigan Library, Vol. 2, No. 2, 2015.
V. A. Stafford. "Zero trust architecture", NIST special publication, Vol. 800, pp. 207,?2020.
L. Martin, "Cyber kill chain", Lockheed Martin, URL: http://cyber.lockheedmartin.com/hubfs/GainingtheAdvantageCyberKillChain.pdf, 2014.
이 논문을 인용한 문헌
활용도 분석정보
상세보기
다운로드
내보내기
활용도 Top5 논문
해당 논문의 주제분야에서 활용도가 높은 상위 5개 콘텐츠를 보여줍니다. 더보기 버튼을 클릭하시면 더 많은 관련자료를 살펴볼 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.