$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

딥 러닝 기술에서의 적대적 학습 기술 동향 원문보기

정보과학회지 = Communications of the Korean Institute of Information Scientists and Engineers, v.36 no.2 = no.345, 2018년, pp.9 - 13  

김용준 ,  김영식 (조선대학교)

초록이 없습니다.

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 및 그 사례에 대해서 살펴보았다. 또한 이런 현상의 원인 및 보안상의 문제점에 대해서도 간단히 제시하였다. 적대적 샘플들은 딥 신경망이 잘못된 결과를 산출하도록 공격자가 의도적으로 조작시킨 입력으로, 사람의 눈으로 볼 때는 미세한 차이를 가지는 영상이지만, 딥 신경망은 전혀 다른 결과를 산출함으로써 딥 신경망의 오분류 확를이 증가하도록 하는 샘플을 말한다.
  • 또는 자율주행차에서 표지판을 잘못 오독하게 함으로써 사고를 유발시키거나 안전의 위협할 수 있는 공격이 쉽게 일어날 수 있다. 본 논문에서는 딥 러닝에 대한 간단한 개요와 함께 최근 알려진 적대적 학습(adversarial learning)에 기술을 소개할 것이다.
  • 본 논문에서는 최근 주목받고 있는 딥 신경망의 훈련 과정의 불완전성에 기인하는 적대적 샘플 공격의 개념 및 그 사례에 대해서 살펴보았다. 또한 이런 현상의 원인 및 보안상의 문제점에 대해서도 간단히 제시하였다.
  • 첫 번째는 가장 낮은 복잡도를 갖는 “신뢰도 저하”를 들 수 있다. 이 공격의 목표는 공격을 통해서 기계학습 결과에 대한 분류의 신뢰성을 감소시키는 것을 목표로 삼는다. 따라서 분류되는 클래스의 모호성이 증가하게 된다.

가설 설정

  • 세 번째 좀 더 복잡해진 공격 모델로 공격자는 DNN을 훈련하는 과정에서 사용되는 본래의 데이터 셋과 동일한 분포를 사용해서 표본을 추출한 대체 데이터셋을 수집할 수 있다고 가정하는 것이다. 그러나 동시에 이 모델에서는 공격자는 신경망의 설계나 구조는 알지 못한다고 가정한다. 훈련과정에서 사용된 데이터셋에 대한 일부 정보를 얻는 것은 가능하지만 신경망에 대한 실제 구조는 알지 못하게 된다.
  • 즉, DNN 계층의 종류와 수, 뉴런의 활성 함수의 형태 및 가중치와 바이어스 행렬에 대한 구체적인 값들을 모두 알고 있다고 가정한다. 그리고 어떤 알고리즘으로 신경망을 훈련했으며, 사용한 손실함수는 무엇인지도 알고 있다고 가정한다. 따라서 공격자는 신경망을 시뮬레이션 하기에 충분한 정보를 알고 있게 된다.
  • 훈련과정에서 사용된 데이터셋에 대한 일부 정보를 얻는 것은 가능하지만 신경망에 대한 실제 구조는 알지 못하게 된다. 네 번째 가장 복잡한 형태의 공격모델은 공격자는 분류에 사용되는 신경망에 대한 완벽한 지식을 갖고 있다고 가정하는 것이다. 이 때 알고 있는 지식에는 훈련에 사용된 데이터셋과 사용한 알고리즘 및 DNN 토폴로지를 모두 알고 있다고 가정한다.
  • 이는 암호해독에서 선택된 평문 공격 (chosen plaintext attack)에 대응되는 모델로서 공격자는 수동적으로 신경망 동작 과정에서 입력-출력 쌍을 얻는데 그치지 않고, 능동적으로 자신이 알고자 하는 입력이 신경망에서 어떤 출력을 만드는 지를 알아내는 것이 가능하다고 가정한다. 세 번째 좀 더 복잡해진 공격 모델로 공격자는 DNN을 훈련하는 과정에서 사용되는 본래의 데이터 셋과 동일한 분포를 사용해서 표본을 추출한 대체 데이터셋을 수집할 수 있다고 가정하는 것이다. 그러나 동시에 이 모델에서는 공격자는 신경망의 설계나 구조는 알지 못한다고 가정한다.
  • 네 번째 가장 복잡한 형태의 공격모델은 공격자는 분류에 사용되는 신경망에 대한 완벽한 지식을 갖고 있다고 가정하는 것이다. 이 때 알고 있는 지식에는 훈련에 사용된 데이터셋과 사용한 알고리즘 및 DNN 토폴로지를 모두 알고 있다고 가정한다. 즉, DNN 계층의 종류와 수, 뉴런의 활성 함수의 형태 및 가중치와 바이어스 행렬에 대한 구체적인 값들을 모두 알고 있다고 가정한다.
  • 가장 낮은 수준의 지식에 해당하는 모델이 공격자가 신경망 분류결과 얻게 되는 입력과 출력 쌍을 수집할 수 있는 모델이다. 이는 암호 해독에서 알려진 평문 공격 (known plaintext attack) 에 대응되는 공격 모델로서, 신경망이 동작하면서 알게 되는 특정 입력에 대한 특정 출력 쌍을 공격자가 수집할 수 있다고 가정한다. 이보다 조건이 다소 완화된 공격 모델로서 공격자가 신경망을 오라클(oracle)로 사용가능하다고 가정하는 모델이다.
  • 이보다 조건이 다소 완화된 공격 모델로서 공격자가 신경망을 오라클(oracle)로 사용가능하다고 가정하는 모델이다. 이는 암호해독에서 선택된 평문 공격 (chosen plaintext attack)에 대응되는 모델로서 공격자는 수동적으로 신경망 동작 과정에서 입력-출력 쌍을 얻는데 그치지 않고, 능동적으로 자신이 알고자 하는 입력이 신경망에서 어떤 출력을 만드는 지를 알아내는 것이 가능하다고 가정한다. 세 번째 좀 더 복잡해진 공격 모델로 공격자는 DNN을 훈련하는 과정에서 사용되는 본래의 데이터 셋과 동일한 분포를 사용해서 표본을 추출한 대체 데이터셋을 수집할 수 있다고 가정하는 것이다.
  • 이는 암호 해독에서 알려진 평문 공격 (known plaintext attack) 에 대응되는 공격 모델로서, 신경망이 동작하면서 알게 되는 특정 입력에 대한 특정 출력 쌍을 공격자가 수집할 수 있다고 가정한다. 이보다 조건이 다소 완화된 공격 모델로서 공격자가 신경망을 오라클(oracle)로 사용가능하다고 가정하는 모델이다. 이는 암호해독에서 선택된 평문 공격 (chosen plaintext attack)에 대응되는 모델로서 공격자는 수동적으로 신경망 동작 과정에서 입력-출력 쌍을 얻는데 그치지 않고, 능동적으로 자신이 알고자 하는 입력이 신경망에서 어떤 출력을 만드는 지를 알아내는 것이 가능하다고 가정한다.
  • 이 때 알고 있는 지식에는 훈련에 사용된 데이터셋과 사용한 알고리즘 및 DNN 토폴로지를 모두 알고 있다고 가정한다. 즉, DNN 계층의 종류와 수, 뉴런의 활성 함수의 형태 및 가중치와 바이어스 행렬에 대한 구체적인 값들을 모두 알고 있다고 가정한다. 그리고 어떤 알고리즘으로 신경망을 훈련했으며, 사용한 손실함수는 무엇인지도 알고 있다고 가정한다.
본문요약 정보가 도움이 되었나요?

참고문헌 (7)

  1. Krizhevsky, A., Sutskever, I., and Hinton, G. E., "Imagenet classification with deep convolutional neural networks," in Proc. Adv. Neural Inf. Process. Syst. (NIPS), pp. 1097-1105, 2012. 

  2. He, K., Zhang, X., Ren, S., and Sun, J., "Deep residual learning for image recognition," in Proc. IEEE Conf. Comput. Vision Pattern Recognition (CVPR), pp. 770-778, 2016. 

  3. Papernot, N., McDaniel, P., Jha, S., Fedrikson, M., Celik, Z.B., Swami, A., "The limitation of deep learning in adversarial settings," in Proc. IEEE European Symp. Security & Privacy (ESSP), 2016. 

  4. Goodfellow, I. J., Shlens, J., and Szegedy, C., "Explaining and harnessing adversarial examples," in Proc. Int. Conf. Learning Representations (ICLR), 2015. 

  5. Szegedy, C., Zaremba, W., Sutskever, I., Bruna, J., Erhan, D., Goodfellow, I., and Fergus. R., "Intriguing properties of neural networks," in Proc. Int. Conf. Learning Representations (ICLR), 2014. 

  6. Nguyen, A., Yosinski, J., and Clune. J., "Deep neural networks are easily fooled: High confidence predictions for unrecognizable images," in Proc. IEEE Conf. Comput. Vision Pattern Recognition (CVPR), 2015. 

  7. Schunter, M., "Vehicle to cloud - Emerging security research challenges for intelligent vehicles," in Proc. Embedded Security in Cars (ESCAR), 2017. 

LOADING...
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로