$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

Generative Adversarial Networks를 이용한 Face Morphing 기법 연구
Face Morphing Using Generative Adversarial Networks 원문보기

디지털콘텐츠학회 논문지 = Journal of Digital Contents Society, v.19 no.3, 2018년, pp.435 - 443  

한윤 (고려대학교 빅데이터응용및보안학과) ,  김형중 (고려대학교 빅데이터응용및보안학과)

초록
AI-Helper 아이콘AI-Helper

최근 컴퓨팅 파워의 폭발적인 발전으로 컴퓨팅의 한계 라는 장벽이 사라지면서 딥러닝 이라는 이름 하에 순환 신경망(RNN), 합성곱 신경망(CNN) 등 다양한 모델들이 제안되어 컴퓨터 비젼(Computer Vision)의 수많은 난제들을 풀어나가고 있다. 2014년 발표된 대립쌍 모델(Generative Adversarial Network)은 비지도 학습에서도 컴퓨터 비젼의 문제들을 충분히 풀어나갈 수 있음을 보였고, 학습된 생성기를 활용하여 생성의 영역까지도 연구가 가능하게 하였다. GAN은 여러 가지 모델들과 결합하여 다양한 형태로 발전되고 있다. 기계학습에는 데이터 수집의 어려움이 있다. 너무 방대하면 노이즈를 제거를 통한 효과적인 데이터셋의 정제가 어렵고, 너무 작으면 작은 차이도 큰 노이즈가 되어 학습이 쉽지 않다. 본 논문에서는 GAN 모델에 영상 프레임 내의 얼굴 영역 추출을 위한 deep CNN 모델을 전처리 필터로 적용하여 두 사람의 제한된 수집데이터로 안정적으로 학습하여 다양한 표정의 합성 이미지를 만들어 낼 수 있는 방법을 제시하였다.

Abstract AI-Helper 아이콘AI-Helper

Recently, with the explosive development of computing power, various methods such as RNN and CNN have been proposed under the name of Deep Learning, which solve many problems of Computer Vision have. The Generative Adversarial Network, released in 2014, showed that the problem of computer vision can...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구에서는 2명으로 제한된 데이터 셋으로 GAN 모델을 통해 유의미한 특성을 찾아내고, 이를 통해서 다양한 형태의 합성 이미지를 생성해 내는 것을 목적으로 한다. 데이터 셋은 정면의 얼굴이 촬영된 10분가량의 영상을 활용한다.
  • 본 연구에서는 GAN 학습을 위한 이미지 전처리 과정에서 눈과 입 등의 얼굴 기준 특성을 인식하기 위해 사용되었다.
  • G(z)는 생성자가 입력잡음(uniform random) z를 입력 받아 원본을 z 샘플링한 결과이고, D(G(z))는 생성자가 생성해낸 이미지를 판별자가 분류 해낼 확률이다. 생성자는 D(G(z))가 1에 가까워지도록, 다시 말해 생성해낸 가짜를 판별자가 진짜라고 분류하는 것을 목표로 학습된다. 판별자는 그럼에도 불구하고 원본과 가짜를 분류해 낼 수 있도록 학습된다.

가설 설정

  • 2) 한 인물에서 다른 인물로 변화 하는 학습된 z가 존재하며, z의 변화에 따라 자연스럽게 변화하는가?
  • 3) 영상 중 얼굴이 포함된 프레임을 그대로 넣었을 때, 얼굴의 위상차에도 불구하고 학습이 되는가?
  • 그로 인하여, 결과물에 대한 목표를 세우기가 힘들다. 두 번째, 데이터 셋 정렬을 위하여 또 다른 기계학습이 선행되어야 한다는 것이다. GAN학습모델의 학습 피드백으로 원본의 기준을 세우고 또 그에 따라 정렬해내며 학습할 수 있다면 더 좋은 결과를 이끌어 낼 수 있을 것으로 기대된다.
  • 본 연구의 한계점은 다음과 같다. 첫째, 합성된 이미지를 예측할 수 없다. GAN의 비지도학습 특성으로 인하여, 학습모델이 데이터 셋을 통하여 자유도 높은 샘플들을 생성해내지만, 원하는 형태로 생성해내기는 힘들다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
GAN이 가지고 있는 기존 기계 학습의 문제 해결 방식과의 차이점은 무엇인가? 기존의 기계 학습 방법들이 분류, 인식, 예측의 문제를 풀었 다면, 분류기와 생성기를 동시에 학습하는 모델인 GAN은 분류 뿐만 아니라 “생성”의 문제도 풀 수 있게 되었다. 이러한 특성은 수묵화를 재현해 내거나[4], 음악을 만들어내는[5] 등 다양한 분야에서 활용 또는 연구되고 있다.
심층 신경망 구조가 다시 발전될 수 있었던 이유는 무엇인가? 흔히 딥러닝[15] 이라고 이야기하는 상당수의 모델이 이 심층 신경망 구조이다. 컴퓨팅 성능의 한계와, 과적 합의 문제를 해결 할 수 없어서 주목 받지 못하였으나, 2000년대 들어서 드롭아웃, ReLU(Rectified Linear Unit)등의 과적합을 줄이는 방법론이 등장하면서 다시 발전되기 시작하였다. 과적합을 방지하는 방법들은 현재도 활발하게 연구 되고 있다[9].
GAN이란 무엇인가? GAN은 2014년 Ian Goodfellow에 의해 처음으로 제안된 모델이다[2]. GAN은 생성자(generator)와 판별자(discriminator) 두 가지로 구성되어 있고 두 가지 모델이 서로 적대적으로 경쟁하며 학습하여 학습 성능이 높이는 비지도학습 기반의 학습 모델이다.
질의응답 정보가 도움이 되었나요?

참고문헌 (16)

  1. J. Areeyapinan, and P. Kanongchaiyos, "Face morphing using critical point filters," in Proceedings of International Joint Conference on Computer Science and Software Engineering, pp. 283-288, 2012. 

  2. I. J. Goodfellow, J. P. Abadie, M. Mirza, B. Xu, D. W. Farley, S. Ozair, A. Courville, and Y. Bengio, "Generative adversarial networks," in Proceedings of the Neural Information Processing Systems, pp. 2672-2680, 2014. 

  3. R. Tachibana, T. Matsubara, and K. Uehara, "Semisupervised learning using adversarial networks," in Proceeding of the International Conference on Computer and Information Science, pp. 1-6, 2016. 

  4. M. S. Ko, H. K. Roh, and K. H. Lee "GANMOOK: Generative adversarial network to stylize images like ink wash painting," in Proceedings of the Korea Computer Congress, pp. 793-795, 2017. 

  5. L. C. Yang, S. Y. Chou, and Y. H. Yang "MidiNet: A convolutional generative adversarial network for symbolicdomain music generation," in Proceedings of the 18th International Society of Music Information Retrieval Conference, pp. 324-331, 2017. 

  6. A. Radford, L. Metz, and S. Chintala "Unsupervised representation learning with deep convolutional generative adversarial networks," in Proceedings of the International Conference on Learning Representations, pp. 1-15, 2016. 

  7. Y. Le Cun, L. Bottou, Y. Bengio, and P. Haffner "Gradientbased learning applied to document recognition," Proceedings of the IEEE, vol. 86, no. 11, pp. 2278-2324, 1998. 

  8. S. Lawrence, C.L. Giles, A. C. Tsoi, and A. D. Back, "Face recognition: A convolutional neural-network approach," IEEE Transactions on Neural Networks vol. 8, no. 1, pp. 98-113, 1997. 

  9. X. Sun, X Ren, S Ma, and H. Wang, "meProp: Sparsified back propagation for accelerated deep learning with reduced overfitting," in Proceedings of the International Conference on Machine Learning, pp. 3299-3308, 2017. 

  10. A. Radford, L. Metz, and S. Chintala. "Unsupervised representation learning with deep convolutional generative adversarial networks,"in Proceedings of the International Conference on Learning Representations, pp. 1-15, 2016. arXiv preprint arXiv:1511.06434 

  11. J. T. Springenberg, A. Dosovitskiy, T. Brox, and M. Riedmiller, "Striving for simplicity: The all convolutional net," in Proceedings of the International Conference on Learning Representations, pp. 1-14, 2015. arXiv preprint arXiv:1412.6806 

  12. X. Chen, Y. Duan, R. Houthooft, J. Schulman, I. Sutskever, and P. Abbee, "InfoGAN: Interpretable representation learning by information maximizing generative adversarial nets," in Proceedings of Advances in Neural Information Processing Systems, pp. 2180-2188, 2016. 

  13. D. Triantafyllidou and A. Tefas, "Face detection based on deep convolutional neural networks exploiting incremental facial part learning," in Proceeding of the International Conference on Pattern Recognition, pp. 3560-3565, 2016. 

  14. E. L. Miller, G. Huang, A. RoyChowdhury, H. Li, and G. Hua, "Labeled faces in the wild: A survey," in Advances in Face Detection and Facial Image Analysis, pp. 189-248, 2016. 

  15. Y. LeCun, Y. Bengio, and G. Hinton, "Deep learning," Nature, vol. 521, no. 7553, pp. 436-444, 2015. 

  16. S. H. Choi, and S. H. Jung, "Performance Improvement of Fake Discrimination using Time Information in CNN-based Signature Recognition", Journal of Digital Contents Society, Vol. 19, No. 1, pp. 206-212, 2017 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로