최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국사물인터넷학회 논문지 = Journal of the Korea Internet of Things Society, v.4 no.2, 2018년, pp.1 - 6
김양희 (고려대학교 정보대학 컴퓨터학과) , 이찬희 (고려대학교 정보대학 컴퓨터학과) , 황태선 (고려대학교 정보대학 컴퓨터학과) , 김경민 (고려대학교 정보대학 컴퓨터학과) , 임희석 (고려대학교 정보대학 컴퓨터학과)
Techniques for generating new sample data from higher dimensional data such as images have been utilized variously for speech synthesis, image conversion and image restoration. This paper adopts Progressive Growing of Generative Adversarial Networks(PG-GANs) as an implementation model to generate hi...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
PG-GANs은 무엇인가? | PG-GANs(Progressive Growing of GANs)은 준지도 학습(Semi-supervised Learning) 방식을 채택하며, 기본적으로 GAN(Generative Adversarial Networks) 모델과같이 생성자(Generator)와 판별자(Discriminator)로 구성되어 학습을 진행하는 생성 모델이다. | |
PG-GANs의 한계를 극복하기 위한 방법은? | PG-GANs은 일반적으로 초기 GAN 연구에 비해 높은 성능을 보였고, 훈련 과정이 안정적이라는 장점이 있지만 사실적인 이미지를 구현하는 데에는 여전히 한계를 지닌다. 이를 극복하기 위해서는 모델의 훈련이 곡선이 아닌 직선 형태의 객체에 특화되는 등, 주어진 데이터셋에만 한정된다는 점을 이해하는 것이 중요하다. 또한 생성 이미지의 세부 구조에 대해서도 개선할 여지가 있다. | |
PG-GANs의 구성요소인 생성자와 판별자의 기능은? | PG-GANs은 생성자와 판별자의 두 네트워크로 이루어진 GAN의 구성을 따른다. 생성자는 잠재 코드로부터 원본 샘플과 같은 이미지를 생성하며, 이들 이미지의 분포는 이상적으로는 훈련 데이터의 분포와 구별될 수 없을 정도로 동일해야 한다. 판별자 네트워크는 이렇게 생성된 이미지와 원본 이미지 간의 차이를 구별하도록 훈련된다. |
Durk.P. Kingma, Shakir Mohamad, Danilo Jimenez Rezende and Max Welling, "Semi-supervised Learning with Deep Generative Models," Advances in Neural Information Processing Systems (NIPS) 27, 2014.
Ian Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville and Yoshua Bengio, "Generative Adversarial Nets," Advances in Neural Information Processing Systems (NIPS) 27, 2014.
Tero Karras, Timo Aila, Samuli Laine and Jaakko Lehtinen, "Progressive Growing of GANs for Improved Quality, Stability, and Variation," ICLR, 2018.
Xi Chen, Diederik P. Kingma, Tim Salimans, Yan Duan, Prafulla Dhariwal, John Schulman, Ilya Sutskever and Pieter Abbeel, "Variational Lossy Autoencoder," arXiv.org, 2016.
Tim Salimans, Ian Goodfellow, Wojciech Zaremba, Vicki Cheung, Alec Radford and Xi Chen, "Improved Techniques for Training GANs," Advances in Neural Information Processing Systems (NIPS) 29, 2016.
Alireza Makhzani and Brendan Frey, "PixelGAN Autoencoders," University of Toronto, 2017.
Song Han, Xingyu Liu, Huizi Mao, Jing Pu, Ardavan Pedram, Mark A. Horowitz and William J. Dally, "EIE: Efficient Inference Engine on Compressed Deep Neural Network," 2016 ACM/IEEE 43rd Annual International Symposium on Computer Architecture (ISCA), 2016.
Hengshuang Zhao, Jianping Shi, Xiaojuan Qi, Xiaogang Wang and Jiaya Jia, "Pyramid Scene Parsing Network," The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp.2881-2890, 2017.
Martin Arjovsky, Soumith Chintala and Leon Bottou, "Wasserstein Generative Adversarial Networks," Proceedings of the 34th International Conference on Machine Learning (PMLR), Vol.70, pp.214-223, 2017.
Augustus Odena, Christopher Olah1 and Jonathon Shlens1, "Conditional Image Synthesis with Auxiliary Classifier GANs," Proceedings of the 34th International Conference on Machine Learning (ICML'17), Vol.70, pp.2642-2651, 2017.
Peter J. Burt and Edward H. Adelson, "Method for compensating for void-defects in images," US Patent, 1987.
Julien Rabin, Gabriel Peyre, Julie Delon and Marc Bernot, "Wasserstein Barycenter and Its Application to Texture Mixing," International Conference on Scale Space and Variational Methods in Computer Vision (SSVM), pp.435-446, 2011.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.