최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국게임학회 논문지 = Journal of Korea Game Society, v.18 no.5, 2018년, pp.83 - 92
최재용 (한국산업기술대학교 게임공학과) , 성소윤 (한국산업기술대학교 게임공학과) , 김경철 (한국산업기술대학교 게임공학과)
Many studies in deep learning show results as good as human's decision in various fields. And importance of activation of online-community and SNS grows up in game industry. Even it decides whether a game can be successful or not. The purpose of this study is to construct a system which can read tex...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
딥 러닝 분야에서 가장 많이 사용되는 신경망 구조에는 무엇이 있나? | 딥 러닝 분야에서 가장 많이 사용되는 신경망 구조로 합성곱 신경망(Convolutional Neural Network, CNN)과 순환 신경망(Recurrent Neural Network, RNN)이 있다. | |
본 논문에서 텍스트 생성을 위해 Char-RNN, NMT 두 가지 모델을 구성한 이유는? | NMT는 입력 문장의 상태를 먼저 생성 후 그것을 새로 해독하는 모델이다. 각 모델의 텍스트 생성 방식이 다르기 때문에 두 가지를 모두 사용했다. | |
시퀀스-투-시퀀스(Sequence-to-Sequence) 모델은 무엇이며, 무엇으로 구성되는가? | 시퀀스-투-시퀀스(Sequence-to-Sequence) 모델은 시퀀스를 입력으로 받아서 시퀀스를 생성해 출력하는 모델로, 입력 시퀀스 데이터를 처리하는 인코더(Encoder)와 출력 시퀀스를 처리하는 디코더(Decoder)로 구성된다. 인코더와 디코더는 각각 하나의 RNN모델이며 이를 하나로 합친 게 시퀀스-투-시퀀스 모델이다[12]. |
Geoffrey E. Hinton , Simon Osindero and Yee-Whye Teh, "A Fast Learning Algorithm for Deep Belief Nets", Neural Computation Volume 18 Issue 7, pp.1527-1554, 2006.
Google, "Google Duplex: An AI System for Accomplishing Real-World Tasks Over the Phone", https://ai.googleblog.com/2018/05/duplex-ai-system-for-natural-conversation.html, 2018.
OpenAI, "Dota 2", https://blog.openai.com/dota-2/, 2017.
Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton, "ImageNet Classification with Deep Convolutional Neural Networks", http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks, 2012.
Haoxiang Li, Zhe Lin, Xiaohui Shen, Jonathan Brandt, Gang Hua, "A Convolutional Neural Network Cascade for Face Detection", The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp.5325-5334, 2015.
Junhua Mao, Wei Xu, Yi Yang, Jiang Wang, Zhiheng Huang, Alan Yuille "Deep Captioning With Multimodal Recurrent Neural Networks (m-RNN)", https://arxiv.org/abs/1412.6632, 2015.
Ian Goodfellow, Yoshua Bengio And Aron Courville, "Deep Learning", The MIT Press, pp.363-382, 2016.
Alex Graves, Abdel-rahman Mohamed, Geoffrey Hinton, "Speech Recognition with Deep Recurrent Neural Networks", https://arxiv.org/abs/1303.5778, 2013.
Yong Du, Wei Wang, Liang Wang, "Hierarchical Recurrent Neural Network for Skeleton Based Action Recognition", The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp.1110-1118, 2015.
"Long Short-Term Memory", Neural Computation Volume 9 Issue 8, pp.1735-1780, 1997.
Oren Melamud, Omer Levy, Ido Dagan, "A Simple Word Embedding Model for Lexical Substitution", Proceedings of NAACL-HLT 2015, pp.1-7, 2015.
Ian Goodfellow, Yoshua Bengio And Aron Courville, "Deep Learning", The MIT Press, pp.385-400, 2016.
Kyunghyun Cho, Bart Van Merrienboer, Dzmitry Bahdanau, Yoshua Bengio, "On the properties of neural machine translation: Encoder-decoder approaches", https://arxiv.org/abs/1409.1259, 2014.
Subhashini Venugopalan, Marcus Rohrbach, Jeffrey Donahue, Raymond Mooney, Trevor Darrell, Kate Saenko, "Sequence to Sequence - Video to Text", The IEEE International Conference on Computer Vision (ICCV), pp.4534-4542, 2015
Andrej Karpathy, "The Unreasonable Effectiveness of Recurrent Neural Networks", http://karpathy.github.io/2015/05/21/rnn-effectiveness, 2015.
Andrej Karpathy, "Multi-layer Recurrent Neural Networks (LSTM, GRU, RNN) for character-level language models in Torch" https://github.com/karpathy/char-rnn, 2015.
insikk, "Korean language requires a little different treatment when we run character level RNN", https://github.com/insikk/kor-char-rnn-tensorflow, 2017.
Google, "TensorFlow Neural Machine Translation Tutorial", https://github.com/tensorflow/nmt, 2017.
Rico Sennrich, Barry Haddow, Alexandra Birch, "Neural Machine Translation of Rare Words with Subword Units", https://arxiv.org/abs/1508.07909, 2016.
Minh-Thang Luong, Hieu Pham, Christopher D. Manning, "Effective Approaches to Attention-based Neural Machine Translation", https://arxiv.org/abs/1508.04025, 2015.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.