최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기정보과학회. 컴퓨팅의 실제 논문지 = KIISE transactions on computing practices, v.23 no.4, 2017년, pp.226 - 231
이주상 (울산대학교 전기전자컴퓨터공학과) , 신준철 (울산대학교 IT융합전공) , 옥철영 (울산대학교 IT융합전공)
Word representation, an important area in natural language processing(NLP) used machine learning, is a method that represents a word not by text but by distinguishable symbol. Existing word embedding employed a large number of corpora to ensure that words are positioned nearby within text. However c...
Bengio, Y., Ducharme, R., Vincent, P., &Jauvin, C. A neural probabilistic language model, journal of machine learning research, 3(Feb), 1137-1155, 2003.
Mikolov, T., Karafiat, M., Burget, L., Cernocky, J., & Khudanpur, S. Recurrent neural network based language model, Interspeech, Vol. 2, p. 3, Sep. 2010.
Pennington, J., Socher, R., &Manning, C. D. Glove: Global Vectors for Word Representation, EMNLP, Vol. 14, pp. 1532-43). 2014.
Levy, O., Goldberg, Y. Dependency-Based Word Embeddings, ACL (2), pp. 302-308, 2014.
Mikolov, T., Chen, K., Corrado, G., & Dean, J. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013.
Mikolov, T., Sutskever, I., Chen, K., Corrado, G. S., & Dean, J. Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, pp. 3111-3119, 2013.
Young-Jun Bae., CheolYoung Ock. Introduction to the Korean Word Map(UWordMap) and API, Proc. of the 26th Annual Conference on Human and Cognitive Language Technology, pp. 27-31, 2014.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.