최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기디지털콘텐츠학회 논문지 = Journal of Digital Contents Society, v.19 no.10, 2018년, pp.1999 - 2008
Kang, Hyungsuc , Yang, Janghoon
초록이 없습니다.
Word Embedding [Internet] Wikipedia
Italian Journal of Disability Studies Sahlgren 20 33 2008 "The distributional hypothesis,"
ieee Computational intelligenCe magazine Young 13 3 55 2018 10.1109/MCI.2018.2840738 "Recent trends in deep learning based natural language processing,"
arXiv preprint arXiv:1301.3781 Mikolov 2013 "Efficient estimation of word representations in vector space,"
Advances in neural information processing systems Mikolov 3111 2013 "Distributed representations of words and phrases and their compositionality,"
Lai, Siwei, Liu, Kang, He, Shizhu, Zhao, Jun. How to Generate a Good Word Embedding. IEEE intelligent systems, vol.31, no.6, 5-14.
Placing search in context : the concept revisited. ACM transactions on information systems : a publication of the Association for Computing Machinery, vol.20, no.1, 116-131.
“On Word Embedding Models and Parameters Optimized for Korean,” Choi 252 2016
Analogy (State of the art) [Internet] ACL(Association for Computational Linguistics) Wiki
Inquiries into words, constraints and contexts Kaplan 55 2005 "A method for tokenizing text,"
“Selection of the Optimal Morphological Analyzer for a Korean Word2vec Model” Kang 2018
“KoNLPy: Korean natural language processing in Python,” Park 133 2014
KoNLPy: Korean NLP in Python [Internet] Park
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.