최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국정보통신학회논문지 = Journal of the Korea Institute of Information and Communication Engineering, v.22 no.10, 2018년, pp.1300 - 1306
임근영 (Department of Information Security, Daejeon University) , 조영복 (Department of Information Security, Daejeon University)
The purpose of this study is to see possibility of Char2Vec as alternative of Word2Vec that most famous word embedding model in Sentence Similarity Measure Problem by Deep-Learning. In experiment, we used the Siamese Ma-LSTM recurrent neural network architecture for measure similarity two random sen...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
Char2Vec가 Wrop2Vec과 다른 점은 무엇인가? | Char2Vec는 Word2Vec와 달리 단어가 아닌 문자를 벡터로 변환하는 모델로 Word2Vec와 비교했을 때 상대적으로 적은 용량을 가지게 된다. Word2Vec의 경우 학 습시키는 단어의 개수에 따라 모델의 크기가 결정되지만 Char2Vec 모델은 문자의 개수크기 만큼의 메모리를 요구하게 된다. | |
Word2Vec은 무엇인가? | 자연어 처리를 위해 사용되는 워드임베딩 기술로 Word2Vec나 char2vec를 사용하고 있다. Word2Vec은 단어(Word)를 기준으로 하여 주변 단어들을 가지고 그 중심 단어를 예측과 특정 중심 단어를 가지고 그 주변 단어를 예측하는 알고리즘으로 모든 단어를 단일 Char2Vec은 단어보다 더 작은 단위인 문자를 사용하는 기법이다. | |
자연어 처리에서 텍스트를 컴퓨터에 입력 할 수 있는 양식으로 변환하는 방법은 무엇이 있는가? | 자연어 처리에서 먼저 이루어져야 하는 작업은 텍스트를 컴퓨터에 입력할 수 있는 양식으로 변환하는 과정이다. 해당 변환 작업의 예로는 텍스트를 ASCII 코드 또는 UNICODE 등으로 변환하여 처리하는 방법이 있다. 또 다른 방법으로는 단어를 다차원 공간에서 특정한 수치를 갖는 벡터로 사상시키는 Word Embedding이 있다[1]. 그 중에서 도 2013년 구글에서 발표된 Word2Vec는 학습속도와 성능을 높혀 인기를 끌고 이다. |
S. J. Park, S. M. Choi, H. J. Lee, J. B. Kim, "Spatial analysis using R based Deep Learning," Asia-pacific Journal of Multimedia Services Convergent with Art, Humanities, and Sociology, vol. 6, no. 4, pp. 1-8, April 2016.
J. M. Kim and J. H. Lee, "Text Document Classification Based on Recurrent Neural Network Using Word2vec," Journal of korean Institute of Intelligent System, vol. 27, no.6, pp. 560-565, Jun. 2017.
P. Baudis, S. Stanko and J. Sedivy, "Joint Learning of Sentence Embeddings for Relevance and Entailment," in The Workshop on Representation Learning for NLP, Berlin, Germany, pp. 18-26, 2016.
J. Y. Kim and E. H. Park, "e-Learning Course Reviews Analysis based on Big Data Analytics," Journal of the Korea Institute of Information and Communication Engineering, Vol. 21, No. 2, pp. 423-428, Feb. 2017.
J. M. Kim and J. H. Lee, "Text Document Classification Based on Recurrent Neural Network Using Word2vec," Journal of Korean Institute of Intelligent Systems, Vol. 27, No. 6, pp. 560-565, Dec. 2017.
M. Jonas, and A. Thyagarajan. "Siamese Recurrent Architectures for Learning Sentence Similarity," in Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence, Arizona, pp. 2786-2792, 2016.
Y. Kim, Y. Jernite, D. Sontag, and A. M. Rush, "Character-Aware Neural Language Models," in Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence ,Arizona, pp. 2741-2749 , 2016.
Naver ai hackerton 2018 Team sadang solution [Internet]. Available:https://github.com/moonbings/naver-ai-hackathon-2018.
R. Dey and F. M. Salem. "Gate-variants of gated recurrent unit (GRU) neural networks," in 2017 IEEE 60th International Midwest Symposium on Circuits and Systems (MWSCAS), Boston, pp. 1597-1600 , 2017.
wiki fast .ai Logloss [Internet]. Available: http://wiki.fast.ai/index.php/Log_Loss
D. P. Kingma, J. Ba, "Adam: A Method for Stochastic Optimization," in The 3rd International Conference for Learning Representations, pp. 1-15, San Diego, 2015.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.