최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국콘텐츠학회논문지 = The Journal of the Korea Contents Association, v.16 no.10, 2016년, pp.687 - 692
김우주 (연세대학교 정보산업공학과) , 김동희 (한국철도기술연구원) , 장희원 (연세대학교 정보산업공학과)
Conventional way to search documents is keyword-based queries using vector space model, like tf-idf. Searching process of documents which is based on keywords can make some problems. it cannot recogize the difference of lexically different but semantically same words. This paper studies a scheme of ...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
본 논문에서 Word2vec을 활용해서 단어간 유사도를 추출하는 과정에서 전체 문서에 대해 진행하는 이유는 무엇인가? | Word2vec을 활용해서 단어 간 유사도를 추출하는 과정은 지금까지와 달리 전체 문서에 대해서 진행한다. 이는 대상 단어가 많을수록 정확한 문맥을 통해 단어벡터를 학습시킬 수 있기 때문이다. [그림 2]와 같이 단어를 넣고 그 단어를 통해 주변문맥에 맞는 단어를 정확히 추측할 수 있게 학습을 시키게 된다. | |
벡터공간모델에 기반을 둔 검색의 특징은 무엇인가? | 정보검색의 대표적인 방법인 벡터공간모델에 기반을 둔 검색은 질의에 나타난 키워드들(입력 문서의 단어들)을 인덱스로 하여 해당 단어가 이 문서에서 어느 정도의 가중치를 가지고 있는가를 기준으로 우선순위를 부여한다. 대표적인 벡터공간모델인 TF-IDF는 문서에 등장한 단어들의 중요도를 나타내는 특성 값을 사용하여 문서의 특성벡터를 형성한다. | |
페이지랭크 알고리즘은 무엇인가? | 페이지랭크[1] 알고리즘은 네트워크 그래프에서 노드들의 중요도를 측정해주는 알고리즘이다. 본 연구에서는 쿼리 문서가 포함하고 있는 단어들의 중요도를 판단하기 위하여 페이지랭크를 활용하였다. |
S. Brin and L. Page, "The Anatomy of a Large-scale Hypertextual Web Search Engine," Computer Networks and ISDN Systems, Vol.33, pp.107-117, 1998.
T. Mikolov, K. Chen, G. Corrado, and J, Dean "Efficient estimation of word representations in vector space," arXiv preprint arXiv:1301.3781, 2013.
T. Mikolov, K. Chen, G. Corrado, and J. Dean, "Distributed representations of words and phrases and theier compositionality," Advances in neural information processing systems, 2013.
Yoshua Bengio, New distributed probabilistic language models. Dept. IRO, University de Montreal, Montreal, QC, Canada, Tech. Rep, 1215, 2002.
Yoshua Bengio and Samy Bengio, "Modeling high-dimensional discrete data with multi-layer neural networks," In NIPS, Vol.99, pp.400-406, 1999.
Yoshua Bengio, Rejean Ducharme, Pascal Vincent, and Christian Janvin, "A neural probabilistic language model," The Journal of Machine Learning Research, Vol.3, pp.1137-1155, 2003.
Yoshua Bengio and Jean-Sebastien Senecal, et al. Quick training of probabilistic neural nets by importance sampling, In AISTATS Conference, 2003.
Gerard Salton, Anita Wong, and Chung-Shu Yang, "A vector space model for automatic indexing," Communication of the ACM, Vol.18, No.11, pp.613-620, 1975.
David Dubin, The most inuential paper gerard salton never wrote, 2004.
Ronan Collobert and Jason Weston, A unied architecture for natural language processing: Deep neural networks with multitask learning, In Proceedings of the 25th international conference on Machine learning, pp.160-167, ACM, 2008.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.