최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기Journal of Internet Computing and Services = 인터넷정보학회논문지, v.21 no.3, 2020년, pp.123 - 131
유소엽 (Dept. of AI.Software, Gachon University) , 정옥란 (Dept. of AI.Software, Gachon University)
Along with the rapid development of artificial intelligence technology, natural language processing, which deals with human language, is also actively studied. In particular, BERT, a language model recently proposed by Google, has been performing well in many areas of natural language processing by ...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
문맥 정보란? | 문맥 정보는 텍스트의 의미를 정의하는, 더 나아가 텍스트에 내재되어 있는 의미를 파악할 수 있는 주변의 여러 상황적 맥락 정보라고 정의 할 수 있다[9]. 상황적 맥락을 이해할 수 있는 정보들에는 사회적, 시간적, 공간적 배경까지 모두 포함되기 때문에 본 논문에서는 다양한 문맥 정보 중 인물, 시간, 공간, 관계, 감정, 5가지의 문맥 정보를 활용하고자 한다. | |
BERT 공개 당시 평가는? | 2018년 10월에는 논문으로 발표되고, 11월에는 오픈 소스로 공개된 BERT[4]는 구글의 언어 표현 모델이다. 공개 당시 자연어 처리의 11개 태스크에서 State-of-the-art 를 기록하며 자연어 처리 분야의 ImageNet으로 평가받고 있다. | |
문맥의 다양한 해석 중 우리는 어떻게 문맥을 정의하는가? | 특히 텍스트를 사용하는 사람과 관련된 언어적 행동과 지식, 언어활동이 이루어지는 사회적, 시간적, 공간적 배경까지 모두 포함 한다[8-10]. 문맥의 다양한 해석 중 우리는 언어 외적 요 소, 즉 언어를 구성하고 있는 상황적 맥락으로 문맥을 정의한다. |
Deng, L., and Liu, Y. (Eds.), Deep Learning in Natural Language Processing, Springer, 2018. http://dx.doi.org/10.1007/978-981-10-5209-5
Palash, G., Sumit, P., and Karan, J., Deep Learning for Natural Language Processing, Apress, 2018. http://dx.doi.org/10.1007/978-1-4842-3685-7
Peters, M. E., Neumann, M., Iyyer, M., Gardner, M., Clark, C., Lee, K., and Zettlemoyer, L., "Deep contextualized word representations," in Proc. of NAACL, 2018. http://dx.doi.org/10.18653/v1/N18-1202
Devlin, J., Chang, M. W., Lee, K., and Toutanova, K., "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding," in Proc. of NAACL, 2019. http://dx.doi.org/10.18653/v1/N19-1423
Zhilin, Y., Zihng, D., Yiming, Y., Jaime, C., Ruslan, S., and Quoc V. L., "XLNet: Generalized Autoregressive Pretraining for Language Understanding," arXiv preprint, 2019. https://arxiv.org/abs/1906.08237
K. H. Park., S. H. Na., J. H. Shin., and Y. K. Kim., "BERT for Korean Natural Language Processing: Named Entity Tagging, Sentiment Analysis, Dependency Parsing and Semantic Role Labeling," Korea Computer Congress 2019, 2019, pp. 584-586. https://www.dbpia.co.kr/journal/articleDetail?nodeIdNODE08763261
S. Kwon., Y. Ko., and J. Seo, "Effective vector representation for the Korean named-entity recognition," Pattern Recognition Letters, Vol. 117, pp. 52-57, 2019. http://dx.doi.org/10.1016/j.patrec.2018.11.019
Sung-Il, Lee., "Contextualism and a Reflection on the Notions of 'Context'," Journal of Language Sciences, Vol. 17, No. 3, pp. 67-86, 2010. http://dx.doi.org/G704-001077.2010.17.3.003
Min-Woo, Lee., "Semantic Relations from the Contextual Perspective," Korean Semantics, Vol. 66, pp. 101-120, 2019. http://dx.doi.org/10.19033/sks.2019.12.66.101
M. S. Shin., "The Characteristics of the Contextual Meaning Evaluation Items of Words - Focusing on the Korean Language Subject of the College Scholastic Ability Text," KOED, No. 116, pp. 143-185, 2018. http://dx.doi.org/10.15734/koed..116.201809.143
A. Radford, K. Narasimhan, T. Salimans, and I. Sutskever, "Improving language understanding by generative pre-training," https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf
A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, and I. Polosukhin, "Attention is all you need," In Proc. of the 31st Internationcal Conference on Neural Information Processing Systems, pp. 6000-6010, 2017. http://dx.doi.org/10.5555/3295222.3295349
SKTBrain, "Korean BERT pre-trained cased (KoBERT)," https://github.com/SKTBrain/KoBERT
Fellbaum, C., "WordNet: An Electronic Lexical Database," Cambridge, MA: MIT Press, 1998. http://dx.doi.org/10.1017/S0142716401221079
Thomas, R., Fabian M. S., Johannes, H., Joanna, B., and Gerhard, W., "YAGO: A Mulitilingual Knowledge Base from Wikipedia, Wordnet, and Geonames," in Proc. of 15th International Semantic Web Conference, pp. 177-185, 2016. https://doi.org/10.1007/978-3-319-46547-0_19
R. Speer, J. Chin, and C. Havasi, "ConceptNet 5.5: An Open Multilingual Graph of General Knowledge," In Thirty-First AAAI Conference on Artificial Intelligence, 2017. https://dl.acm.org/doi/10.5555/3298023.3298212
E. Cambria, S. Poria, D. Hazarika, and K. Kwok, "SenticNet 5: Discovering Conceptual Primitives for Sentiment Analysis by Means of Context Embeddings," In Thirty-Second AAAI Conference on Artificial Intelligence, 2018. https://www.aaai.org/ocs/index.php/AAAI/AAAI18/paper/view/16839
Kmounlp, "Definition of Korean Named-Entity Task," https://github.com/kmounlp/NER
KAIST, "Korean Relation Extraction Gold Standard," https://github.com/machinereading/kor-re-gold
P. Ekman, "Are there basic emotions?" Psychological Review, Vol. 99, No. 3, pp. 550-553, 1992. http://dx.doi.org/10.1037/0033-295X.99.3.550
A. Chatterjee, K. N. Narahari, M. Joshi, P. Agrawal, "SemEval-2019 Task 3: EmoContext Contextual Emotion Detection in Text," in Proc. of the 13th International Workshop on Semantic Evaluation, pp. 39-48, 2019. http://dx.doi.org/10.18653/v1/S19-2005
Naver Developers, "Papago NMT API Reference," https://developers.naver.com/docs/nmt/reference/
Google, "Google Colab," https://colab.research.google.com
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.