최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국정보통신학회논문지 = Journal of the Korea Institute of Information and Communication Engineering, v.27 no.1, 2023년, pp.41 - 46
황치곤 (Department of Computer Engineering, IIT, Kwangwoon University) , 윤창표 (Department Of Computer & Mobile Convergence, GyeongGi University of Science and Technology) , 이수욱 (Glocal Education Center, Kwangwoon University)
Recently, big data analysis can use various techniques according to the development of machine learning. Big data collected in reality lacks an automated refining technique for the same or similar terms based on semantic analysis of the relationship between words. Since most of the big data is descr...
J. M. Park, "A Study on the Performance of Document?Summarization Using Transformer-Based Korean Pre-Trained?Language Model," M. S. thesis, Ewha Womans University,?Korea, 2022.
A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones,?A. N. Gomez, L. Kaiser, and I. Polosukhin, "Attention Is All?You Need," in Proceedings of 31st Conference on Neural?Information Processing Systems (NIPS 2017), Long Beach:?CA, USA, 2017.
J. Devlin, M. W. Chang, K. Lee, and K. Toutanova, "BERT:?Pre-training of Deep Bidirectional Transformers for?Language Understanding," in Proceedings of NAACL-HLT, Minneapolis: MN, USA, pp. 4171-4186, 2019.
A. Radford, K. Narasimhan, T. Salimans, and I. Sutskever,?"Improving Language Understanding by Generative PreTraining," [Internet]. Available: https://s3-us-west-2.amazonaws.com/openaiassets/research-covers/languageunsupervised/languageunderstandingpaper.pdf, 2018.
해당 논문의 주제분야에서 활용도가 높은 상위 5개 콘텐츠를 보여줍니다.
더보기 버튼을 클릭하시면 더 많은 관련자료를 살펴볼 수 있습니다.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.