최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기韓國情報技術學會論文誌 = Journal of Korean institute of information technology, v.19 no.10, 2021년, pp.19 - 27
Jo, Sung-Guk , On, Byung-Won
초록이 없습니다.
https://towardsdatascience.com/deep-learning-models-for-automatic-summarization-4c2b89f2a9ea. [accessed: Sep. 25, 2021]
J. Devlin, M. Chang, K. Lee, and K. Toutanova, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding", NAACL, Minneapolis, Minnesota, pp. 4171-4186, Jun. 2019.
A. Radford, K. Narasimhan, T. Salimans, and I. Sutskever, "Improving Language Understanding by Generative Pre-Training", Technical report, OpenAI, 2018.
Y. Liu, and M. Lapata, "Text Summarization with Pretrained Encoders", EMNLP/IJCNLP, Hong Kong, China, pp. 3728-3738, Nov. 2019. https://aclanthology.org/D19-1387.
10.18653/v1/2020.acl-main.703 M. Lewis, Y. Liu, N. Goyal, M. Ghazvininejad, A. Mohamed, O. Levy, V. Stoyanov, and L. Zettlemoyer, "BART: Denoising Sequence-to-Sequence Pre-Training for Natural Language Generation, Translation, and Comprehension", ACL, Online, pp. 7871-7880, Jul. 2020. https://aclanthology.org/2020.acl-main.703.
T. Zhang, V. Kishore, F. Wu, K. Weinberger, and Y. Artzi, "BERTScore: Evaluating Text Generation with BERT", ICLR, Mar. 2020.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.