최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국IT서비스학회지 = Journal of Information Technology Services, v.20 no.1, 2021년, pp.131 - 143
이치훈 (티쓰리큐(주) 인공지능연구소) , 노지우 (티쓰리큐(주) 인공지능연구소) , 정재훈 ((주)리걸인사이트) , 주경식 ((주)리걸인사이트) , 이동희 (국민대학교 경영학부)
Commercial transactions, one of the pillars of the capitalist economy, are occurring countless times every day, especially small and medium-sized businesses. However, small and medium-sized enterprises are bound to be the legal underdogs in contracts for commercial transactions and do not receive le...
국정모니터링지표, "중소기업 일반현황", 2020. Available at http://www.index.go.kr/potal/main/EachDtlPageDetail.do?idx_cd1181 (Accessed December 30. 2020).
김미영, "리걸테크(Legal Tech) 분야의 기술 현황 및 실제 이용 사례 연구", 한국과학기술정보연구원, 2019. doi:10.22800/KISTI.KOSENEXPERT.2019.265.
민재옥, 박진우, 조유정, 이봉건, "BERT를 이용한 한국어 특허상담 기계독해", 한국정보처리학회지, 제4권, 제9호, 2020, 145-152.
박광현, 나승훈, 최윤수, 장두성, "BERT와 Multi-level Co-Attention Fusion을 이용한 한국어 기계독해", 한국정보과학회 학술발표논문집, 2019, 643-645.
심경보, 박운상, "R-NET 기반 한국어 금융 데이터 질의응답 시스템", 대한전기학회 정보및제어논문집, 2019, 272-273.
이동헌, 박천음, 이창기, 박소윤, 임승영, 김명지, 이주열, "BERT를 이용한 한국어 기계독해", 한국정보과학회 학술발표논문집, 2019, 557-559.
이영훈, 나승훈, 최윤수, 이혜우, 장두성, "ALBERT를 이용한 한국어 자연어처리 : 감성분석, 개체명 인식, 기계독해", 한국정보과학회 학술발표논문집, 2020, 332-334.
인공지능신문 기사, "인라이플, LG CNS와 1억개 NLP모델 오픈 소스 공개...", 최광민, 2020. Available at http://www.aitimes.kr/news/articleView.html?idxno16636 (Accessed December 30. 2020).
임승영, 김명지, 이주열, "KorQuAD : 기계독해를 위한 한국어 질의응답 데이터셋", 한국정보과학회 2018 한국소프트웨어종합학술대회 논문집, 2018, 539-541.
조영주, 배강민, 박종열, "GAN 적대적 생성 신경망과 이미지 생성 및 변환 기술 동향", 한국전자통신연구원 전자통신동향분석, 제35권, 제4호, 2020, 91-102.
중소기업중앙회 보도자료, "하도급거래시 표준계약서 사용.어음결제기일 준수 절실", 홍정호, 박성우, 2017. 11. 26.
중소기업중앙회, "2017년 중소기업 하도급거래 실태조사 결과 보고서", 2017.
Christian, V., B. Michael, H. Michael, W. Hariolf, H. Markus, and H. Dirk, "How Legal Technology Will Change the Business of Law", The Boston Consulting Group & Bucerius Law School, 2016. 01.
Dai, Q., X. Shen, L. Zhang, Q. Li, and D. Wang, "Adversarial Training Methods for Network Embedding", The World Wide Web Conference 2019, 2019.
Devlin, J., M.W. Chang, K. Lee, and K. Toutanova, "BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding", arXiv preprint arXiv:1810.04805, 2018.
Enliple Github, 2020. Available at https://github.com/enlipleai/kor_pretrain_LM (Accessed December 30. 2020).
Goodfellow, J., J. Shlens, and C. Szegedy, "Explaining and Harnessing Adversarial Examples", arXiv preprint arXiv:1412.6572, 2015.
Kurakin, A., I. Goodfellow, and S. Bengio, "Adversarial Machine Learning at Scale", arXiv preprint arXiv: 1611.01236, 2017.
Lan, Z., M. Chen, S. Goodman, K. Gimpel, P. Sharma, and R. Soricut, "ALBERT : A lite bert for self-supervised learning of language representations", arXiv preprint arXiv: 1909.11942, 2019.
Liu et al., "Roberta : A robustly optimized bert-pretraining approach", arXiv preprint arXiv: 1907.11692, 2019.
Rajpurkar, P., J. Zhang, K. Lopyrev, and P. Liang, "Squad : 100,000+ questions for machine comprehension of text", arXiv preprint arXiv: 1606.05250, 2016.
Vaswani et al., "Attention is all you need", In Advances in Neural Information Processing Systems, arXiv preprint arXiv:1706.03762, 2017.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.