최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기자연어 처리 분야에 심층 언어모델의 활용이 보편화 되고 있으나 한국어의 특성을 반영한 언어모델의 학습 방식에 대한 연구사례가 많지 않다. 본 연구에서는 BERT 언어모델의 구조와 학습방식의 범위안에서 한국어의 특징을 최대한 반영하여 다양한 한국어 자연어 처리에 활용이 가능한 사전학습(Pre-Trained)심층 언어모델 BERT의 학습방식을 제시하였다. 한국어의 문법적 특징을 살리기 위해 세 가지 ...
저자 | 김영훈 |
---|---|
학위수여기관 | 울산대학교 대학원 |
학위구분 | 국내박사 |
학과 | 전기전자컴퓨터공학과 의용생체공학전공 |
지도교수 | 지영준 |
발행연도 | 2021 |
총페이지 | 51 |
키워드 | 한국어버트 언어모델 자연어처리 학습방식 토큰화 |
언어 | kor |
원문 URL | http://www.riss.kr/link?id=T15945019&outLink=K |
정보원 | 한국교육학술정보원 |
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.