$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

Attention 기반의 대화 발화 예측 모델
Attention-based Next Utterance Classification in Dialogue System 원문보기

한국정보과학회언어공학연구회 2018년도 제30회 한글 및 한국어 정보처리 학술대회, 2018 Oct. 12, 2018년, pp.40 - 43  

황태선 (고려대학교, 컴퓨터학과) ,  이동엽 (고려대학교, 컴퓨터학과) ,  임희석 (고려대학교, 컴퓨터학과)

초록
AI-Helper 아이콘AI-Helper

대화 발화 예측(Next Utterance Classification)은 Multi-turn 대화에서 마지막에 올 발화를 정답 후보들 중에서 예측을 하는 연구이다. 기존에 제안된 LSTM 기반의 Dual Encoder를 이용한 모델에서는 대화와 정답 발화에 대한 관계를 고려하지 않는 문제와 대화의 길이가 너무 길어 중간 정보의 손실되는 문제가 존재한다. 본 연구에서는 이러한 두 문제를 해결하기 위하여 ESIM구조를 통한 단어 단위의 attention, 대화의 turn별 문장 단위의 attention을 제안한다. 실험 결과 총 5000개의 검증 대화 데이터에 대하여 1 in 100 Recall@1의 성능이 37.64%로 기존 모델 대비 약 2배 높은 성능 향상을 나타내었다.

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • multi-turn으로 구성된 대화를 하나의 문장으로 구성하는 Dual Encoder의 경우 문장 길이가 길어져 양방향 LSTM 출력 값이 문장의 순차 정보를 모두 반영하지 못한다. 따라서 본 연구에서는 대화 내의 각 turn 별 문장 임베딩을 구성하고 학습에 반영하여, 전체 대화에 대한 맥락 정보를 잃지 않도록 하였다.
  • 본 연구에서는 end-to-end learning 방식의 대화 발화 예측에 대한 성능 향상을 위하여 단어 단위의 양방향 LSTM 및 ESIM을 이용한 Attention, 대화의 turn별 문장 단위의 attention을 반영하는 모델을 제안하였다.
  • 본 연구에서는 주어진 100개의 정답 후보 중 하나의 정답을 예측하는 것이다. 따라서 학습 데이터와 검증 데이터에는 1개의 positive 답안과 99개의 negative 답안이 존재하게 된다.
  • 향후에는 문장 단위의 attention을 bilinear 방식뿐만 아니라 concat, dot 등 다양하게 실험을 진행하여 대화 내 문장의 중요한 정보를 잃어버리지 않고 모델 학습에 도움을 줄 수 있도록 개선할 것이다. 뿐만 아니라, 대화 발화 예측 시 대화 데이터와 관련된 외부 지식(External Knowledge)을 활용하는 연구 또한 수행하고자 한다.
  • 이러한 문제를 해결하고자 본 논문에서는 양방향 LSTM으로 이루어진 Dual Encoder와 EISM(Enhanced Sequetial Inference Model)[4]의 구조를 사용하여 단어 단위 attention을 진행함과 동시에 대화의 turn별 문장과 정답 후보 문장들에 대한 문장 단위 attention을 반영한 모델을 제안하고자 한다.
본문요약 정보가 도움이 되었나요?
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로