$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

BLEU 를 활용한 단기 서술형 답안의 자동 채점
An Autonomous Assessment of a Short Essay Answer by Using the BLEU 원문보기

한국HCI학회 2009년도 학술대회, 2009 Feb. 09, 2009년, pp.606 - 610  

조정현 (한림대학교 컴퓨터공학과) ,  정현기 (한림대학교 컴퓨터공학과) ,  박찬영 (한림대학교 컴퓨터공학과) ,  김유섭 (한림대학교 컴퓨터공학과)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 단기 서술형 답안의 자동 채점을 위하여 기계 번역 자동 평가에서 널리 사용되는 BLEU(BiLingual Evaluation Understudy)를 활용한 방법을 제안한다. BLEU 는 기계가 번역한 것이 사람이 번역한 것과 비슷할수록 기계번역의 질이 좋을 것이다 라는 것을 가정하여 평가한다. 즉, 특정 문장을 여러 사람이 번역한 문장을 기계가 번역한 문장과 n-gram 방식으로 비교해 점수를 매기는 것이다. 이와 비슷하게 본 연구에서는 여러 개의 정답 문장과 학생의 답안 문장을 BLEU 와 같은 방식으로 상호 비교하여 학생의 답안을 채점하였다. 실험에서는 이러한 채점 방식의 정확도를 평가하기 위하여 사람이 채점한 점수와의 상관관계를 계산하였다.

Abstract AI-Helper 아이콘AI-Helper

We propose a method utilizing BLEU(BiLingual Evaluation Understudy), which is widely used in automatic evaluation of machine translations, for an autonomous assessment of a short essay answer. BLEU evaluates translations with an assumption that the translation by a machine is supposed to be more acc...

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 BLEU 를 활용한 간단한 서술형 주관식 자동 채점 방법을 제안하였다. 비록 자동 채점한 점수와 사람이 채점한 점수가 차이가 있지만 사람이 채점한 점수가 높으면 자동 채점 점수도 높았으며 반대로 낮으면 자동 채점 점수도 낮았다.
  • 본 논문에서는 간단한 서술형 주관식 자동 채점을 빠르고 간단하게 하기 위해 BLEU[4]를 활용한 방법을 제안한다. 먼저 이전에 BLEU 를 활용하여 자동 채점을 시도한 연구가 있었으나[5] 이것은 영어나 스페인어와 같은 굴절어를 대상으로 하고 있으며, 또한 채점의 대상이 되는 답안의 길이가 30 내지 50 단어 정도로 매우 길었다.

가설 설정

  • 문제가 객관식이나 단답형의 주관식은 자동으로 채점하기 어렵지 않을 것이다. 하지만 학생의 답과 모범답안의 색인어를 미리 구축한 유의어 사전에서 검색하여 나온 유의어와 색인어를 단순 비교한 방법[1], 의미커널을 구축하고 학생의 답과 모범답안을 벡터로 구성하여 이 답안간의 유사도를 의미커널을 통해 계산하는 방법[2], [2]와 유사하게 LSA(Latent Semantic Analysis)를 이용한 방법[3] 등과 같은 기존 서술형 주관식 문제 채점 연구에서 볼 수 있듯이 자연 언어 처리를 하여 분석을 해야 하기 때문에 많은 어려움이 있다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
e-learning은 어떤 보급으로 인해 늘어나고 있는가? 인터넷, 컴퓨터, 광랜의 보급으로 인해 e-learning 이 늘어나고 있다. 따라서 e-learning 에서의 시험등과 같은 평가 또한 많아지고 있다.
BLEU는 어떤 시스템의 자동 평가 방법 중 하나인가? BLEU(biLingual Evaluation Understudy)는 기계번역(Machine Translation) 시스템의 자동 평가 방법 중 하나이다. 또한 현재 많은 기계번역 연구에서 사용되고 있는 평가 방법이다.
BLEU를 이용하여 어떤 요인에 점수를 매기는가? BLEU 는 기계번역의 자동 평가에서 많이 사용하는 방법이다. 이 방법을 이용해 기계번역의 품질에 점수를 매기는 것이다. 사람의 번역과 기계의 번역을 비교하여 얼마나 사람의 번역에 가까운지를 보는 것이다.
질의응답 정보가 도움이 되었나요?
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로