본 논문에서는 결정 목록을 이용해서 단어 의미 중의성을 해결하는 방법을 제안한다. 결정 목록은 하나 이상의 규칙으로 구성되며, 각 규칙에는 신뢰도가 부여되어 있고, 규칙은 불린 함수(=조건, precondition 와 부류(=의미, class)로 구성되어 있다. 분류 대상이 만족하는 불린 함수를 가진 규칙들 중에서 가장 신뢰도가 높은 규칙에 의해서 분류 대상의 부류가 정해진다. 기존 방법에서는 하나의 자질로 하나의 불린 함수를 구성하는 단일 자질 결정 목록을 이용해서 단어 의미 중의성을 해결했다. 이 경우, 자료 부족 문제와 전처리 과정의 오류에 민감하게 반응한다는 문제점이 있다. 본 논문에서는 기존의 단일자질 결정 목록의 문제점을 해결하기 위해서, 하나 이상의 자질로 불린 함수를 구성하는 다중 자질 결정 목록을 제안하고, 다중 자질 결정 목록을 이용하여, 단어 의미 중의성을 해결하는 방법을 기술하고 있다. 단일 자질 결정 목록과 다중 자질 결정 목록을 비교하기 위해서, 1개의 한국어 의미 부착 말뭉치와 5개의 영어 의미 부착 말뭉치를 대상으로 단어 의미 중의성 해결 실험을 했다. 실험 결과 6개의 말뭉치 모두에 서 다중 자질 결정 목록이 단일 자질 결정 목록에 비해서 더 좋은 결과를 나타냈다.
본 논문에서는 결정 목록을 이용해서 단어 의미 중의성을 해결하는 방법을 제안한다. 결정 목록은 하나 이상의 규칙으로 구성되며, 각 규칙에는 신뢰도가 부여되어 있고, 규칙은 불린 함수(=조건, precondition 와 부류(=의미, class)로 구성되어 있다. 분류 대상이 만족하는 불린 함수를 가진 규칙들 중에서 가장 신뢰도가 높은 규칙에 의해서 분류 대상의 부류가 정해진다. 기존 방법에서는 하나의 자질로 하나의 불린 함수를 구성하는 단일 자질 결정 목록을 이용해서 단어 의미 중의성을 해결했다. 이 경우, 자료 부족 문제와 전처리 과정의 오류에 민감하게 반응한다는 문제점이 있다. 본 논문에서는 기존의 단일자질 결정 목록의 문제점을 해결하기 위해서, 하나 이상의 자질로 불린 함수를 구성하는 다중 자질 결정 목록을 제안하고, 다중 자질 결정 목록을 이용하여, 단어 의미 중의성을 해결하는 방법을 기술하고 있다. 단일 자질 결정 목록과 다중 자질 결정 목록을 비교하기 위해서, 1개의 한국어 의미 부착 말뭉치와 5개의 영어 의미 부착 말뭉치를 대상으로 단어 의미 중의성 해결 실험을 했다. 실험 결과 6개의 말뭉치 모두에 서 다중 자질 결정 목록이 단일 자질 결정 목록에 비해서 더 좋은 결과를 나타냈다.
This paper proposes a method of disambiguating the senses of words using decision lists, which consists of rules with confidence values. The rule of decision list is composed of a boolean function(=precondition) and a class(=sense). Decision lists classify the instance using the rule with the highes...
This paper proposes a method of disambiguating the senses of words using decision lists, which consists of rules with confidence values. The rule of decision list is composed of a boolean function(=precondition) and a class(=sense). Decision lists classify the instance using the rule with the highest confidence value that is matched with it. Previous work disambiguated the senses using single feature decision lists, whose boolean function was composed of only one feature. However, this approach can be affected more severely by data sparseness problem and preprocessing errors. Hence, we propose multiple feature decision lists that have the boolean function consisting of more than one feature in order to identify the senses of words. Experiments are performed with 1 sense tagged corpus in Korean and 5 sense tagged corpus in English. The experimental results show that multiple feature decision lists are more effective than single feature decision lists in disambiguating senses.
This paper proposes a method of disambiguating the senses of words using decision lists, which consists of rules with confidence values. The rule of decision list is composed of a boolean function(=precondition) and a class(=sense). Decision lists classify the instance using the rule with the highest confidence value that is matched with it. Previous work disambiguated the senses using single feature decision lists, whose boolean function was composed of only one feature. However, this approach can be affected more severely by data sparseness problem and preprocessing errors. Hence, we propose multiple feature decision lists that have the boolean function consisting of more than one feature in order to identify the senses of words. Experiments are performed with 1 sense tagged corpus in Korean and 5 sense tagged corpus in English. The experimental results show that multiple feature decision lists are more effective than single feature decision lists in disambiguating senses.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
[26]와 [14]는 DSO 말뭉치 전체를 실험에 사용했고, 예제 기반 모델을 사용해서 의미를 결정했다 [16]과 [2기는 DSO 말뭉치에서 21개의 단에。}를 선별해서 실험하고 하나의 자질로만 구성된 불린 함수를 사용하는 결정 목록으로 의미를 결정했다. 본 논문에서는 DSO 말뭉치 전체에서 실험한 결과와 21개의 단어에 대한 실험 결과를 제시했다. 표 7은 DSO 전체 말뭉치에 대한 실험 결과이고, 표 8은 21개의 단어에 대한 실험 결과이다.
본 논문에서는 결정 목록을 이용해서 단어 의미 중의성을 해결했다. 결정 목록을 이용하는 기존 방법들은 하나의 자질로만 구성된 불린 함수를 이용하였으며, 이 경우 자료 부족 문제와 전처리 과정에서 발생한 오류에 민감하게 반응하는 문제점이 있다.
본 논문에서는 단일 자질 결정 목록의 문제점들을 해결하기 위해서 하나 이상의 자질로 불린 함수를 구성하는 다중 자질 결정 목록(multiple feature decision lists)을 제안한다. 다중 자질 결정 목록에서는 매우 많은 불린 함수가 생성되는 문제가 있는데, 이는 학습 자료에 나타난 모든 자료를 대상으로 불린 함수를 생성하기 때문이다.
본 논문에서는 자연어의 어휘 중의성 중에서 단어 의미 중의성을 해결하는 방법을 제시한다. 의미 중의성을 가지는 단어를 다의어(Polysemous Word)。라고 하며, 단어 의미 중의성을 해결하는 것을 단어 의미 중의성 해결(Word Sense Disambiguation)이라고 한다.
결정 목록을 이용하는 기존 방법들은 하나의 자질로만 구성된 불린 함수를 이용하였으며, 이 경우 자료 부족 문제와 전처리 과정에서 발생한 오류에 민감하게 반응하는 문제점이 있다. 본 논문에서는 하나 이상의 자질로 불린 함수를 구성함으로써 이런 문제를 해결했다.
즉, 단일 자질 결정 목록에서 의미 결정할 수 있는 문맥을 의미 결정하지 못하는 경우가 있다. 이 문제를 해결할 수 있는 방법에 대해서 향후에 살펴보고자 한다.
단일 자질 결정 목록은 하나의 자질만 사용해서 분류하므로, 자료 부족 문제와 전처리 과정에서 발생한 오류에 민감하게 반응하는 문제점이 있다. 이 점을 해결하기 위해서, 본 논문에서는 하나 이상의 자질을 고려하는 다중 자질 결정 목록을 제안하고, 다중 자질 결정 목록으로 단어 의미 중의성을 해결한다.
제안 방법
SENSEVAL1 말뭉치는 10, 598개의 학습 문맥과 5, 984 개의 테스트 문맥으로 구성되어 있다叫 SENSEVAL2 말뭉치는 8, 611개의 학습 문맥와 4, 328개의 테스트 문맥으로 되어 있다. SENSEVAL 말뭉치에 대해서는 학습말뭉치에서 학습을 하고, 테스트 말뭉치에서 정확도를 평가했다.
SENSEVAL2 말뭉치는 두 번째 SENSEVAL 대회에 사용된 말뭉치이며, 영어, 한국어 일본어, 중국어 등 10개의 언어에 대한 말뭉치가 있지만, 본 논문에서는 영어 말뭉치에 대해서만 실험을 했다. 영어 태스크에 참가한 시스템들 중에서 상위 3개 시스템의 결과를 함께 제시했다.
그리고 분해 가능 모델(decompos able model)을 사용해서 의미를 결정했다. [26]와 ⑵에서도 [28]과 동일한 방법으로 학습 말뭉치와 테스트 말뭉치를 만들었으며 100번 반복 실험했다.〔26]는 예제기반 방법을 사용했으며, [2]는 분류 정보 모형을 사용해서 의미를 결정했다.
연어 문맥은 ①단어쌍과 ②단어와 품사 쌍으로 구성된다. hedge one's 施ts에서 다의어 bef의 의미는, 단어쌍(旋dge his 혹은 hedge her 등)이 아니라, 단어 -품사쌍(旋d疑 PRP愛)에 의해서 결정되므로, 본 논문에서는 단어와 품사쌍을 연어 문맥에 포함시켰다.
생성하는 일은 매우 어렵다. 그러므로, 본 논문에서는 자질들간의 독립가정을 사용해서 문제를 해결한다. 자질-부류쌍의 산뢰도는 [24]와 [18]에서 사용한 LogLike互hood값을 사용한다.
단일 자질 결정 목록과 다중 자질 결정 목록을 비교, 평가하기 위해서 본 논문에서는 영어권에서 많이 사용되는 5개의 영어 의미 부착 말뭉치에서 실험했다. 의미부착을 위한 전처리 단계에서 단어들을 토큰으로 분리하고, 각 단어에 품사를 부착했다.
본 논문에서 제안하는 다중 자질 결정 목록과 기존의 단일 자질 결정목록을 비교, 평가하기 위해서 1개의 한국어 의미 부착말뭉치와 5개의 영어 의미 부착 말뭉치에서 실험했다. 본 논문의 구성은 2장에서 결정 목록에 대해서 살펴보고, 하나 이상의 자질로 구성된 다중 자질 결정 목록을 생성하는 방법을 설명한다, 3장에서는 다중 자질 결정 목록을 이용해서 단어 의미 중의성을 해결하는 방법을 알아보고, 4장에서는 본 논문에서 제안한 방법이 기존 방법에 비해서 얼마나 유용한지를 실험으로 살펴본다.
본 논문에서는 SENSEVAL에서 우수한 성능을 보인 결정 목록을 이용해서 의미를 결정한다. 베이지언 모델, 신경망, SVM과 같은 기계 학습 방법은 다의어 주변에 나타난 모든 자질들을 고려하지만, 결정 목록은 다의어 주변의 일부 중요한 자질만을 고려해서 의미를 결정한다.
그리고 두 번째 SENSEVAL 에 참가한 [32]는 결정 목록과 기본 베이지언 모델을 함께 사용하고 있으며, H5]는 메모리 기반 모델과 단어 패턴 처리 모델을 함께 사용하며, [33]은 분류 정보 모형⑵과 연어 처리 모델을 함께 사용하고 있다. 본 논문에서는 결정 목록 하나를 사용해서 의미 결정했다. 그러므로, 하나의 모델을 사용하는 기존 연구들과 비교할 때, 본 논문에서 제안한 방법이 가장 좋은 성능을 보였다.
본 논문에서는 정확률을 이용해서 시스템의 성능을 평가하며, 정확률은 다음과 같이 구한다.
다중 자질 결정 목록에서는 매우 많은 불린 함수가 생성되는 문제가 있는데, 이는 학습 자료에 나타난 모든 자료를 대상으로 불린 함수를 생성하기 때문이다. 본 논문에서는 학습 과정이 아닌 분류 과정에서 각 분류 대상에 맞는 불린 함수를 생성한다. 각 분류 대상이 가지는 자질은 학습 자료에 나타나는 자질에 비해서 매우 적은 수이므로, 학습 과정에서 생성되는 불린 함수에 비해서 매우 적은 수의 불린 함수가 생성된다.
본 논문에서는 학습 말뭉치에서 가장 많이 나타난 의미로 의미를 결정하는 방법(most frequent class:MFC), 단일 자질 결정 목록(SFDL), 그리고 다중 자질 결정목록(MFDL)을 비교, 평가했다. 그리고 [24]에서 제안한 규칙의 신뢰도 수식과 [18]에서 제안한 규칙의 신뢰도 수식에 대해서 비교 실험을 했다.
본 논문에서는 한국어 의미 부착 말뭉치와 영어 의미부착 말뭉치를 이용해서 실험을 했다. 한국어 말뭉치를 사용해서 한국어에서 기존의 단일 자질 결정 목록과 본 논문에서 제안하는 다중 자질 결정 목록의 유용성을 평가한다.
Brown 말뭉치와 WSJ 말뭉치가 서로 다른 특성을 가지므로, DSO 말뭉치에서 실험을 하는 경우에는 Brown 말뭉치 부분과 WSJ 말뭉치 부분을 나누어서 실험을 하는 경우가 있다[27H16]. 본 논문에서도 DSO 말뭉치 전체에서도 실험을 하고, Brown 말뭉치 부분과 WSJ 말뭉치 부분으로 나누어서도 실험을 했다.
그래서 본 논문에서는 10-둥분 교차 검증(10-fold cross validation)을 수행했다. 즉, 말뭉치를 동일한 크기로 10등분하고, 그 중에서 하나는 테스트 말뭉치로 사용하고 나머지 9개는 학습 말뭉치로 사용해서, 모두 10번의 실험을 수행했다
말뭉치를 이용해서 실험을 했다. 한국어 말뭉치를 사용해서 한국어에서 기존의 단일 자질 결정 목록과 본 논문에서 제안하는 다중 자질 결정 목록의 유용성을 평가한다. 그리고 기존 연구에서 많이 사용되는 영어 의미부착 말뭉치를 사용함으로써, 본 논문에서 제안하는 방법과 기존 연구를 비교 평가할 수 있다’ 실험에 이용된 말뭉치는 표 5와 같다.
대상 데이터
제안하는 다중 자질 결정 목록과 기존의 단일 자질 결정 목록을 비교 평가하기 위해서, 1개의 한국어 의미부착 말뭉치와 5개의 영어 의미 부착 말뭉치에서 실험했다. 실험 결과, 모든 실험 말뭉치에서 본 논문에서 제안하는 다중 자질 결정 목록이 기존 단일 자질 결정 목록보다 좋은 결과를 보였다.
데이터처리
비교, 평가했다. 그리고 [24]에서 제안한 규칙의 신뢰도 수식과 [18]에서 제안한 규칙의 신뢰도 수식에 대해서 비교 실험을 했다. 실험 결과에서 (Y)와 (A)는 각각 [24]과 [18]에서 제안한 규칙의 신뢰도 수식을 사용했음을 나타낸다.
이론/모형
구별이 없다. 그래서 본 논문에서는 10-둥분 교차 검증(10-fold cross validation)을 수행했다. 즉, 말뭉치를 동일한 크기로 10등분하고, 그 중에서 하나는 테스트 말뭉치로 사용하고 나머지 9개는 학습 말뭉치로 사용해서, 모두 10번의 실험을 수행했다
이용해서 실험했다. 그리고 기본 베이지언 모델을 사용해서 의미를 결정했다. 실험 결과는 표 10과 같으며, 각 단어에 대한 정확률과 함께 세 단어 모두에 대한 정확률을 함께 제시하고 있다.
[28]은 말뭉치에서 600개의 문맥을 무작위로 추출해서 테스트 말뭉치로 이용하고, 나머지를 학습 말뭉치로 이용했다. 그리고 분해 가능 모델(decompos able model)을 사용해서 의미를 결정했다. [26]와 ⑵에서도 [28]과 동일한 방법으로 학습 말뭉치와 테스트 말뭉치를 만들었으며 100번 반복 실험했다.
마지막으로, 본 논문에서는 평탄화를 위해서 애디티브평탄화(additive smoothing)을 사용했다. 이 평탄화 방법은 매우 간단한 방법으로 알려져 있으며, 이보다 개선된 많은 방법들이 있다.
그러므로, 본 논문에서는 자질들간의 독립가정을 사용해서 문제를 해결한다. 자질-부류쌍의 산뢰도는 [24]와 [18]에서 사용한 LogLike互hood값을 사용한다.
한국어 말뭉치의 전처리 과정에서는 한국어 품사 부착기[23]를 사용해서 형태소 분석과 단어의 품사를 결정했다. 영어 말뭉치의 전처리 과정에서는 영어 단어들을 토큰으로 분리하고, 영어 품사 부착기[25]를 사용해서 단어의 품사를 결정했다.
성능/효과
5개의 영어 말뭉치에서 단일 자질 결정 목록(SFDL) 에 비해서 다중 자질 결정 목록(MFDL)이 더 좋은 결과를 보였다. 그리고 단일 자질 결정 목록에서는 [18] 의신뢰도 수식이 [24]의 신뢰도 수식보다 더 좋은 결과를 보였지만, 다중 자질 결정 목록에서는 거의 차이가 없었다.
DSO 말뭉치, Bruce 말뭉치, Leacock 말뭉치에서는 다중 자질 결정 목록이 기존 연구들에 비해서 더 좋은 결과를 보였다. 그러나, SENSEVAL1 말뭉치와 SEN SEVAL2 말뭉치에서는 기존 연구에 비해서 근소하게 낮은 성능을 보였다.
반면에, SENSEVAL1 에 참가한 시스템들은 품사가 결정되지 않은 다의어에 대해서 의미 결정을 했다. 그러므로, MFC, 기존 방법, 제안하는 방법에 대한 “전체” 실험 결과는 품사가 결정되지 않은 다의어에 대한 정확률은 포함하고 있지 않고, SENSEVAL1 에 참가한 시스템에 대한 “전처】” 실험 결과는 품사가 결정되지 않은 다의어어〕 대한 정확률을 포함하고 있다. 실험 결과는 표 11과 같으며, (R)은 결과 제출 기한 이후에 제출된 결과를 의미한다.
즉, 분류 대상과 관계가 있으면서, 가장 신뢰도 높은 규칙만을 생성할 수 있으면, 결정 목록으로 분류 대상을 분류할 수 있다. 그러므로, 분류 대상과 관계가 있는 규칙들 중에서 신뢰도가 높은 규칙만을 생성하고 낮은 신뢰도의 규칙은 생성할 필요가 없다 본 논문에서는 분류 대상과 관계가 있는 규칙들 중에서 신뢰도가 높은 규칙만을 생성함으로써, 불린 함수의 과생성을 막는다.
본 논문에서는 결정 목록 하나를 사용해서 의미 결정했다. 그러므로, 하나의 모델을 사용하는 기존 연구들과 비교할 때, 본 논문에서 제안한 방법이 가장 좋은 성능을 보였다.
실험 결과, 모든 실험 말뭉치에서 본 논문에서 제안하는 다중 자질 결정 목록이 기존 단일 자질 결정 목록보다 좋은 결과를 보였다. 그리고 동일한 말뭉치를 사용한 기존 연구와 다중 자질 결정 목록을 비교할 때, 하나의 모델을 사용한 기존 연구들 중에서는 가장 좋은 결과를 보였다. 그러므로, 하나 이상의 자질을 고려하는 다중 자질 결정 목록이 단어 의미 중의성 해결에서는 매우 효과적인 방법임을 알 수 있다.
실험 결과, 모든 실험 말뭉치에서 본 논문에서 제안하는 다중 자질 결정 목록이 기존 단일 자질 결정 목록보다 좋은 결과를 보였다. 그리고 동일한 말뭉치를 사용한 기존 연구와 다중 자질 결정 목록을 비교할 때, 하나의 모델을 사용한 기존 연구들 중에서는 가장 좋은 결과를 보였다.
한국어 말뭉치에 대한 실험 결과 다중 자질 결정 목록이 단일 자질 결정 목록에 비해서 더 좋은 결과를 보였다. [24]의 신뢰도 수식을 이용하는 경우에는 약 6% 의 성능 향상이 있으며, [18]의 신뢰도 수식을 이용하는 경우에는 약 1%의 성능 향상이 있었다.
후속연구
이 평탄화 방법은 매우 간단한 방법으로 알려져 있으며, 이보다 개선된 많은 방법들이 있다. 그러므로, 평탄화 방법을 개선함으로써 성능의 향상을 기대할 수 있으며, 향후에는 다른 평탄화 방법을 도입하고자 한다.
[32]는 이런 결정 목록의 단점을 보완하기 위해서, 중요한 자질을 포함하는 문맥은 결정 목록으로 의미 결정하고, 그렇지 않은 문맥은 다른 기계 학습 방법을 사용해서 의미를 결정했다 다중 자질 결정 목록에서도 이런 문제가 발생할 수 있다. 그러므로, 향후에는 다중 자질 결정 목록의 문제를 보완할 수 있는 기계 학습 방법에 대해서 살펴보고, 다중 자질 결정 목록과 함께 이용하는 방법에 대해서 연구할 계획이다.
참고문헌 (33)
이상주, 자동 품사 부착을 위한 새로운 통계적 모형, 고려대학교 컴퓨터학과 박사학위 논문, 1999
이호, 단어 의미 중의성 해결을 위한 분류 정보 모형, 고려대학교 컴퓨터학과 박사학위 논문, 1999
Yorick Wilks and Mark Stevenson, 'The Grammar of sense: Is word sense tagging much more than part-of-speech tagging?,' In Technical Report CS-96-05, University of Sheffield, 1996
Kelly, E. and Philip S. Computer Recognition of English Word Senses, Amsterdam, North-Holland, 1975
Weiss, S., Learning to Disambiguate, Information Storage and Retrieval, Vol. 9, pp. 33-41, 1973
Lesk, M., 'Automatic Sense Disambiguation: How to tell a Pine Cone from an Ice Cream Cone,' In Proceeding of the 1986 SIGDOC Conference, New York: Association for Computing Machinery, 1986
Luk, K. A., 'Statistical sense disambiguation with relatively small corpora using dictionary definitions,' In Proceedings of the 33rd Annual Meetings of the Association for Computational Linguistics, 1995
Veronis, J. and Ide, Nancy, 'Word Sense Disam biguation with Very Large Neural Networks Extracted from Machine Readable Dictionaries,' In Proceedings COLING-90, pp. 389-394, 1990
Nancy Ide and Jean Veronis, Introduction to the Special Issue on Word Sense Disambiguation: The State fo the Art, Computational Linguistics, Vol.24, No.1, pp.1-40, 1998
Hinrich Schuetze, Automatic Word Sense Discrimination, Computational Linguistics, Vol.24, No.1, pp.97-123, 1998
Claudia Leacock, Martin Chodorow, and George A. Miller, Using Corpus Statistics and WordNet Relations for Sense Identification, Computational Linguistics, Vol.24, No.1, pp.147-165, 1998
Clara Cabezas, Philip Resnik and Jessica Stevens, Supervised Sense Tagging using Support Vector Machines,' In Proceedings of the Second International Workshop on Evaluating Word Sense Disambiguation System(SENSEVAL 2), pp. 59-62, 2001
Hwee Tou Ng, 'Exemplar-Based Word Sense Disambiguation: Some Recent Improvement,' In Proceedings of the 2nd conference on Empirical Methods in Natural Language Processing, 1997
Rada F. Mihalcea and Dan I. Moldovan, 'Pattern Learning and Active Feature Selection for Word Sense Disambiguation,' In Proceedings of the Second International Workshop on Evaluating Word Sense Disambiguation System(SENSEVAL 2), pp. 127-130, 2001
Gerard Escudero, Lluis Marquez and German Rigau, 'A Comparison between Supervised Learning Algorithms for Word Sense Disambiguation,' Proceedings of CoNLL 2000 and LLL 2000, 2000
David Yarowsky, Hierarchical Decision Lists for Word Sense Disambiguation, Computers and the Humanities, Vol.34, No.1-2: pp. 179-186, 2000
Eneko Agirre and David Martinez, 'Exploring automatic word sense disambiguation with decision lists and the Web,' In Proceedings of the Semantic Annotation And Intelligent Annotation workshop organized by COLING, Luxembourg 2000
A. Kilgarriff and J. Rosenzweig, Framework and Results for English SENSEVAL, Computers and the Humanities, Vol.34, No.1-2: pp. 15-48, 2000
A. Kilgarriff, 'English Lexical Sample Task Description,' In Proceedings of the Second International Workshop on Evaluating Word Sense Disambiguation System(SENSEVAL-2), pp.17-20, 2001
David Yarowsky Unsupervised Word Sense Disambiguation Rivaling Supervised Methods Proceedings on 33rd Annual Meeting of the Association for Computational Linguistics
Ronald L. Rivest, Learning decision lists, Machine Learning, Vol.2, No.3, pp.229-246, 1987
김진동, 임희석, 임해창, 'Twoply HMM : 한국어의 특성을 고려한 형태소 단위의 품사 태깅 모델', 한국정보과학회 논문지(B), 제24권, 제12호, pp.1502-1512, 1997
David Yarowsky, 'Decision Lists for Lexical Ambiguity Resolution: Application to Accent Restoration in Spanish and French,' In Proceedings on 32nd Annual Meeting of the Association for Computational Linguistics, pp.88-95, 1994
Eric Brill, 'Some Advances in rule-based part of speech tagging,' In Proceedings of the Twelfth National Conference on Artificial Intelligence(AAAI 94), 1994
Hwee Tou Ng and Hian Beng Lee, 'Integrating Multiple Knowledge Sources to Disambiguate Word Sense: An Exemplar Based Approach,' In Proceedings on 34th Annual Meeting of the Association for Computational Linguistics, pp.88-95, 1996
David Martinez and Eneko Agirre, 'One Sense per Collocation and Genre/Topic Variations,' In Proceedings of the Joint SIGDAT Conference on Empirical Methods in Natural Language Processing and Very Large Corpora, 2000
Rebecca Bruce and Janyce Wiebe, 'Word Sense Dismabiguation using Decomposable models,' In Proceedings of the 32nd Annual Meeting of the Association for Computational Linguistics, pp. 139-146, 1994
Stanley F. Chen and Joshua Goodman, 'An Empirical Study of Smoothing Techniques for Language Modeling,' In Technical Report TR 10-98, Computer Science Group, Harvard University
Martin Chodorow, Claudia Leacock, and George A. Miller, A Topical/Local Classifier for Word Sense Identification, Computers and the Humanities, Vol. 34, No. 1-2, pp. 115-120, 2000
Jorn Veenstra, Antal van den Bosch, Sabine Buchholz, Walter Daelemans and Jakub Zavrel, Memory based Word Sense Disambiguation, Computers and the Humanities, Vol. 34, No.1-2, pp. 171-177, 2000
David yarowsky, Silviu Cucerzan, Radu Florian, Charles Schafer, and Richard Wicentowski, 'The Johns Hopkins SENSEVAL2 system descriptions,' In Proceedings of the Second International Workshop on Evaluating Word Sense Disambiguation System(SENSEVAL 2), pp. 163-166, 2001
Hee Cheol Seo, Sang Zoo Lee, Hae Chang Rim, and Ho Lee, 'KUNLP system using Classification Information Model at SENSEVAL 2,' In Proceedings of the Second International Workshop on Evaluating Word Sense Disambiguation System(SENSEVAL 2), pp. 147-150, 2001
※ AI-Helper는 부적절한 답변을 할 수 있습니다.