최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기프랑스어문교육 no.30 2009년, pp.197 - 232
남지순 (한국외국어대학교)
Dans cet article, nous avons essayé de montrer certains problèmes de reconnaissance automatique des unités lexicales(tokens) et des phrases dans les textes en langues naturelles, notamment en anglais, en français et en coréen. Bien que le découpage des textes soit une tâche préliminaire dans tous les systèmes de l'analyse automatique, les difficultés dans cette tâche est fortement liées aux aspects spécifiques de chaque langue. Dans un premier temps, nous avons examiné les particularités des ponctuations en anglais, surtout de celles qui causent des erreurs du découpage. Ensuite, nous avons analysé les aspects particuliers des usages des ponctuations en français et enfin, les notions problématiques des unités lexicales en coréen ont été examinées. Pour pouvoir réaliser un système de découpage automatique des textes pour une langue donnée, il sera indispensable de comprendre ses caractéristiques linguistiques et de décrire de façon exhaustive et systématique les contraintes et les conditions des contextes des unités lexicales et des phrases.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.