$\require{mediawiki-texvc}$
  • 검색어에 아래의 연산자를 사용하시면 더 정확한 검색결과를 얻을 수 있습니다.
  • 검색연산자
검색연산자 기능 검색시 예
() 우선순위가 가장 높은 연산자 예1) (나노 (기계 | machine))
공백 두 개의 검색어(식)을 모두 포함하고 있는 문서 검색 예1) (나노 기계)
예2) 나노 장영실
| 두 개의 검색어(식) 중 하나 이상 포함하고 있는 문서 검색 예1) (줄기세포 | 면역)
예2) 줄기세포 | 장영실
! NOT 이후에 있는 검색어가 포함된 문서는 제외 예1) (황금 !백금)
예2) !image
* 검색어의 *란에 0개 이상의 임의의 문자가 포함된 문서 검색 예) semi*
"" 따옴표 내의 구문과 완전히 일치하는 문서만 검색 예) "Transform and Quantization"
쳇봇 이모티콘
안녕하세요!
ScienceON 챗봇입니다.
궁금한 것은 저에게 물어봐주세요.

논문 상세정보

자연언어 텍스트의 토큰 및 문장 경계의 자동 인식 문제에 대한 논의

PROBLEMES DE RECONNAISSANCE AUTOMATIQUE DES UNITES LEXICALES ET DES PHRASES

프랑스어문교육 no.30 , 2009년, pp.197 - 232  
남지순
초록

Dans cet article, nous avons essayé de montrer certains problèmes de reconnaissance automatique des unités lexicales(tokens) et des phrases dans les textes en langues naturelles, notamment en anglais, en français et en coréen. Bien que le découpage des textes soit une tâche préliminaire dans tous les systèmes de l'analyse automatique, les difficultés dans cette tâche est fortement liées aux aspects spécifiques de chaque langue. Dans un premier temps, nous avons examiné les particularités des ponctuations en anglais, surtout de celles qui causent des erreurs du découpage. Ensuite, nous avons analysé les aspects particuliers des usages des ponctuations en français et enfin, les notions problématiques des unités lexicales en coréen ont été examinées. Pour pouvoir réaliser un système de découpage automatique des textes pour une langue donnée, il sera indispensable de comprendre ses caractéristiques linguistiques et de décrire de façon exhaustive et systématique les contraintes et les conditions des contextes des unités lexicales et des phrases.

참고문헌 (0)

  1. 이 논문의 참고문헌 없음

이 논문을 인용한 문헌 (0)

  1. 이 논문을 인용한 문헌 없음

원문보기

원문 PDF 다운로드

  • 원문 PDF 정보가 존재하지 않습니다.

원문 URL 링크

  • 원문 URL 링크 정보가 존재하지 않습니다.
상세조회 0건 원문조회 0건

DOI 인용 스타일