최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국사물인터넷학회 논문지 = Journal of the Korea Internet of Things Society, v.5 no.2, 2019년, pp.15 - 20
황선명 (대전대학교 컴퓨터공학과) , 염희균 (대전대학교 컴퓨터공학과)
As the machine learning research has developed, the field of translation and image analysis such as optical character recognition has made great progress. However, video translation that combines these two is slower than previous developments. In this paper, we develop an image translator that combi...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
NMT 모델에서 전반적으로 보이는 문제점은 무엇인가? | NMT 모델은 단일 신경망 구조를 사용하는 End-to-end 방식의 신경망 번역 모델로, 언어별, 텍스트 유형별로 학습 정도에 따라 차등이 있으나, 두 줄 정도 길이의 문장 내에서는 문맥 파악이 이루어져 결과물의 의미적, 통사적 완성도가 크게 높아진 것을 확인 할 수 있다. 그 외 전반적으로 보이는 문제점으로는 누락, 부적절한 직역으로 인한 의미 전달 오류, 불필요한 표현의 반복, 문장 단위를 벗어난 전문용어의 불일치, 단복수 오류 등이 있다. | |
NMT 모델은 무엇인가? | NMT 모델은 단일 신경망 구조를 사용하는 End-to-end 방식의 신경망 번역 모델로, 언어별, 텍스트 유형별로 학습 정도에 따라 차등이 있으나, 두 줄 정도 길이의 문장 내에서는 문맥 파악이 이루어져 결과물의 의미적, 통사적 완성도가 크게 높아진 것을 확인 할 수 있다. 그 외 전반적으로 보이는 문제점으로는 누락, 부적절한 직역으로 인한 의미 전달 오류, 불필요한 표현의 반복, 문장 단위를 벗어난 전문용어의 불일치, 단복수 오류 등이 있다. | |
NMT(신경망 기계번역)의 번역과정은 어떤 과정을 거치는가? | 딥러닝이 성공적으로 적용되는 대표적인 자연어 처리 분야가 기계번역이라고 할 수 있는데, 신경망(Neural Networks) 기반 기계번역(Neural Machine Translation, NMT)은 하나의 신경망으로 번역 모델이 구성되고 학습된다는 측면에서 기존 여러 모듈에 기반한 기계 번역과 다른 패러다임을 제시하고 있다[8,9,10]. 일반적으로 NMT는 인코더(Encoder)와 디코더(Decoder)로 구성되는데, 단어들로 구성된 입력문장을 인코더가 벡터공간에 표현하고, 이를 디코더가 다시 출력 문장의 단어들을 하나씩 순차적으로 만들어 내는 것으로 번역 과정이 진행된다. 이러한 과정은 전통적인 기계번역 시스템이 단어들을 심볼(Symbols) 수준에서 직접 다루는 것과 상반된다[11]. |
K.H.Cho, et al., "Learning phrase representations using RNN encoder-decoder for statistical machine translation," arXiv preprint arXiv: 1406.1078, 2014.
B.Dzmitry, K.H.Cho, and Y.Bengio, "Neural machine translation by jointly learning to align and translate," arXiv preprint arXiv:1409.0473, 2014.
Tu, Zhaopeng, et al., "Context gates for neural machine translation," Transactions of the Association for Computational Linguistics 5, pp.87-99, 2017.
V.Ashish, et al., "Attention is all you need," Advances in Neural Information Processing Systems, 2017.
Ma, Mingbo, et al., "Osu multimodal machine translation system report," arXiv preprint arXiv:1710.02718, 2017.
Madhyastha, P.Swaroop, J.Wang, and L.Specia, "Sheffield multimt: Using object posterior predictions for multimodal machine translation," Proc. of the Second Conference on Machine Translation, 2017.
Caglayan, Ozan, et al., "Lium-cvc submissions for wmt17 multimodal translation task," arXiv preprint arXiv:1707.04481, 2017.
N.Kalchbrenner and P.Blunsom, "Recurrent continuous translation models," EMNLP, 2013.
I.Sutskever, O.Vinyals, Q.V.Le, "Sequence to Sequence Learning with Neural Networks," Advances in Neural Information Processing Systems (NIPS), 2014.
D.Bahdanau, K.Cho and Y.Bengio, "Neural Machine Translation by Jointly Learning to Align and Translate," Int'l Conf. on Learning Representations (ICLR), 2015.
P.Koehn, "Statistical Machine Translation. Statistical Machine Translation," Cambridge University Press, ISBN 9780521874151, 2010.
R.Mithe, S.Indalkar, and N.Divekar, "Optical character recognition," International Journal of Recent Technology and Engineering, Vol.2, pp.72-75, 2013.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.