최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국전자통신학회 논문지 = The Journal of the Korea Institute of Electronic Communication Sciences, v.4 no.2, 2009년, pp.116 - 122
김태은 (남서울대학교 멀티미디어학과) , 박유신 (중앙대학교 첨단영상학과)
In this paper, we propose a new method which generates the trajectory of the mouth shape for the characters by the user inputs. It is based on the character at a basis syllable and can be suitable to the mouth shape generation. In this paper, we understand the principle of the Korean language creati...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
얼굴 모델을 변형하는 초기 연구에는 어떤 기술이 사용되었는가? | 그러나 이것은 배경, 조명 상태, 얼굴과 카메라의 거리, 얼굴의 상하좌우 각도, 카메라 시야 내에서의 얼굴의 위치 등을 고려해 시스템의 가정에 부합되도록 조정해야 하는 문제점을 갖고 있다[6]. 얼굴 모델을 변형하는 초기 연구에는 단순히 얼굴의 변형하기 위해 워핑(warping)이나 모핑(morphing)기술을 사용하였다[7]. 이후 인간의 말하는 형태를 언어 학자들과 같이 언어의 형태들을 파악하는 연구가 시작 되었다. | |
한글을 발음할 때 입 모양 형태는 무엇에 영향을 받는가? | 한글은 자음과 모음의 조합으로 구성되어 있고 발음시 입 모양 형태는 자음 보다는 모음의 영향을 많이 받는다. 그러나 자음의 영향을 받는 것은 양 입술이 닫혀서 발성되는 순음과 치아 사이에서 발성되는 치음은 발음 시 입 모양에 영향을 준다. | |
초기의 얼굴인식은 얼굴영역을 알맞게 추출하여 명암 및 컬러 특징을 이용하여 얼굴 영역을 추출했는데 이로 인해 어떤 문제점이 있는가? | 얼굴인식은 사람의 얼굴 영역을 알맞게 추출하여 눈, 코, 입 부분의 명암 및 컬러 특징을 이용하여 얼굴 영역을 추출하였다. 그러나 이것은 배경, 조명 상태, 얼굴과 카메라의 거리, 얼굴의 상하좌우 각도, 카메라 시야 내에서의 얼굴의 위치 등을 고려해 시스템의 가정에 부합되도록 조정해야 하는 문제점을 갖고 있다[6]. 얼굴 모델을 변형하는 초기 연구에는 단순히 얼굴의 변형하기 위해 워핑(warping)이나 모핑(morphing)기술을 사용하였다[7]. |
R. Chellappa, C. H. Wilson and S. Sirohey, "Human and Machine Recognition of Faces : A Survey", Proc. of the IEEE, Vol. 83, No. 5, pp. 705-740, May 1995.
Jun-yong Noh, Ulrich Neumann, " Expression Cloning", SIGGRAPH 2001.
이인서, 박운기, 전병우, "MPEG-4 FAP기반 얼굴 근육모델을 이용한 Facial Animation", 춘천멀티미디어 학술회의, pp.147-151, Feb. 2000.
Kwang-Sik Kong and Chang-Hun Kim, "MODELING COARTICULATION IN KOREAN VISUAL SPEECH", Proceedings of the first CGIM conference, pp.207-210, Jun. 1998.
G. Yang and T.S. Huang, " Human face detection in a complex background", Pattern Recognition, Vol. 27, No. 1, pp.55-63, 1994.
Sims, Karl., "Particle Animation and Rendering Using Data Parallel Computation", Computer Graphics(SIGGRAPH'90 Proceedings), pp.405-413, 1990.
Parke, F. I., "Parametrized models ofr facial animation", IEEE Computer Graphics, Vol. 2, No. 9, pp.61-68, 1982.
Fu Jie Huang, and Tsuhan Chen., "Real-time lip-synch face animation driven by human voice", In IEEE Multimedia Signal Processing Workshop, LosAngeles, California, 1998
Hill, D.R., Pearce., & Wyvill, B.m, "Animating Speech: And automated Approach using speech synthesized by Rules", The Visual Computer, Vol. 3, pp.277-289, 1988.
Nahas, M., Huitric, H. and Saintourens, "M.(1988) Animation of a B-spline figure", The Visual computer, Vol. 3, pp.272-276.
Cohen, M.M. & Massaro, D.W., "Modeling Coarticulation in Synthetic Visual Speech", In Thalman N.M. & Thalmann D. (Eds) Models and Techniques in Computer Animation, Tokyo : Springer-Verlag, 1993.
Cohen, M.M. & Massoro, D.M., "Modeling Coarticulation in Synthetic Visual Speech", In Thalman N.M. & Thalmann D. (Eds) Models and Techniques in Computer Animation, Tokyo : Springer-Verlag.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.