$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 한글 문자 입력에 따른 얼굴 에니메이션
Facial Animation Generation by Korean Text Input 원문보기

한국전자통신학회 논문지 = The Journal of the Korea Institute of Electronic Communication Sciences, v.4 no.2, 2009년, pp.116 - 122  

김태은 (남서울대학교 멀티미디어학과) ,  박유신 (중앙대학교 첨단영상학과)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 얼굴 애니메이션을 좀 더 실질적으로 표현하기 위하여 한글 생성의 원리와 입 모양 형태의 유사성을 기반으로 기본 음소를 선정하고 이를 이용하는 새로운 알고리듬을 제안한다. 카메라를 통해 얻어진 특징 점 이용이 아닌, 모션 캡쳐 (Motion Capture) 장비를 사용하여 실제 입모양의 움직임 데이터를 취득하여 취득된 데이터를 지수 증,감 형태로 나타내어 발성에 대한 음소를 표현하고 연속된 음절을 표현하기 위하여 지배 함수(Dominance Function)와 혼합 함수(Blending Function)를 적용하여 동시 조음에 대한 표현을 해결하였다. 또한 음절 간의 결합 시간을 입 주변의 마커(Marker) 거리 값의 변위를 이용하여 그 기울기 값에 따라 시간 지연을 함으로 현실감 있는 사용자 입력 문자에 대한 입 모양 궤적 데이터를 생성하는 실험 결과를 보여준다.

Abstract AI-Helper 아이콘AI-Helper

In this paper, we propose a new method which generates the trajectory of the mouth shape for the characters by the user inputs. It is based on the character at a basis syllable and can be suitable to the mouth shape generation. In this paper, we understand the principle of the Korean language creati...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 입력에 의한 코드는 완성형이다. 따라서 입력된 완성형 코드를 조합형으로 변환하여 각 초성, 중성, 종성에 해당하는 값들을 찾아 사용자가 입력한 문자에 해당하는 음소 데이터를 찾기 위한 코드 변환을 하는 것이다. 한글의 비트 표현은 다음과 같다.
  • 본 논문에서는 가상의 얼굴 모델에 적용할 수 있는입 모양의 궤적을 음소들간의 조합을이용하여 얼굴 애니메이션 입 모양 궤적 시스템을 제안하였다. 기존의 방법과는 다른 발성 시 유사한 입모양으로 분류한 음소를 모션 캡쳐 장비를 이용하여 3차원 데이터를 취하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
얼굴 모델을 변형하는 초기 연구에는 어떤 기술이 사용되었는가? 그러나 이것은 배경, 조명 상태, 얼굴과 카메라의 거리, 얼굴의 상하좌우 각도, 카메라 시야 내에서의 얼굴의 위치 등을 고려해 시스템의 가정에 부합되도록 조정해야 하는 문제점을 갖고 있다[6]. 얼굴 모델을 변형하는 초기 연구에는 단순히 얼굴의 변형하기 위해 워핑(warping)이나 모핑(morphing)기술을 사용하였다[7]. 이후 인간의 말하는 형태를 언어 학자들과 같이 언어의 형태들을 파악하는 연구가 시작 되었다.
한글을 발음할 때 입 모양 형태는 무엇에 영향을 받는가? 한글은 자음과 모음의 조합으로 구성되어 있고 발음시 입 모양 형태는 자음 보다는 모음의 영향을 많이 받는다. 그러나 자음의 영향을 받는 것은 양 입술이 닫혀서 발성되는 순음과 치아 사이에서 발성되는 치음은 발음 시 입 모양에 영향을 준다.
초기의 얼굴인식은 얼굴영역을 알맞게 추출하여 명암 및 컬러 특징을 이용하여 얼굴 영역을 추출했는데 이로 인해 어떤 문제점이 있는가? 얼굴인식은 사람의 얼굴 영역을 알맞게 추출하여 눈, 코, 입 부분의 명암 및 컬러 특징을 이용하여 얼굴 영역을 추출하였다. 그러나 이것은 배경, 조명 상태, 얼굴과 카메라의 거리, 얼굴의 상하좌우 각도, 카메라 시야 내에서의 얼굴의 위치 등을 고려해 시스템의 가정에 부합되도록 조정해야 하는 문제점을 갖고 있다[6]. 얼굴 모델을 변형하는 초기 연구에는 단순히 얼굴의 변형하기 위해 워핑(warping)이나 모핑(morphing)기술을 사용하였다[7].
질의응답 정보가 도움이 되었나요?

참고문헌 (13)

  1. R. Chellappa, C. H. Wilson and S. Sirohey, "Human and Machine Recognition of Faces : A Survey", Proc. of the IEEE, Vol. 83, No. 5, pp. 705-740, May 1995. 

  2. 한영환, 홍승홍, "연속 영상에서의 얼굴표정 및 제스처 인식", 의공학회지, Vol. 20, No. 4, pp.419-425, 1999. 

  3. Jun-yong Noh, Ulrich Neumann, " Expression Cloning", SIGGRAPH 2001. 

  4. 이인서, 박운기, 전병우, "MPEG-4 FAP기반 얼굴 근육모델을 이용한 Facial Animation", 춘천멀티미디어 학술회의, pp.147-151, Feb. 2000. 

  5. Kwang-Sik Kong and Chang-Hun Kim, "MODELING COARTICULATION IN KOREAN VISUAL SPEECH", Proceedings of the first CGIM conference, pp.207-210, Jun. 1998. 

  6. G. Yang and T.S. Huang, " Human face detection in a complex background", Pattern Recognition, Vol. 27, No. 1, pp.55-63, 1994. 

  7. Sims, Karl., "Particle Animation and Rendering Using Data Parallel Computation", Computer Graphics(SIGGRAPH'90 Proceedings), pp.405-413, 1990. 

  8. Parke, F. I., "Parametrized models ofr facial animation", IEEE Computer Graphics, Vol. 2, No. 9, pp.61-68, 1982. 

  9. Fu Jie Huang, and Tsuhan Chen., "Real-time lip-synch face animation driven by human voice", In IEEE Multimedia Signal Processing Workshop, LosAngeles, California, 1998 

  10. Hill, D.R., Pearce., & Wyvill, B.m, "Animating Speech: And automated Approach using speech synthesized by Rules", The Visual Computer, Vol. 3, pp.277-289, 1988. 

  11. Nahas, M., Huitric, H. and Saintourens, "M.(1988) Animation of a B-spline figure", The Visual computer, Vol. 3, pp.272-276. 

  12. Cohen, M.M. & Massaro, D.W., "Modeling Coarticulation in Synthetic Visual Speech", In Thalman N.M. & Thalmann D. (Eds) Models and Techniques in Computer Animation, Tokyo : Springer-Verlag, 1993. 

  13. Cohen, M.M. & Massoro, D.M., "Modeling Coarticulation in Synthetic Visual Speech", In Thalman N.M. & Thalmann D. (Eds) Models and Techniques in Computer Animation, Tokyo : Springer-Verlag. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로