$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

페이셜 리그에 대한 페이셜 캡처 데이터의 다이렉트 리타겟팅 방법
Direct Retargeting Method from Facial Capture Data to Facial Rig 원문보기

컴퓨터그래픽스학회논문지 = Journal of the Korea Computer Graphics Society, v.22 no.2, 2016년, pp.11 - 19  

송재원 (카이스트) ,  노준용 (카이스트)

초록
AI-Helper 아이콘AI-Helper

본 논문은 페이셜 캡처 데이터로부터 페이셜 리그에 대한 다이렉트 리타겟팅을 수행하는 새로운 방법론에 대하여 다룬다. 페이셜 리그는 프로덕션 파이프라인에서 아티스트가 손쉽게 페이셜 애니메이션을 제작하기 위하여 만들어진 제작도구로서, 모션 캡처 등으로 생성된 얼굴 애니메이션 데이터를 페이셜 리그에 매핑할 경우 아티스트에게 친숙한 방식으로 손쉽게 수정, 편집할 수 있으므로 작업 능률을 크게 향상시킬 수 있다는 장점이 있다. 그러나, 페이셜 리그는 그 종류와 작동 방식이 매우 다양하므로, 다양한 페이셜 리그에 대하여 강건하고 안정적으로 모션 데이터를 매핑할 수 있는 일반화된 방법을 찾기는 쉽지 않다. 이를 위하여, 본 논문은 캡처된 얼굴 모션 중 몇 개의 대표적 표정에 대하여 아티스트가 페이셜 리그로 제작한 표정을 예제로 학습시키는 데이터 기반 페이셜 리타겟팅 방식을 제안한다. 이를 통하여 우리는 아티스트가 페이셜 캡처 데이터를 기존 애니메이션 파이프라인의 페이셜 리그를 활용하여 손쉽게 수정할 수 있도록 할 뿐 아니라, 수십 수백개의 대응점을 일일이 지정해 주어야 하거나 사람과 많이 다른 동물 및 괴물 형태의 얼굴에는 리타겟팅이 잘 이루어지지 않았던 기존 대응점 기반 리타겟팅 방식의 한계점 또한 극복할 수 있었다. 본 논문의 결과물들은 우리의 방식이 제공하는 단순하면서도 직관적인 얼굴 애니메이션 리타겟팅이 실제 애니메이션 프로덕션에서 얼마나 효율적으로 활용될 수 있는지를 보여준다.

Abstract AI-Helper 아이콘AI-Helper

This paper proposes a method to directly retarget facial motion capture data to the facial rig. Facial rig is an essential tool in the production pipeline, which allows helping the artist to create facial animation. The direct mapping method from the motion capture data to the facial rig provides gr...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 따라서, 우리는 효율적인 얼굴 애니메이션 제작을 위하여 블렌드쉐입의 가중치가 아닌 페이셜 리그로 직접 페이셜 캡처 데이터를 옮겨줄 수 있는 새로운 페이셜 리타겟팅 방식을 제안한다. 또한, 기존의 대응점 방식이 가지고 있는한계점을 극복하기 위하여, 아티스트에 의해 주어진 예제 기반 페이셜 리타겟팅 방식을 사용하였다.
  • 우리의 연구는 폐이셜캡쳐된 데이터를 애니메이터가 작업하기 쉽고 편리한 페이셜 리그에 매핑하는 새로운 리타겟팅 방식을 제안한다. 이를 통하여 애니메이션 프로덕션에서는 기존 키 프레임 애니메이션 파이프라인에 폐이셜 캡쳐 데이터를 그대로 접목시킴으로써 고품질의 얼굴 애니메이션을 효율적으로 제작할 수 있다.
  • 우리는 이 연구에서 페이셜 리그를 일종의 블랙 박스(Black box)로 간주하였다. 즉 우리는 폐이셜리그가 구성된 방식을 알지 못하더라도 폐이셜 리그에 대해 매핑을 수행할 수 있는 일반적인 방법론을 제안하는 것을 목표로 하였다. 이를 위하여, 우리는 주어진 캡처 데이터의 몇 가 지 표정에 대해 아티스트가 제작한 예제 데이터를 기반으로 매핑을 수행하는 예제 기반 페이셜 리타겟팅 방식을 사용하였다.

가설 설정

  • 모든 캡처 된 마커와 페 이 셜 리그 파라미 터 를 한꺼번 에 학습 시 키 는 것은 비효율적 인데, 이는 해부학적으로 사람 얼굴의 각 영역이 얼굴아래에 있는 근육에 의해 비교적 일정한 방향으로 그룹을 지어 움직이기 때문이다. 우리는 구분된 각 얼굴 영역은 상호 간 독립 적으로 움직인다고 가정하였고, 따라서 각 얼굴 영 역별로 분할하여 연산을 수행함으로써 더 정확하게 얼굴 애니메이션이 옮겨질 수 있도록 하였다. 대표적인 얼굴 표정의 정량적 분석 도구인 FACS(Facial Action Coding System)는 사람의 감정을 표현하기 위한 얼굴 근육을 43개로 디테일하게 분류한다.
본문요약 정보가 도움이 되었나요?

참고문헌 (17)

  1. L. Williams, "Performance-driven facial animation," SIGGRAPH Comput. Graph., vol. 24, no. 4, pp. 235-242, Sept. 1990. [Online]. Available: http://doi.acm.org/10.1145/97880.97906 

  2. B. Bickel, M. Botsch, R. Angst, W. Matusik, M. Otaduy, H. Pfister, and M. Gross, "Multi-scale capture of facial geometry and motion," ACM Transactions on Graphics (TOG), vol. 26, no.3, p. 33, 2007. 

  3. E. Chuang and C. Bregler, "Performance driven facial animation using blendshape interpolation," Computer Science Technical Report, Stanford University, vol. 2, no. 2, p. 3, 2002. 

  4. T. Baltrusaitis, P. Robinson, and L.-P. Morency, "3d constrained local model for rigid and non-rigid facial tracking," in Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on. IEEE, 2012, pp. 2610-2617. 

  5. T. Weise, S. Bouaziz, H. Li, and M. Pauly, "Realtime performance-based facial animation," in ACM Transactions on Graphics (TOG), vol. 30, no. 4, ACM, 2011, p. 77. 

  6. L. Zhang, N. Snavely, B. Curless, and S. M. Seitz, "Spacetime faces: High resolution capture for modeling and animation," ACM Trans. Graph., vol. 23, no. 3, pp. 548-558, Aug. 2004. [Online]. Available: http://doi.acm.org/10.1145/1015706.1015759 

  7. Y. Liu, F. Xu, J. Chai, X. Tong, L. Wang, and Q. Huo, "Video-audio driven real-time facial animation," ACM Trans. Graph., vol. 34, no. 6, pp. 182:1-182:10, Oct. 2015. [Online]. Available: http://doi.acm.org/10.1145/2816795.2818122 

  8. K. S. Bhat, R. Goldenthal, Y. Ye, R. Mallet, and M. Koperwas, "High fidelity facial animation capture and retargeting with contours," in Proceedings of the 12th ACM SIGGRAPH/eurographics symposium on computer animation. ACM, 2013, pp. 7-14. 

  9. Q. Li and Z. Deng, "Orthogonal-blendshape-based editing system for facial motion capture data," Computer Graphics and Applications, IEEE, vol. 28, no. 6, pp. 76-82, 2008. 

  10. Y. Seol, J. Lewis, J. Seo, B. Choi, K. Anjyo, and J. Noh, "Spacetime expression cloning for blendshapes," ACM Trans. Graph., vol. 31, no. 2, pp. 14:1-14:12, Apr. 2012. [Online]. Available : http://doi.acm.org/10.1145/2159516.2159519 

  11. V. Orvalho, P. Bastos, F. Parke, B. Oliveira, and X. Alvarez, "A facial rigging survey," in in Proc. of the 33rd Annual Conference of the European Association for Computer Graphics-Eurographics, 2012, pp. 10-32. 

  12. H. Pyun, Y. Kim, W. Chae, H. W. Kang, and S. Y. Shin, "An example-based approach for facial expression cloning," in Proceedings of the 2003 ACM SIGGRAPH/Eurographics Symposium on Computer Animation, ser. SCA '03. Aire-la-Ville, Switzerland, Switzerland: Eurographics Association, 2003, pp. 167-176. [Online]. Available: http://dl.acm.org/citation.cfm?id846276.846301 

  13. Z. Deng, P.-Y. Chiang, P. Fox, and U. Neumann, "Animating blendshape faces by cross-mapping motion capture data," in Proceedings of the 2006 symposium on Interactive 3D graphics and games. ACM, 2006, pp. 43-48. 

  14. J. Song, B. Choi, Y. Seol, and J. Noh, "Characteristic facial retargeting," Computer Animation and Virtual Worlds, vol. 22, no. 2-3, pp. 187-194, 2011. 

  15. T. McLaughlin, L. Cutler, and D. Coleman, "Character rigging, deformations, and simulations in film and game production," in ACM SIGGRAPH 2011 Courses. ACM, 2011, p.5. 

  16. J. F. Cohn, Z. Ambadar, and P. Ekman, "Observer-based measurement of facial expression with the facial action coding system," The handbook of emotion elicitation and assessment, pp. 203-221, 2007. 

  17. K. Waters, "A muscle model for animation three-dimensional facial expression," SIGGRAPH Comput. Graph., vol. 21, no. 4, pp. 17-24, Aug. 1987. [Online]. Available: http://doi.acm.org/10.1145/37402.37405 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로