$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

무게중심을 활용한 모션 생성 기술
Motion generation using Center of Mass 원문보기

컴퓨터그래픽스학회논문지 = Journal of the Korea Computer Graphics Society, v.26 no.2, 2020년, pp.11 - 19  

박근태 (한양대학교 컴퓨터 전공) ,  손채준 (한양대학교 컴퓨터 전공) ,  이윤상 (한양대학교 컴퓨터 전공)

초록
AI-Helper 아이콘AI-Helper

캐릭터의 자세가 변할 때 마다 캐릭터의 무게 중심(COM) 위치도 변하게 된다. 이 때 무게 중심의 위치 변화는 걷기, 뛰기, 쭈그려 앉기 등 다양한 동작 각각에 대응되는 독자적인 패턴을 가지므로 이를 이용하면 원래 동작의 정보를 알아낼 수 있다. 본 논문에서는 캐릭터의 무게 중심의 위치 변화를 토대로 동작을 예측하는 모션 생성 기법을 제안한다. 이 방법을 이용하면 무게 중심 정보를 통해 원래 동작의 유형에 대한 별도의 라벨 없이도 다양한 동작을 생성할 수 있다. 그러므로 네트워크의 학습 및 실행을 위한 데이터셋을 만들 때 사람의 손을 거칠 필요 없이 전처리를 비롯한 모든 과정을 자동으로 진행할 수 있다. 본 논문에서 제안하는 신경망 모델은 캐릭터의 모션 이력(history) 정보와 무게 중심 정보들을 입력 받아 현재 프레임에서의 포즈 정보를 출력하며, 연속적인 시계열 모션 데이터를 다루기 위해 1차원 Convolution을 수행하는 간단한 형태의 Convolutional Neural Network(CNN)를 사용하여 학습되었다.

Abstract AI-Helper 아이콘AI-Helper

When a character's pose changes, its center of mass(COM) also changes. The change of COM has distinctive patterns corresponding to various motion types like walking, running or sitting. Thus the motion type can be predicted by using COM movement. We propose a motion generator that uses character's c...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 이후 전역 좌표계 기준 (0, 0, 0) 지점으로 초기 위치를 통일 시 켰으며, z축방향 (0, 0, 1)을 바라보도록 방향성을 통일시켰다. 본 논문에서 사용된 모델은 캐릭터 신체를 기준으로 하는 좌표계 의 값을 사용하기 때문에 좌표와 방향성을 통일하는 작업이 필요한 것은 아니지만, 실험 시 다양한 모션 데이터에 대한 ground truth와 모델의 출력을 간단히 육안으로 확인할 수 있는 환경을 만들기 위해 수행되었다.
  • 본 논문에서는 무게 중심 정보를 통해 현재 프레임의 전신 포즈를 예측하는 모델을 제 안한다. 무게 중심 정보는 각 유형의 동작에 대응되는 독자적인 패턴을 나타내므로 이 특성을 활용하면 네트워크의 입력으로들어가는 데이터셋에 각 동작유형의 라벨을 따로 명 시하지 않아도 다양한 유형 의 동작들을 모델 스스로가 판단하고 처리할 수 있다.
  • 뛰어오르는 동작과 쭈그려 앉는 동작에서는 y값의 변화가 커진다. 본 논문에서는 무게 중심 정보에 추가로 좀 더 자연스러운 결과물을만들기 위해 모션 이력 정보를추가로 활용하여 무게중심을 통한 포즈 예측의 정확성을 높였다.
  • 반면 데이 터-기반 접근법은 모션 캡쳐 장비를 이용해 얻어낸 실제 사람의 여러 모션 데이터를통해 계산모델을구축하여 대상의 행동구조를 모델링하는 기술이다. 본 논문은 데이터-기반 접근법에 기반하여 연구를 수행했다. 데이터-기반 접근법의 주요 목표는 모션 캡쳐 데이터셋과 같은 고품질의 데이터 집합을 활용하여임 의 의 환경 에서 캐 릭 터 의 자연스러운 동작을 생성하는 것이다.
  • 이에 본 논문에서는무게 중심이라는 캐릭터 정보에 주목했다. 무게 중심 정보는 캐릭터의 동작을 결정하는 매개변수로 사용하는데 필요한 장점을 충분히 가지고 있다.
본문요약 정보가 도움이 되었나요?

참고문헌 (22)

  1. D. Holden, J. Saito, T. Komura, and T. Joyce, "Learning motion manifolds with convolutional autoencoders," in SIGGRAPH Asia 2015 Technical Briefs, 2015, pp. 1-4. 

  2. I. Mordatch, K. Lowrey, G. Andrew, Z. Popovic, and E. V. Todorov, "Interactive control of diverse complex characters with neural networks," in Advances in Neural Information Processing Systems, 2015, pp. 3132-3140. 

  3. D. Holden, T. Komura, and J. Saito, "Phase-functioned neural networks for character control," ACM Transactions on Graphics (TOG), vol. 36, no. 4, pp. 1-13, 2017. 

  4. H. Zhang, S. Starke, T. Komura, and J. Saito, "Mode-adaptive neural networks for quadruped motion control," ACM Transactions on Graphics (TOG), vol. 37, no. 4, pp. 1-11, 2018. 

  5. J. Lee, J. Chai, P. S. Reitsma, J. K. Hodgins, and N. S. Pollard, "Interactive control of avatars animated with human motion data," in Proceedings of the 29th annual conference on Computer graphics and interactive techniques, 2002, pp. 491-500. 

  6. L. Kovar, M. Gleicher, and F. Pighin, "Motion graphs," in Proceedings of the 29th Annual Conference on Computer Graphics and Interactive Techniques, ser. SIGGRAPH'02. New York, NY, USA: Association for Computing Machinery, 2002, p. 473-482. [Online]. Available: https://doi.org/10.1145/566570.566605 

  7. O. Arikan and D. A. Forsyth, "Interactive motion generation from examples," ACM Transactions on Graphics (TOG), vol. 21, no. 3, pp. 483-490, 2002. 

  8. M. Lau and J. J. Kuffner, "Behavior planning for character animation," in Proceedings of the 2005 ACM SIGGRAPH/Eurographics symposium on Computer animation, 2005, pp. 271-280. 

  9. K. Hyun, K. Lee, and J. Lee, "Motion grammars for character animation," in Computer Graphics Forum, vol. 35, no. 2. Wiley Online Library, 2016, pp. 103-113. 

  10. E. Hsu, K. Pulli, and J. Popovic, "Style translation for human motion," in ACM SIGGRAPH 2005 Papers, 2005, pp. 1082-1089. 

  11. Y. Lee, K. Wampler, G. Bernstein, J. Popovic, and Z. Popovic, "Motion fields for interactive character locomotion," in ACM SIGGRAPH Asia 2010 papers, 2010, pp. 1-8. 

  12. J. M. Wang, D. J. Fleet, and A. Hertzmann, "Gaussian process dynamical models for human motion," IEEE transactions on pattern analysis and machine intelligence, vol. 30, no. 2, pp. 283-298, 2007. 

  13. G. W. Taylor and G. E. Hinton, "Factored conditional restricted boltzmann machines for modeling motion style," in Proceedings of the 26th Annual International Conference on Machine Learning, ser. ICML'09. New York, NY, USA: Association for Computing Machinery, 2009, p. 1025-1032. [Online]. Available: https://doi.org/10.1145/1553374.1553505 

  14. G. W. Taylor, G. E. Hinton, and S. T. Roweis, "Two distributed-state models for generating high-dimensional time series," Journal of Machine Learning Research, vol. 12, no. Mar, pp. 1025-1068, 2011. 

  15. K. Lee, S. Lee, and J. Lee, "Interactive character animation by learning multi-objective control," ACM Transactions on Graphics (TOG), vol. 37, no. 6, pp. 1-10, 2018. 

  16. A. Krizhevsky, I. Sutskever, and G. E. Hinton, "Imagenet classification with deep convolutional neural networks," in Advances in neural information processing systems, 2012, pp. 1097-1105. 

  17. O. Abdel-Hamid, A.-r. Mohamed, H. Jiang, L. Deng, G. Penn, and D. Yu, "Convolutional neural networks for speech recognition," IEEE/ACM Transactions on audio, speech, and language processing, vol. 22, no. 10, pp. 1533-1545, 2014. 

  18. V. Nair and G. E. Hinton, "Rectified linear units improve restricted boltzmann machines," in Proceedings of the 27th international conference on machine learning (ICML-10), 2010, pp. 807-814. 

  19. J. Chai and J. K. Hodgins, "Performance animation from low-dimensional control signals," in ACM SIGGRAPH 2005 Papers, 2005, pp. 686-696. 

  20. J. Min and J. Chai, "Motion graphs++ a compact generative model for semantic motion analysis and synthesis," ACM Transactions on Graphics (TOG), vol. 31, no. 6, pp. 1-12, 2012. 

  21. A. Safonova and J. K. Hodgins, "Construction and optimal search of interpolated motion graphs," in ACM SIGGRAPH 2007 papers, 2007, pp. 106-es. 

  22. K. Grochow, S. L. Martin, A. Hertzmann, and Z. Popovic, "Style-based inverse kinematics," in ACM SIGGRAPH 2004 Papers, 2004, pp. 522-531. 

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로