$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

행동 네트워크를 이용한 감정형 제스처 기반 대화 관리 시스템
An Emotional Gesture-based Dialogue Management System using Behavior Network 원문보기

정보과학회논문지. Journal of KIISE. 소프트웨어 및 응용, v.37 no.10, 2010년, pp.779 - 787  

윤종원 (연세대학교 컴퓨터과학과) ,  임성수 (연세대학교 컴퓨터과학과) ,  조성배 (연세대학교 컴퓨터과학과)

초록
AI-Helper 아이콘AI-Helper

최근 로봇의 다양한 활용과 더불어 로봇-사람간의 상호작용에 대한 연구 또한 활발하게 진행되고 있으며, 대표적으로 자연어 처리나 대화중 제스처 생성 등의 방법이 로봇과 사람간의 의사소통에 적용되었다. 그러나 기존의 로봇-사람간의 의사소통을 위한 방법을 통해서는 정적인 의사소통만을 수행할 수 있다는 한계가 존재하며, 보다 자연스럽고 사실적인 의사소통 방법에 대한 연구가 필요하다. 본 논문에서는 보다 수준 높은 의사소통을 위해 감정형 제스처 기반 대화 관리 시스템을 제안한다. 제안하는 시스템은 베이지안 네트워크와 패턴 매칭을 이용하여 로봇과 사람간의 대화를 수행함과 동시에 로봇-사람간의 대화 도중 실시간으로 상황에 어울리는 로봇의 감정형 제스처를 생성한다 감정형 제스처 생성을 통해 로봇은 사람에게 대화를 보다 효과적으로 전달함과 더불어 사실적인 상호작용을 수행할 수 있다. 제스처 생성은 동적으로 변화하는 대화 상황에 유연하게 대처할 수 있도록 행동 네트워크를 사용하였다. 이후 제안하는 감정형 제스처 기반 시스템의 유용성을 검증하기 위해 사용성 평가를 통해 감정이니 제스처를 사용하지 않는 기존의 대화 관리 시스템과의 비교를 수행하였다.

Abstract AI-Helper 아이콘AI-Helper

Since robots have been used widely recently, research about human-robot communication is in process actively. Typically, natural language processing or gesture generation have been applied to human-robot interaction. However, existing methods for communication among robot and human have their limits...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 대화 에이전트를 보다 유연하고 자연스럽게 만들기 위해서 계획 기반 모델을 이용해 분석 모듈을 설계한다. 또한 베이지안 네트워크 주제 추론, 키워드 패턴 매칭의 2단계 추론을 통해서 보다 정확하게 사용자의 의도를 추론한다.
  • 본 논문에서는 로봇과 사람 간의 유연하고 사실적인 상호작용을 위해 감정형 제스처 기반 대화 관리 시스템을 제안하였다. 제안한 시스템은 대화 상황에 따라 로봇의 감정 상태를 생성하고, 상황과 감정에 적합한 제스처를 행동 네트워크를 통해 생성한다.
  • 본 논문에서는 유연하고 사실적인 사람-로봇 간의 상호작용을 위해 제스처 기반 대화 관리 시스템을 제안한다. 제안하는 시스템은 대화 시스템과 감정 시스템, 그리고 행동 시스템으로 구성된다.
  • 이에 착안하여 본 논문에서는 행동 네트워크를 이용하여 로봇의 제스처를 생성하는 방법을 제안한다.
본문요약 정보가 도움이 되었나요?

참고문헌 (29)

  1. A. Green and K. Eklundh, "Designing for learnability in human-robot communication," IEEE Trans. Ind. Electron., vol.50, no.4, pp.644-650, 2003. 

  2. T. Fong, C. Thorpe, and C. Baur, "Robot, asker of questions," Robot. Auton. Syst., vol.42, no.3-4, pp.235-243, 2003. 

  3. H. Prendinger and M. Ishizuka, "Let's talk! Socially intelligent agents for language conversation training," IEEE Trans. Syst., Man, Cybern. A, Syst. Humans, vol.31, no.5, pp.465-471, 2001. 

  4. D. Sanford and J. Roach, "A theory of dialogue structures to help manage human-computer interaction," IEEE Trans. Syst., Man, Cybern., vol.18, no.4, pp.567-574, 1988. 

  5. A. Ratnaparkhi, "Trainable approaches to surface natural language generation and their application to conversational dialog systems," Computer Speech and Language, vol.16, no.3-4, pp.435-455, 2002. 

  6. M. A. Walker, O. C. Rambow and M. Rogati, "Training a sentence planner for spoken dialogue using boosting," Computer Speech and Language, vol.16, no.3-4, pp.409-433, 2002. 

  7. E. Levin, R. Pieraccini and W. Eckert, "A stochastic model of human-machine interaction for learning dialog strategies," IEEE Trans. on Speech and Audio Processing, vol.8, no.1, pp.11-23, 2000. 

  8. I. Bulyko and M. Ostendorf, "Efficient integrated response generation from multiple targets using weighted finite state transducers," Computer Speech and Language, vol.16, no.3-4, pp.533-550, 2002. 

  9. N. Mitsunaga, C. Smith, T. Kanda, H. Ishiguro, and N. Hagita, "Adapting robot behavior for human- robot interaction," IEEE Trans. on robotics, vol.24, no.4, pp.911-916, 2008. 

  10. W. Breitfuss, H. Prendinger, and M. Ishizuka, "Automatic generation of gaze and gestures for dialogues between embodied conversational agents," International Journal of Semantic Computing, vol. 2, no.1, pp.71-90, 2008. 

  11. S. Franklin, and A. Graesser, "Is it an agent, or just a program? : A taxonomy for autonomous agents," Lecture Notes in Computer Science, vol.1193, pp.21-35, 1997. 

  12. S. Macskassy and S. Stevenson, "A conversational agent," Master essay, Rutgers University, 1996. 

  13. P. Nuguesm et al., "A conversational agent to navigate in virtual worlds," Proc. of the 11th Workshop on Language Technology, pp.23-33, 1996. 

  14. J.-H. Hong and S.-B. Cho, "A two-stage bayesian network for effective development of conversational agent," Lecture Notes in Computer Science, vol.2690, pp.1-9, 2003. 

  15. C.-J. Lee, S.-K. Jung, S.-H. Kim, and G. C.-B. Lee, "Example-based dialog modeling for practical multi-domain dialog system," Speech Communication, vol.51, no.5, pp.466-484, 2009. 

  16. P. Maes, "How to do the right thing," Connection Science Journal, vol.1, no.3, pp.291-323, 1989. 

  17. M. N. Nicolescu and M. J. Mataric, "Extending behavior-based systems capabilities using an abstract behavior representation," AAAI Fall Symposium on Parallel Cognition, pp.27-34, 2000. 

  18. M. N. Nicolescu and M. J. Mataric, "A hierarchical architecture for behavior-based robots," In Proc. of First Int. Joint Conf. on Autonomous Agents and Multi-Agent Systems, pp.227-233, 2002. 

  19. A. Khoo and R. Zubek, "Applying inexpensive AI techniques to computer games," IEEE Intelligent Systems, vol.17, no.4, pp.48-53, 2002. 

  20. D. Evans, "Emotion," Oxford University Press, 2001. 

  21. A. Ortony, G. Clore, and A. Collins, "The cognitive structure of emotions," Chicago University Press, 1998. 

  22. C. D. Elliott, "The affective reasoner: A process model of emotions in a multi-agent system," Northwestern University, 1992. 

  23. M. El-Nasr, T. R. Loerger, and J. Yen, "Emotionally Expressive Agents," 1998. 

  24. C.-T. Cheng, Y.-T. Yang, S.-H. Miao, and C.-C. Wong, "Motion and emotional behavior design for pet robot dog," Lecture Notes in Computer Science, vol.5744, pp.13-22, 2009. 

  25. S.-S. Lim, S.-B. Cho, "Automatic construction of hierarchical Bayesian networks for topic inference of conversational agent," Journal of Korea Information Science Society: Software and Applications, vol.33, no.10, pp.877-885, Oct. 2006. 

  26. E. Horvitz and T. Paek, "A computational architecture for conversation," Proc. 7th Int. Conf. User Modeling, pp.201-210, 1999. 

  27. C. Bartneck, "Integrating the OCC model of emotions in embodied characters," In Proc. of the Workshop on Virtual Conversational Characters: Applications, Methods, and Research Challenges, 2002. 

  28. B. R. Steunebrink, M. Dastani, and J.-J. Ch. Meyer, "A formal model of emotion-based action tendency for intelligent agents," Lecture Notes in Computer Science, vol.5816, pp.174-186, 2009. 

  29. J. Brooke, "SUS: A quick and dirty usability scale," Usability evaluation in industry, 1996. 

저자의 다른 논문 :

LOADING...
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로