$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

개인화 전시 서비스 구현을 위한 지능형 관객 감정 판단 모형
The Intelligent Determination Model of Audience Emotion for Implementing Personalized Exhibition 원문보기

지능정보연구 = Journal of intelligence and information systems, v.18 no.1, 2012년, pp.39 - 57  

정민규 (경희대학교 경영대학 경영학부) ,  김재경 (경희대학교 경영대학 경영학부)

초록
AI-Helper 아이콘AI-Helper

최근 기존 전시 공간 내에 유비쿼터스 환경이 구축되면서, 관객과의 상호작용을 통해 전시 효과를 배가할 수 있는 인터랙티브 전시에 많은 사람들의 관심이 집중되고 있다. 이러한 인터랙티브 전시가 보다 고도화되기 위해서는 전시물에 대한 다양한 관객 반응을 측정하고, 이를 통해 대상 관객이 어떤 감정을 느끼는지 예측할 수 있는 적절한 의사결정지원 모형이 요구된다. 이러한 배경에서 본 연구는 인터랙티브 전시 공간 내에서 수집 가능한 다양한 관객 반응 중 얼굴표정의 변화를 이용하여, 관객의 감정을 추론, 판단하는 지능형 모형을 제시한다. 본 연구에서 제시하는 모형은 무자극 상태의 관객의 표정과 자극이 주어졌을 때 관객의 표정이 어떻게 변화하는지 변화량을 측정하여, 이를 기반으로 인공신경망 기법을 이용해 해당 관객의 감정을 판단하는 모형이다. 이 때, 제안모형의 감정 분류체계로는 간결하면서도 실무에 적용이 용이하여 그간 기존 문헌에서 널리 활용되어 온 매력-각성(Valence-Arousal) 모형을 사용한다. 제안모형의 유용성을 검증하기 위해, 본 연구에서는 2011 서울 DMC 컬쳐 오픈 행사에 참여하여, 일반인을 대상으로 얼굴 표정 변화 데이터를 수집하고, 이들이 느끼는 감정 상태를 설문조사하였다. 그리고 나서, 이 자료들을 대상으로 본 연구에서 제안하는 모형을 적용해 보고, 제안모형이 비교모형으로 설정된 통계기반 예측모형에 비해 더 우수한 성과를 보이는지 확인해 보았다. 실험 결과, 본 연구에서 제시하는 모형이 비교 모형인 중회귀분석 모형보다 더 우수한 결과를 제공함을 확인할 수 있었다. 본 연구를 통하여 구축된 관객 감정 판단 모형을 실제 전시장에서 활용한다면 전시물을 관람하는 관객의 반응에 따라 시의적절하면서도 효과적인 대응이 가능하기 때문에, 관객의 몰입과 만족을 보다 증대시킬 수 있을 것으로 기대된다.

Abstract AI-Helper 아이콘AI-Helper

Recently, due to the introduction of high-tech equipment in interactive exhibits, many people's attention has been concentrated on Interactive exhibits that can double the exhibition effect through the interaction with the audience. In addition, it is also possible to measure a variety of audience r...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 구체적으로 본 논문은 인터랙티브 전시 공간 내에서 수집 가능한 다양한 관객 반응 데이터 중 얼굴 표정의 변화를 통해 대상 관객이 얼마나 대상물에 매력을 느끼고 있는지, 그리고 대상물에 몰입해 있는지를 판단할 수 있는 인공신경망 기반의 관객 감정 판단 모형을 제시하였다. 이러한 지능형 모형에 의거한 인간의 감정 판단을 전시 분야에 응용한 학술적 접근은 본 논문이 사실상 최초라고 판단되며, 이것이 본 논문이 갖는 가장 큰 학술적 의의라고 사료된다.
  • 우선 매력도 추정을 위한 인공신경망 모형 구축 실험에 대한 결과를 보면 다음과 같다. 본 실험은 은닉층 노드의 수가 각각 5개, 9개, 14개, 18개 일경우에 대해 실험해 보고, 성과가 가장 우수한 경우의 모형을 선정하는 것으로 실험을 진행하였다. 그 결과 <표 7>과 같은 결과를 얻을 수 있었다.
  • 본 연구는 인터랙티브 전시장에 참여한 관객들에게 개인화된 전시 서비스를 제공하기 위해, 관객의 반응을 통해 그 관객의 감정을 판단할 수 있는 새로운 모형을 제안하는 것을 목적으로 한다. 인공신경망 기법에 의해 학습되는 본 연구의 제안 모형은 관객의 얼굴 특징의 변화를 통해, 그 관객이 현재 대상 전시물에 대해 얼마나 매력을 느끼고 있는지, 그리고 얼마나 몰입하고 있는지를 판단할 수 있다.
  • 첫 번째 단계는 자료 수집 단계인데, 이 단계에서는 관객의 감정을 판단할 수 있도록 인공 신경망 모형을 학습시킬 수 있는 원천 데이터를 수집하는 단계이다. 본 연구에서는 매력도와 각성도를 모두 예측하기 위한 모형의 입력 데이터로 사용하기 위해, 피실험자 1명 당 크게 세 가지 상태의 얼굴 표정을 캡처한 사진의 데이터를 수집한다. 본 실험에서 크게 세 가지 상태의 화상을 이용한 이유는 다음과 같다.
  • 본 연구에서는 얼굴 특징으로부터 감정을 판단하기 위한 도구로 인공신경망을 적용하고자 하는 데, 본 연구와 마찬가지로 얼굴 특징으로부터 특정 패턴을 인식하는 연구는 기존에도 많이 시도되어 왔다. 예를 들어, Ioanna-Ourania(2004), Mark et al.
  • 본 연구에서는 일반인을 대상으로 분석 데이터를 수집하여 제안하는 새로운 관객 반응 판단 모형의 유용성을 검증해 보고자 하였다. 이를 위해 서울 상암동에서 개최된 2011 서울 DMC 컬쳐 오픈 행사에 참가하여, 9월 29일부터 10월 1일까지 2박 3일간 행사 참여자들을 대상으로 데이터를 수집하였다.
  • 상기 지적한 기존 연구들의 한계점을 보완하고자, 본 연구에서는 수집 가능한 다양한 관객 반응 중에서 얼굴표정이 변화하는 데이터를 이용하여 관객이 전시물에 대해 어떤 감정을 느끼는지를 판단하는 새로운 모형을 제시하고자 하였다. 이 때, 감정에 대한 분류체계는 기존 연구들이 주로 사용해 온 Ekman의 6가지 분류체계가 아닌 매력-각성 (Valence-Arousal, 이하 V-A) 모형을 적용함으로써, 판단된 감정을 토대로 적절한 전시 서비스의 변화가 이루어질 수 있도록 하였다.
  • 이러한 상태 데이터들은 모두 얼굴이 찍힌 화상 이미지들인데, 본 연구에서는 이들 이미지들로부터 와 같은 총 64개의 얼굴 특징점을 도출해 이들을 기준으로 얼굴 특징을 산출하고자 하였다.
  • 하지만, 이들 기존 연구들은 대부분 얼굴 특징의 변화량에서 감정을 판단할 때, 앞서 소개한 Ekman의 6가지 유형만을 적용해 왔다는 한계가 존재한다. 이러한 한계점을 보완하기 위하여 본 연구에서는 인공신경망 기법으로 V-A 모형 기반의 감정을 판단할 수 있는 새로운 모형을 제안하고자 한다.
  • 본 연구에서는 제안모형에 사용된 인공신경망 기법의 우수성을 검증하기 위해, 비교모형으로 중회귀분석 기법을 적용하였다. 이를 통해, 과연 인공신경망 기법이 관객 감정을 판단하기 위한 모형으로 적합한지 확인해 보고자 하였다.
  • 이러한 관객 맞춤형 개인화 서비스를 제공하기 위해서는 우선 전시물을 관람하는 관객의 반응을 이해하고, 이를 통해 대상 관객의 감정을 판단하는 것이 필요하다. 이에 본 논문에서는 기존의 연구들을 바탕으로 인터랙티브 전시 공간 내에서 수집 가능한 관객 반응 데이터를 이용하여 관객의 감정을 판단할 수 있는 새로운 모형을 구축하기 위한 연구를 수행하였다.
  • 김용준과 조성배(2009)는 베이지안(Bayesian) 체계를 사용하여 추론된 사용자의 감정을 V-A 모형을 사용하여 표현하였고, 추론된 감정을 통해 현재 상황에 가장 적합한 장르의 벨소리를 추천하여 사용자의 편의를 증대하였다. 이에, 본 연구 역시 이처럼 상대적으로 응용가능성이 더 높다고 평가되는 V-A 모형에 기반하여 관객의 감정을 체계화하고자 하였다.
  • 둘째, 일부 몰입도 측정에 관련된 연구가 존재하긴 하지만, 유비쿼터스 공간 구성의 어려움으로 인해 실시간으로 수집되는 데이터를 이용하지 못하는 한계점이 존재한다. 이에, 본 연구에서는 기존 논문들이 지닌 한계점을 보완하고자 인터랙티브 전시 공간 내에서 관객이 전시물을 관람 하는 중 실시간으로 수집되는 데이터를 이용하여 전시물에 대한 관객의 몰입의 정도가 어떠한지 판단할 수 있는 모형을 제시하고자 한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
인터랙티브 시스템이란 어떤 시스템인가? 인터랙티브란 컴퓨터 공학 분야에서는 ‘대화식’, 통신 분야에서는 ‘양방향 통신’이라는 의미로 해석되며, 인터랙티브 시스템은 사용자가 마치 컴퓨터와 대화를 하듯이 쌍방향으로 입력과 출력을 할 수 있는 시스템을 나타낸다(김규정 등, 2008). 이러한 인터랙티브를 전시 분야에 응용한 인터랙티브 전시는 전시물과 관객 간의 상호작용을 기반으로 관객이 작품을 스스로 선택하고 직접 손으로 만지고 조작(hands-on)하고 관찰하면서 작품의 내용을 창의적으로 이해하고 경험하게 되는 전시 방법이다(김철근 등, 1996; 최지영 등, 2010).
인터랙티브란 무엇인가? 인터랙티브란 컴퓨터 공학 분야에서는 ‘대화식’, 통신 분야에서는 ‘양방향 통신’이라는 의미로 해석되며, 인터랙티브 시스템은 사용자가 마치 컴퓨터와 대화를 하듯이 쌍방향으로 입력과 출력을 할 수 있는 시스템을 나타낸다(김규정 등, 2008). 이러한 인터랙티브를 전시 분야에 응용한 인터랙티브 전시는 전시물과 관객 간의 상호작용을 기반으로 관객이 작품을 스스로 선택하고 직접 손으로 만지고 조작(hands-on)하고 관찰하면서 작품의 내용을 창의적으로 이해하고 경험하게 되는 전시 방법이다(김철근 등, 1996; 최지영 등, 2010).
인터랙티브 전시 관련 기존 연구들의 한계점은 무엇인가? 하지만, 이와 같은 인터랙티브 전시 관련 기존 연구들에는 몇 가지 한계점이 존재한다. 첫째, 인터랙티브 전시 공간 내에서 관객이 전시물을 관람하는 중 해당 전시물에 대한 관객의 감정, 그 중에서도 특히 몰입도를 직접 측정하려는 연구가 거의 전무하다. 둘째, 일부 몰입도 측정에 관련된 연구가 존재하긴 하지만, 유비쿼터스 공간 구성의 어려 움으로 인해 실시간으로 수집되는 데이터를 이용하지 못하는 한계점이 존재한다. 이에, 본 연구에서는 기존 논문들이 지닌 한계점을 보완하고자 인터랙티브 전시 공간 내에서 관객이 전시물을 관람 하는 중 실시간으로 수집되는 데이터를 이용하여 전시물에 대한 관객의 몰입의 정도가 어떠한지 판단할 수 있는 모형을 제시하고자 한다.
질의응답 정보가 도움이 되었나요?

참고문헌 (33)

  1. 김규정, 김봉화, 이명학, 한혜정, "음성인식 기반인터랙티브 미디어 아트의 연구 1-소리-시각 인터랙티브 설치미술 불꽃 뮤직을 중심으로-", 기초조형학연구, 9권 5호(2008), 27-35. 

  2. 김대수, 신경망 이론과 응용, 하이테크정보, 1993. 

  3. 김미연, 김정현, 최진원, "인터렉티브 체험형 전시공간 디자인을 위한 사례분석 연구", 대한건축학회, 24권 1호(2008), 11-18. 

  4. 김용준, 조성배, "감정 모델을 통해 휴대폰의 벨소리를 추천하는 상황 인식 추천 시스템", 한국정보과학회 2009 한국컴퓨터종합학술대회 논문집, 36권 1호(2009), 162-165. 

  5. 김철근 외, 전시이론과 기법 연구집, 국립중앙과학관, 학술총서 12권(1996). 

  6. 송현미, 최준혁, 임채진, "첨단과학기술 체험전시를 위한 연출기법 및 전시구성체계에 관한 연구-첨단과학분야(NT, MEMS, BT)의 체험전시를 중심으로-", 한국실내디자인학회 학술대회논문집, 7권 1호(2005), 182-186. 

  7. 심홍기, 김승권, "인공신경망을 이용한 대대전투간작전지속능력 예측에 관한 연구", 대한산업공학회/한국경영과학회 춘계공동학술대회, 2008. 

  8. 유민준, 김현주, 이인권, "감성모델을 이용한 음악탐색 인터페이스", 한국 HCI 2009 학술대회,(2009), 707-710. 

  9. 유재엽, "영상미디어 연출 특성에 따른 공간 표현에 관한 연구", 한국실내디자인학회논문집, 13권 6호(2004), 175-183. 

  10. 임승희, 배경수, 곽수정, 박인석, 박지수, "체험전시 콘텐츠의 몰입도 분석을 위한 주관적 경험측정", 디자인학 연구, 22권 4호(2009), 19-30. 

  11. 장남식, 홍성완, 장재호, 데이터마이닝, 대청, 1999. 

  12. 최지영, 노승석, 박진완, "디지털 미디어를 활용한어린이 체험 전시 작품 구현 방안 연구", 디자인학 연구, 23권 5호(2010), 233-242. 

  13. Alvarado, N., "Arousal and Valence in the Direct Scaling of Emotional Response to Film Clips", Motivation and Emotion, Vol.21(1997), 323- 348. 

  14. Bouzalmat, A., N. Belghini, A. Zarghili, J. Kharroubi, and A. Majda, "Face Recognition Using Neural Network Based Fourier Gabor Filters and Random Projection", International Journal of Computer Science and Security (IJCSS), Vol.5, No.3(2011), 376-386. 

  15. Brainerd, C. J., R. E. Holliday, V. F. Reyna, Y. Yang, and M. P. Toglia, "Developmental reversals in false memory : Effects of emotional valence and arousal", Journal of Experimental Child Psychology, Vol.107(2010), 137-154. 

  16. Colibazzi, T., J. Posner, Z. Wang, D. Gorman, A. Gerber, and S. Yu, "Neural systems subserving valence and arousal during the experience of induced emotions", Emotion, Vol.10, No.3(2010), 377-389. 

  17. Ekman, P., "Universals and Cultural Differences in Facial Expressions of Emotion. In J. Cole (Ed.)", Nebraska Symposium on Motivation, Vol.19(1972), 207-282. 

  18. Haykin, S., "Neural Networks : A Comprehensive Foundation", Prentice Hall : Upper Saddle River, NJ, USA, 1999. 

  19. Henry, A. R., B. Shumeet, and K. Takeo, "Neural Network-Based Face Detection", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.20, No.1(1998), 23-38. 

  20. Huang, C. L. and Y. M. Huang, "Facial Expression Recognition Using Model-Based Feature Extraction and Action Parameters Classification", Journal of Visual Communication and Image Representation, Vol.8, No.3(1977), 278 -290. 

  21. Lane, R. and L. Nadel, Cognitive Neuroscience of Emotion. Oxford Univ. Press, 2000. 

  22. Lewis, P. A., H. D. Critchley, P. Rotshtein, and R. J. Dolan, "Neural Correlates of Processing Valence and Arousal in Affective Words", Cerebral Cortex, Vol.17, No.3(2007), 742- 748. 

  23. Luigina, C., "Situating 'Place' in Interaction Design : Enhancing the User Experience in Interactive Environments", Dept. of Computer Science and Information Systems, University of Limerick, 2004. 

  24. MaCulloch, W. S. and W. H. Pitts, "A logical calculus of ideas immanent in nervous activity", Bulletin of Mathematical Biophysics, Vol.9 (1943), 115-133. 

  25. Mark, R., Y. Yaser, and S. D. Larry, "Human Expression Recognition from Motion Using : a Radial Basis Function Network Architecture", IEEE Transactions on Neural Networks, Vol.7, No.5(1996), 1121-1138. 

  26. Mehrabian, A. and J. Russell, An Approach to Environmental Psychology. MIT Press, 1974. 

  27. Nicolaou, M., H. Gunes, and M. Pantic, "Continuous Prediction of Spontaneous Affect from Multiple Cues and Modalities in Valence-Arousal Space", IEEE Transactions on Affective Computing, Vol.2, No.2(2011), 92-105. 

  28. Oliveira, A. M., M. P. Teixeira, I. B. Fonseca, and M. Oliveira, "Joint Model-Parameter Validation of Self-Estimates of Valence and Arousal : Probing a Differential-Weighting Model of Affective Intensity", Proc. 22nd Ann. Meeting Int'l Soc. for Psychophysics (2006), 245-250. 

  29. Pantic, M. and L. J. M. Rothkrantz, "Expert system for automatic analysis of facial expressions", Image and Vision Computing, Vol.18(2000), 881-905. 

  30. Russell, J. A., "A Circumplex Model of Affect", J. Personality and Social Psychology, Vol. 39(1980), 1161-1178. 

  31. Stathopoulou, I. O. and G. A. Tsihrintzis, "An Improved Neural Network-Based Face Detection and Facial Expression Classification System", IEEE International Conference on Systems, Man, and Cybernetics 2004, The Hague, The Netherlands(2004). 

  32. Xu, M., J. S. Jin, S. Luo, and L. Duan, "Hierarchical movie affective content analysis based on arousal and valence features", MM '08 : Proc . of the 16th ACM Mult, (2008), 677- 680. 

  33. Zahid, R., G. Suat, B. Micheal, and R. Bernd, "A Unified Features Approach to Human Face Image Analysis and Interpretation", Affective Computing and Intelligent Interaction(ACII), (2009), 41-48. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로