$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

이용자 기반의 비디오 키프레임 자동 추출을 위한 뇌파측정기술(EEG) 적용
Toward a Key-frame Extraction Framework for Video Storyboard Surrogates Based on Users' EEG Signals 원문보기

한국문헌정보학회지 = Journal of the Korean Society for Library and Information Science, v.49 no.1, 2015년, pp.443 - 464  

김현희 (명지대학교 문헌정보학과) ,  김용호 (부경대학교 신문방송학과)

초록
AI-Helper 아이콘AI-Helper

본 연구는 뇌파측정기술(EEG)과 사건관련유발전위 P3b를 활용하여 이용자의 인지적 반응을 측정한 후 비디오 키프레임을 자동으로 추출할 수 있는지의 가능성을 조사해 보았다. 20명의 피험자들을 대상으로 뇌파를 측정하고 분석한 결과, 적합 이미지 자극 시 좌측 두정엽 영역이 우측 두정엽 영역보다 더 활성화되며, 좌우측간 두정엽 영역의 활성화 정도가 유의한 차이를 보였다. 비적합 이미지 자극 시에는 좌측 두정엽 영역이 적합 이미지보다 덜 활성화되고, 두정엽 영역의 좌우간 활성화도 유의한 차이가 없는 것으로 나타났다. 이외에, 모든 채널의 평균값(MGFP1)의 잠재기, 채널 동시성 패턴 등에서도 두 자극간에 차이를 보여 뇌파측정기술에 기반한 키프레임 자동 추출이 가능한 것으로 확인되었다.

Abstract AI-Helper 아이콘AI-Helper

This study examined the feasibility of using EEG signals and ERP P3b for extracting video key-frames based on users' cognitive responses. Twenty participants were used to collect EEG signals. This research found that the average amplitude of right parietal lobe is higher than that of left parietal l...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구 결과는 키프레임 추출 알고리즘 구성에 적용될 수 있을 것으로 생각되고, 더 나아가 문헌정보학의 오랜 동안의 연구 대상인 적합성 이해를 위한 기초 자료로 활용될 수 있을 것으로 기대한다. 다음은 본 연구에서 얻은 결과를 토대로 적합, 부분적합 및 비적합 이미지 자극으로 생성되는 피험자들의 뇌파와 그 활성화 양상을 비교하여 논의해 본다.
  • 본 연구의 목적은 뇌파측정기술(EEG)과 ERP 방법을 이용하여 이용자 기반의 비디오 키프레임들을 자동으로 추출할 수 있는지의 가능성을 조사해 보고자 한다. 이를 위해서 피험자들에게 비디오를 보여준 후 해당 비디오에서 추출한 프레임을 제시한 후 ‘적합’, ‘부분적합’, ‘비적합’ 중 하나를 선택하도록 한다.
  • 본 연구의 목적은 뇌파측정기술(EEG)과 ERP 방법을 이용하여 이용자 기반의 비디오 키프레임들을 자동으로 추출할 수 있는지의 가능성을 조사해 보는 것이다. 연구 가설들의 검증 과정을 통해서 키프레임 자동 추출의 가능성을 확인하였고, 이와 더불어 동영상과 이미지를 보여준 후 그 영향력이 P3b에서 극대화된다는 사실도 발견하였다.
  • 즉, Koelstra et al.은 피험자들에게 비디오를 보여준 후 텍스트로 표현된 태그를 보여주면서 해당 태그가 비디오 주제에 적합한지 여부를 결정하도록 하였다. 실험 결과, 의미적으로 불일치할 때 나타나는 파형인 N400에서 비적합 및 적합 태그의 자극 후생기는 EEG 뇌파간에 통계적으로 유의한 차이가 있었다.

가설 설정

  • 1) 연구 가설 1: P3b 최고전위점을 기준으로 삼을 때, 두정엽에 위치한 뇌파 채널들 (P3/Pz/P4, P7/P8)의 적합 이미지, 부분적합 이미지 및 비적합 이미지 자극간에 통계적으로 유의미한 차이를 보일 것이다.
  • 2) 연구 가설 2: P3b 최고전위점을 기준으로 삼을 때, 두정엽에 위치한 좌우측 뇌파 채널간(P3 vs. P4; P7 vs. P8)의 뇌파크기(0.1~30Hz 대역 전위값)는 적합 이미지, 부분적합 이미지 및 비적합 이미지 자극간에 통계적으로 유의미한 차이를 보일 것이다.
  • 의 ERP 연구를 제외하고, 나머지 연구들은 정량화 뇌파와 fMRI를 이용하고 있다. 본 연구는 비디오를 시청한 후 제시한 이미지가 비디오 주제를 얼마나 잘 표현하는지의 여부에 따라서 뇌파 채널들이 반응하는 강도와 시점이 달라질 것으로 가정하고, ERP의 P3b를 사용하고자 한다. 이는 적합한 자료인지를 판단하는 작업이 기존의 정보들과 연관시켜 판단을 유도하는 반응과정의 시간이 비교적 길다고 생각했기 때문이다.
  • 이들은 짧은 동영상 비디오들을 17명의 피험자들에게 10초 이내에 두 번 보여준 후 보여준 동영상과 관련된 태그들을 각각 제시하고 적합한 태그인지 아닌지를 선택하도록 하였다. 이들은 태그가 적합하지 않을 때 즉 제시된 태그가 비디오 주제와 불일치할 때 N400이 발생한다고 가정하고 ERP 연구를 수행하였다. 실험에 사용한 동영상 자료는 차에서 나오는 사람들, 문을 여는 고양이들 등의 7개 카테고리, 각 카테고리에 속한 7개의 비디오들, 총 49개로 이루어졌다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
비디오 전체 클립을 보기 전에 적합성 판정을 위해 무엇이 필요한가? 최근 널리 보급된 비디오 자료는 의미를 결정하는 다양한 특성을 갖고 있는 대용량 자원이다. 따라서 비디오 전체 클립을 보기 전에 적합성 판정을 위해서 비디오 내용을 파악할 수 있는 비디오 영상초록이 필요하다(Yang 2005). 현재 영상초록은 전체 비디오 클립에서 일정한 시간 간격에 따라서 키프레임을 추출하거나 이미지 프로세싱을 이용하여 장면을 구분하고 각 장면에서 키프레임으로 추출하는 방식을 채택하여 구성하고 있다(Browne and Smeaton 2005).
Yang과 Marchionini(2004)는 비디오 적합성 기준으로 무엇을 제안하였는가? 2010; Kim and Kim 2010). 또한 Yang과 Marchionini(2004) 는 비디오 적합성 기준으로 텍스츄얼 기준(주제, 날짜/최신성, 장르 등), 비주얼 기준(촬영법, 객체/이벤트, 움직임 등) 및 함축적인 기준(흥미, 접근성, 친숙성 등)을 제안하였다. 그러나 이러한 방식들에 의하여 키프레임을 자동으로 추출하기 위해서는 이미지 프로세싱과 패턴인식 기술의 발전이 요구된다.
뇌파측정기술 또는 자기공명영상은 어떻게 이용되고 있는가? 따라서, 비디오 이용자의 인지적, 정서적 반응을 고려하면서 자동으로 키프레임들을 추출하기 위해서 뇌파측정기술(electroencephalography, EEG) 또는 기능적 자기공명영상(functional magnetic resonance imaging, fMRI)을 사용할 수 있다. 이러한 기술들은 인간의 시청각 시스템은 자료의 종류에 따라서 다르게 반응하며 이러한 결과가 사람들의 뇌에 반영된다는 가정 하에 적합성 분석, 멀티미디어 자료의 분류와 태깅 작업, 동영상 감성 반응 등에 응용되고 있다(Gwizdka et al. 2013; Wang et al.
질의응답 정보가 도움이 되었나요?

참고문헌 (32)

  1. 고유빈 외. 2012. 뇌 전도를 이용한 집중력 정량화 연구. HCI 2012 학술대회, 23-25.(Koh, Y. et al. 2012. "Study of quantifying concentration index using electroencephalography (EEG)." HCI Society of Korea, 23-25.) 

  2. 권준수. 2000. 인지기능연구에서의 사건관련전위의 이용. 인지과학작업, 1(1): 79-98.(Kwon, J. 2000. "The Use of event-related potentials in the study of cognitive functions." Journal of Cognitive Science, 1(1): 79-98.) 

  3. 권형규. 2011. 컴퓨터 덧셈학습의 인지적 개인차에 대한 암묵적 연합검사를 적용한 뇌파 분석. 정보교육학회논문지, 15(4): 635-644.(Kwon, H. 2011. "Brainwave activities of the cognitive individual differences in computerized arithmetic addition by implicit association test." Journal of the Korean Association of Information Education, 15(4): 635-644.) 

  4. 김종화. 2013. 사회감성 인식을 위한 EEG 코히런스를 사용한 뇌 기능 연결성 분석. 박사학위논문, 상명대학교 감성공학과.(Kim, J. 2013. Recognition of social emotion using EEG coherence analysis. Ph.D Dissertation, Department of Emotion Engineering, Sangmyung University.) 

  5. 김용호. 2006. 뇌파측정기술(EEG)을 이용한 TV 영상 감성반응의 실험 연구. 한국방송학보, 20(1): 7-49.(Kim, Y. 2006. "A study on measuring the lateral specification of brain activity using brainwave measurement(EEG)." Korean Journal of Broadcasting and Telecommunication Studies, 20(1): 7-49.) 

  6. 김현희. 2008. 영상 초록 구현을 위한 키프레임 추출 알고리즘의 설계와 성능 평가. 정보관리학회지, 25(4): 131-148.(Kim, H. 2008. "Design and evaluation of the key-frame extraction algorithm for constructing the Virtual Storyboard Surrogates." Journal of the Korean Society for Information Management, 25(4): 131-148.) 

  7. 박두흠, 권준수, 정도언. 2001. 기면병에서 전산화 뇌파 지도화 기법으로 측정한 뇌파 동시성 변화. 수면.정신생리, 8(2): 121-128.(Park, D., Kwon, J. and Jeong, D. 2001. "Changes of EEG coherence in narcolepsy measured with computerized EEG mapping technique." Sleep medicine and psychophysiology, 8(2): 121-128.) 

  8. 이성은. 2010. 간접화행의 인지적 이해모델. 독일어 문화권 연구, 19: 133-159.(Lee, S. E. 2010. "Das kognitive Verstehensmodell indirekter Sprechakte." Zeitschrift fur Deutschsprachige Kultur & Literaturen, 19: 133-159.) 

  9. 이지영. 2006. 뇌 연구방법론을 통해 살펴본 음악 처리과정 연구: 음악과 언어, 음악과 정서를 중심으로. 낭만음악, 18(3): 69-146.(Lee, J. 2006. "Neurophysiology and brain-imaging study of music -music & language, music & emotion-." Nang Man Music, 18(3): 69-146.) 

  10. 이충연, 장병탁. 2014. 뇌의 기억 인출에 대한 유효 EEG 연결성 분석. 컴퓨팅의 실제 및 레터, 20(4): 257-261.(Lee, C. and Zhang, B. 2014. "Analysis on effective EEG connectivity of memory retrieval in the brain." Journal of KIISE: Computing Practices and Letters, 20(4): 257-261.) 

  11. 이충연 외. 2011. EEG 기반 뇌기능 분석을 이용한 영화 장면-대사 기억 게임에서의 인지 학습 특성. 한국정보과학회, 38(1): 210-213.(Lee, C. et al. 2011. "Properties of human cognitive learning in a movie scene-dialogue memory game using EEG-based brain function analysis." Journal of Computing Science and Engineering, 38(1): 210-213.) 

  12. 임용수, 이승환, 홍석인. 2010. 정신분열병 환자에서 생물학적 지표로서 N100, P300과 정량화뇌파의 적용. 대한정신약물학회지, 21(2): 78-86.(Lim, Y., Lee, S. and Hong, S. 2010. "Application of N100, P300 and QEEG as a biological marker in patients with schizophrenia." The Korean Journal of Psychopharmacology, 21(2): 78-86.) 

  13. 장윤석, 한재웅. 2014. 시각자극 과제에 의한 집중 시의 뇌파분석. 한국전자통신학회 논문지, 9(5): 589-594.(Jang, Y. and Han, J. 2014. "Analysis of EEG generated from concentration by visual stimulus task." The Journal of the Korea institute of electronic communication sciences, 9(5): 589-594.) 

  14. Behneman, A. et al. 2009. Enhancing text-based analysis using neurophysiological measures. In D. D. Schmorrow et al. (Eds.), Foundations of Augmented Cognition. Neuroergonomics and Operational Neuroscience. Vol. 5638, 449-458. Berlin, Heidelberg: Springer. 

  15. Browne, P. and Smeaton, A. F. 2005. "Video retrieval using dialogue, keyframe similarity and video objects." ICIP 2005 - International Conference on Image Processing, Genova, Italy, 11-14. 

  16. Davidson, R. J. and Irwin, W. 1999. "The functional neuroanatomy of emotion and affective style." Trends in Cognitive Science, 3: 11-21. 

  17. DeFrance, J. F. 1997. "Age-related changes in cognitive ERPs of attenuation." Brain Topography, 9(4): 283-293. 

  18. Galletti, C. et al. 2003. "Role of the medial parieto-occipital cortex in the control of reaching and grasping movements." Exp Brain Res, 153: 158-170. 

  19. Gwizdka, J. et al. 2013. "Applications of neuroimaging in information science: Challenges and opportunities." Proceedings of the American Society for Information Science and Technology, 50(1): 1-4. 

  20. Hillyard, S. A. and Woods, D. L. 1979. "Electrophysiological analysis of human brain function." In M. S. Gazzaniga (Ed.), Handbook of behavioral neurobiology: Vol 2. Neuropsychology (pp. 345-378). New York: Plenum Press. 

  21. Iyer, H. and Lewis, C.D. 2007. "Prioritization strategies for video storyboard keyframes." Journal of the American Society for Information Science and Technology, 58(5): 629-644. 

  22. Jung, H. et al. 2012. "Reduced source activity of event-related potentials for affective facial pictures in schizophrenia patients." Schizophrenia Research, 136: 150-159. 

  23. Kim, H. and Kim, Y. 2010. "Toward a conceptual framework of key-frame extraction and storyboard display for video summarization." Journal of the American Society for Information Science and Technology, 61(5): 927-939. 

  24. Koelstra, S., Muehl, C. and Patras, I. 2009. "EEG analysis for implicit tagging of video data." Proceeding of the 3rd International Conference on Affective Computing and Intelligent Interaction and Workshops, ACII 2009, 27-32, Los Alamitos, 2009. IEEE Computer Society Press. 

  25. Moshfeghi, Y., Pinto, L. R., Pollick, F. R. and Jose, J. M. 2013. "Understanding relevance: An fMRI study." In P. Serdyukov et al., eds. Advances in Information Retrieval. Springer Berlin Heidelberg. 

  26. Naghavi, H. and Nyberg, L. 2005. "Common fronto-parietal activity in attention, memory, and consciousness: Shared demands on integration?" Consciousness and Cognition, 14(2): 390-425. 

  27. Song, Y., Marchionini, G. and Oh, C. 2010. "What are the most eye-catching and ear-catching features in the video?" Implications for video summarization. WWW 2010, April 26-30, 2010, Raleigh, North Carolina. 

  28. Thatcher, R. W., Krause, P. J. and Hrybyk, M. 1986. "Cortico-cortical associations and EEG coherence: a two-compartmental model." Electroencephalogr Clin Neurophysiol, 64: 123-143. 

  29. Tulving, E. et al. 1994. "Hemispheric encoding / retrieval asymmetry in episodic memory: position emission tomography findings." Proceedings of the National Academy of Sciences of the United States of America, 91(6): 2016-2020. 

  30. Wang, S., Zhu, Y., Wu, G. and Ji, Q. 2013. "Hybrid video emotional tagging using users' EEG and video content." Multimedia Tools and Applications, 72(2): 1257-1283. 

  31. Yang, M. 2005. An exploration of users' video relevance criteria. Unpublished doctoral dissertation, University of North Carolina at Chapel Hill. 

  32. Yang, M. and Marchionini, G. 2004. Exploring users' video relevance criteria: A pilot study. Proceedings of the ASIST Annual Meeting, 41: 229-238. Medford, NJ: Information Today. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

유발과제정보 저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로