최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국문헌정보학회지 = Journal of the Korean Society for Library and Information Science, v.49 no.1, 2015년, pp.443 - 464
김현희 (명지대학교 문헌정보학과) , 김용호 (부경대학교 신문방송학과)
This study examined the feasibility of using EEG signals and ERP P3b for extracting video key-frames based on users' cognitive responses. Twenty participants were used to collect EEG signals. This research found that the average amplitude of right parietal lobe is higher than that of left parietal l...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
비디오 전체 클립을 보기 전에 적합성 판정을 위해 무엇이 필요한가? | 최근 널리 보급된 비디오 자료는 의미를 결정하는 다양한 특성을 갖고 있는 대용량 자원이다. 따라서 비디오 전체 클립을 보기 전에 적합성 판정을 위해서 비디오 내용을 파악할 수 있는 비디오 영상초록이 필요하다(Yang 2005). 현재 영상초록은 전체 비디오 클립에서 일정한 시간 간격에 따라서 키프레임을 추출하거나 이미지 프로세싱을 이용하여 장면을 구분하고 각 장면에서 키프레임으로 추출하는 방식을 채택하여 구성하고 있다(Browne and Smeaton 2005). | |
Yang과 Marchionini(2004)는 비디오 적합성 기준으로 무엇을 제안하였는가? | 2010; Kim and Kim 2010). 또한 Yang과 Marchionini(2004) 는 비디오 적합성 기준으로 텍스츄얼 기준(주제, 날짜/최신성, 장르 등), 비주얼 기준(촬영법, 객체/이벤트, 움직임 등) 및 함축적인 기준(흥미, 접근성, 친숙성 등)을 제안하였다. 그러나 이러한 방식들에 의하여 키프레임을 자동으로 추출하기 위해서는 이미지 프로세싱과 패턴인식 기술의 발전이 요구된다. | |
뇌파측정기술 또는 자기공명영상은 어떻게 이용되고 있는가? | 따라서, 비디오 이용자의 인지적, 정서적 반응을 고려하면서 자동으로 키프레임들을 추출하기 위해서 뇌파측정기술(electroencephalography, EEG) 또는 기능적 자기공명영상(functional magnetic resonance imaging, fMRI)을 사용할 수 있다. 이러한 기술들은 인간의 시청각 시스템은 자료의 종류에 따라서 다르게 반응하며 이러한 결과가 사람들의 뇌에 반영된다는 가정 하에 적합성 분석, 멀티미디어 자료의 분류와 태깅 작업, 동영상 감성 반응 등에 응용되고 있다(Gwizdka et al. 2013; Wang et al. |
고유빈 외. 2012. 뇌 전도를 이용한 집중력 정량화 연구. HCI 2012 학술대회, 23-25.(Koh, Y. et al. 2012. "Study of quantifying concentration index using electroencephalography (EEG)." HCI Society of Korea, 23-25.)
권준수. 2000. 인지기능연구에서의 사건관련전위의 이용. 인지과학작업, 1(1): 79-98.(Kwon, J. 2000. "The Use of event-related potentials in the study of cognitive functions." Journal of Cognitive Science, 1(1): 79-98.)
권형규. 2011. 컴퓨터 덧셈학습의 인지적 개인차에 대한 암묵적 연합검사를 적용한 뇌파 분석. 정보교육학회논문지, 15(4): 635-644.(Kwon, H. 2011. "Brainwave activities of the cognitive individual differences in computerized arithmetic addition by implicit association test." Journal of the Korean Association of Information Education, 15(4): 635-644.)
김종화. 2013. 사회감성 인식을 위한 EEG 코히런스를 사용한 뇌 기능 연결성 분석. 박사학위논문, 상명대학교 감성공학과.(Kim, J. 2013. Recognition of social emotion using EEG coherence analysis. Ph.D Dissertation, Department of Emotion Engineering, Sangmyung University.)
김용호. 2006. 뇌파측정기술(EEG)을 이용한 TV 영상 감성반응의 실험 연구. 한국방송학보, 20(1): 7-49.(Kim, Y. 2006. "A study on measuring the lateral specification of brain activity using brainwave measurement(EEG)." Korean Journal of Broadcasting and Telecommunication Studies, 20(1): 7-49.)
박두흠, 권준수, 정도언. 2001. 기면병에서 전산화 뇌파 지도화 기법으로 측정한 뇌파 동시성 변화. 수면.정신생리, 8(2): 121-128.(Park, D., Kwon, J. and Jeong, D. 2001. "Changes of EEG coherence in narcolepsy measured with computerized EEG mapping technique." Sleep medicine and psychophysiology, 8(2): 121-128.)
이성은. 2010. 간접화행의 인지적 이해모델. 독일어 문화권 연구, 19: 133-159.(Lee, S. E. 2010. "Das kognitive Verstehensmodell indirekter Sprechakte." Zeitschrift fur Deutschsprachige Kultur & Literaturen, 19: 133-159.)
이지영. 2006. 뇌 연구방법론을 통해 살펴본 음악 처리과정 연구: 음악과 언어, 음악과 정서를 중심으로. 낭만음악, 18(3): 69-146.(Lee, J. 2006. "Neurophysiology and brain-imaging study of music -music & language, music & emotion-." Nang Man Music, 18(3): 69-146.)
이충연, 장병탁. 2014. 뇌의 기억 인출에 대한 유효 EEG 연결성 분석. 컴퓨팅의 실제 및 레터, 20(4): 257-261.(Lee, C. and Zhang, B. 2014. "Analysis on effective EEG connectivity of memory retrieval in the brain." Journal of KIISE: Computing Practices and Letters, 20(4): 257-261.)
이충연 외. 2011. EEG 기반 뇌기능 분석을 이용한 영화 장면-대사 기억 게임에서의 인지 학습 특성. 한국정보과학회, 38(1): 210-213.(Lee, C. et al. 2011. "Properties of human cognitive learning in a movie scene-dialogue memory game using EEG-based brain function analysis." Journal of Computing Science and Engineering, 38(1): 210-213.)
임용수, 이승환, 홍석인. 2010. 정신분열병 환자에서 생물학적 지표로서 N100, P300과 정량화뇌파의 적용. 대한정신약물학회지, 21(2): 78-86.(Lim, Y., Lee, S. and Hong, S. 2010. "Application of N100, P300 and QEEG as a biological marker in patients with schizophrenia." The Korean Journal of Psychopharmacology, 21(2): 78-86.)
Behneman, A. et al. 2009. Enhancing text-based analysis using neurophysiological measures. In D. D. Schmorrow et al. (Eds.), Foundations of Augmented Cognition. Neuroergonomics and Operational Neuroscience. Vol. 5638, 449-458. Berlin, Heidelberg: Springer.
Browne, P. and Smeaton, A. F. 2005. "Video retrieval using dialogue, keyframe similarity and video objects." ICIP 2005 - International Conference on Image Processing, Genova, Italy, 11-14.
Davidson, R. J. and Irwin, W. 1999. "The functional neuroanatomy of emotion and affective style." Trends in Cognitive Science, 3: 11-21.
DeFrance, J. F. 1997. "Age-related changes in cognitive ERPs of attenuation." Brain Topography, 9(4): 283-293.
Galletti, C. et al. 2003. "Role of the medial parieto-occipital cortex in the control of reaching and grasping movements." Exp Brain Res, 153: 158-170.
Gwizdka, J. et al. 2013. "Applications of neuroimaging in information science: Challenges and opportunities." Proceedings of the American Society for Information Science and Technology, 50(1): 1-4.
Hillyard, S. A. and Woods, D. L. 1979. "Electrophysiological analysis of human brain function." In M. S. Gazzaniga (Ed.), Handbook of behavioral neurobiology: Vol 2. Neuropsychology (pp. 345-378). New York: Plenum Press.
Iyer, H. and Lewis, C.D. 2007. "Prioritization strategies for video storyboard keyframes." Journal of the American Society for Information Science and Technology, 58(5): 629-644.
Jung, H. et al. 2012. "Reduced source activity of event-related potentials for affective facial pictures in schizophrenia patients." Schizophrenia Research, 136: 150-159.
Kim, H. and Kim, Y. 2010. "Toward a conceptual framework of key-frame extraction and storyboard display for video summarization." Journal of the American Society for Information Science and Technology, 61(5): 927-939.
Koelstra, S., Muehl, C. and Patras, I. 2009. "EEG analysis for implicit tagging of video data." Proceeding of the 3rd International Conference on Affective Computing and Intelligent Interaction and Workshops, ACII 2009, 27-32, Los Alamitos, 2009. IEEE Computer Society Press.
Moshfeghi, Y., Pinto, L. R., Pollick, F. R. and Jose, J. M. 2013. "Understanding relevance: An fMRI study." In P. Serdyukov et al., eds. Advances in Information Retrieval. Springer Berlin Heidelberg.
Naghavi, H. and Nyberg, L. 2005. "Common fronto-parietal activity in attention, memory, and consciousness: Shared demands on integration?" Consciousness and Cognition, 14(2): 390-425.
Song, Y., Marchionini, G. and Oh, C. 2010. "What are the most eye-catching and ear-catching features in the video?" Implications for video summarization. WWW 2010, April 26-30, 2010, Raleigh, North Carolina.
Thatcher, R. W., Krause, P. J. and Hrybyk, M. 1986. "Cortico-cortical associations and EEG coherence: a two-compartmental model." Electroencephalogr Clin Neurophysiol, 64: 123-143.
Tulving, E. et al. 1994. "Hemispheric encoding / retrieval asymmetry in episodic memory: position emission tomography findings." Proceedings of the National Academy of Sciences of the United States of America, 91(6): 2016-2020.
Wang, S., Zhu, Y., Wu, G. and Ji, Q. 2013. "Hybrid video emotional tagging using users' EEG and video content." Multimedia Tools and Applications, 72(2): 1257-1283.
Yang, M. 2005. An exploration of users' video relevance criteria. Unpublished doctoral dissertation, University of North Carolina at Chapel Hill.
Yang, M. and Marchionini, G. 2004. Exploring users' video relevance criteria: A pilot study. Proceedings of the ASIST Annual Meeting, 41: 229-238. Medford, NJ: Information Today.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.