최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기디지털콘텐츠학회 논문지 = Journal of Digital Contents Society, v.18 no.3, 2017년, pp.485 - 497
김희원 (숙명여자대학교 공과대학 ICT공학부) , 최원지 (숙명여자대학교 공과대학 ICT공학부) , 임선영 (숙명여자대학교 빅데이터활용 연구센터) , 박영호 (숙명여자대학교 공과대학 ICT공학부)
People can access to their vital signs easy through portable devices and wearable devices. The vital signs are used only for the purpose of health care, and can not be found when they are used for purposes other than health care. In this paper, we propose a web site to judge the emotional state of a...
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
휴대용 디바이스와 웨어러블 기기에서 제공하는 활력징후의 특징은 무엇인가? | 휴대용 디바이스와 웨어러블 기기의 보편화에 따라 사람들은 자신의 활력 징후에 대한 접근이 간편해졌다. 활력징후는 건강관리만을 목적으로 활용되고 있으며, 건강관리 이외의 목적으로 활용하는 경우는 발견 할 수 없다. 본 논문에서는 영상매체를 관람한 사람의 감정 상태를 스마트밴드에서 제공하는 활력징후를 이용해 판단하는 웹 사이트를 제안한다. | |
사람들이 웨어러블 기기를 사용하는 이유는 무엇인가? | 대표적인 웨어러블 기기 중 하나인 스마트밴드는 밴드 내에 센서가 부착 되어있어 자신의 활력 징후를 확인 할 수 있다. 사람들이 웨어러블 기기를 사용하는 많은 이유 중 하나가 활력 징후를 활용한 건강관리이다. 이에 스마트밴드의 초점은 현재 건강관리에 맞추어져 있으며, 센서로 측정된 사용자의 활력징후를 건강관리 이외의 용도로 스마트밴드를 사용하는 경우도 존재하지 않는다[3]. | |
본 논문에서 베스트씬, 워스트씬 도출 알고리즘은 어떻게 구현하였는가? | 피험자가 일반적 영상 콘텐츠에 집중(또는 몰입)하는 동안과 흥분(또는 긴장)을 야기시키는 영상 콘텐츠에 대하여는 심장박동수의 생리적 주기성 변동이 증가한다. 따라서 심박이 점차 증가하다 최대치가 되는 부분을 베스트씬이라 지정했다. 또, 피험자의 심박이 점차 감소하다 최저치가 되는 부분을 워스트씬이라 지정했다. 베스트씬, 워스트씬이라 지정한 부분을 R studio를 이용해 구간을 도출하였으며 피험자의 수를 늘려 베스트씬, 워스트씬의 신뢰도를 높였다. |
H. Y. Ki, J. H. Lee, "Effects of Display Size of Digital Media on the Reliability of the Information Contents," Science of Emotion and Sensibility, Vol. 15, No. 1, pp. 65-72, March 2012.
E. Hong, S. Kim, J. Choi, Y. Jeon, S. Hong, S. Jang, B. Kim, H. Park, "Data Collection using Smart Watch and Machine Learning based Activity Condition Inference System," in Proceeding of the 2015 Fall Conference of Korea Information and Communication Society, Seoul, pp. 34-35, 2015.
K. H. Chon, H. J. Choi, "Study on Ubiquitous Psychological State Recognition Model Using Bio-Signals," The Journal of Korea Information and Communication Society, Vol. 35, Nol. 2, pp. 232-243, February 2010.
김인기, 이철, 윤명환, 장우진, "영화의 시청각적 자극에 대한 정량적 감성 모형 구축," in Proceeding of the 2006 Fall Conference of the Ergonomics Society of Korea , Daejeon, pp. 199-211, 2006.
In Ki Kim, Jo Ho Kim, WooJin Chang, Cheol Lee, Myung Hwan Yun, "Identification of Design Attributes of the Affective Expressions for Movie Making", in Procedding of the 2007 Conference of the HCI Society of Korea, Gangwon, pp. 143-149, 2007.
S. Koelstra, C. Muhl, M. Soleymani, J. S. Lee, A. Yazdani, T. Ebrahimi, T. Pun, A. Nijholt, I. Patras, "DEAP: A Database for Emotion Analysis ;Using Physiological Signals," IEEE Transactions on Affective Computing, Vol. 3, No. 1, pp. 18-31, 2012.
Y. P. Lin, C. H. Wang, T. P. Jung, T. L. Wu, S. K. Jeng, J. R. Duann, J. H. Chen, "EEG-Based Emotion Recognition in Music Listening," IEEE Transactions on Biomedical Engineering, Vol. 57, No. 7, pp. 1798-1806, 2010.
M. Murugappan, M. Rizon, R. Nagarajan, S. Yaacob, D. Hazry, I. Zunaidi, "Time-Frequency Analysis of EEG Signals for Human Emotion Detection," in Proceeding of the 4th International Conference on Biomedical Engineering, Kuala Lumpur, pp 262-265, 2008.
H. Blaiech, M. Neji, A. Wali, A. M. Alimi, "Emotion recognition by analysis of EEG signals," in Proceeding of the 13th International Conference on Hybrid Intelligent Systems, pp. 312-318, 2013.
J. Knighten, S. McMillan, T. Chambers, J. Payton, "Recognizing social gestures with a wrist-worn smartband," in Proceeding of the IEEE International Conference on Pervasive Computing and Communication Workshops, pp. 544-549, 2015.
B. H. Kwon, B. S. Seo, "Implementation of Emotion Recognition System using Internet Phone," Journal of Digital Contents Society, Vol. 8, No. 1, pp. 35-40, March 2007.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.