최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기감성과학 = Science of emotion & sensibility, v.21 no.1, 2018년, pp.177 - 186
김아영 (한국전자통신연구원 바이오의료IT연구본부) , 장은혜 (한국전자통신연구원 바이오의료IT연구본부) , 손진훈 (충남대학교 심리학과)
The mechanism of emotion is complex and influenced by a variety of factors, so that it is crucial to analyze emotion in broad and diversified perspectives. In this study, we classified neutral and negative emotions(sadness, fear, surprise) using arousal evaluation, which is one of the psychological ...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
SDNN이란 무엇인가? | 증가된 HR은 교감 신경 활성의 증가를 의미한다. SDNN는 심박변이도에 기여하는 변수로, 교감신경과 부교감신경의 활성을 모두 반영하며 증가된 SDNN은 낮은 교감 신경(또는 높은 부교감 신경)의 활성을 의미한다. 반대로 감소된 SDNN은 높은 교감 신경(또는 낮은 부교감신경)의 활성을 나타낸다. | |
PTT는 어떤 것에 영향을 받는가? | BVP는 혈관 확장과 수축 및 혈관 벽 탄성 변화에 의한 혈관층에 상대적인 변화를 나타내며 감소된 BVP는 각성과 관련된 손가락의 말초 혈관 수축을 의미한다. PTT는 ECG의 R파와 손가락에서 측정한 PPG 의 맥파 도달 사이 경과 시간을 측정한 것으로 심장의 수축력 변화와 평균 동맥 혈압 변화에 영향을 받는다. 그러 므로 증가된 PPT는 교감 신경 활성 억제와 연관된다. | |
역전파 신경망은 어떤 방식으로 인공신경망을 학습시키는가? | 본 연구에서는 감성인식 분류기를 구현하기 위하여 역전파 신경망(Back Propagation Neural Network, BPNN)을 사용하였다. BPNN은 인공신경망(Artifitial neural network, ANN)을 학습시키기 위한 알고리즘으로 신경망에 결과값을 계산하여 기대값(target value) 과 실제값(actual value)에 차이를 에러로 정의하고 에러의 최소치를 통해 원하는 결과 값과 가장 근접한 가중치가 되도록 신경망을 역으로 학습시킨다. 제안하는 모델은 10개의 노드로 구성된 은닉층과 BPNN을이용하여 학습시켰다. |
Badcock, N. A., Preece, K. A., de Wit, B., Glenn, K., Fieder, N., Thie, J., & McArthur, G. (2015). Validation of the Emotiv EPOC EEG system for research quality auditory event-related potentials in children. PeerJ, 3, e907. DOI: 10.7717/ peerj.907
Banziger, T., Grandjean, D., & Scherer, K. R. (2009). Emotion recognition from expressions in face, voice, and body: the Multimodal Emotion Recognition Test (MERT). Emotion (Washington, D.C.), 9(5), 691-704. DOI: 10.1037/a0017088
Basu, S., Jana, N., Bag, A. M. M., Mukherjee, J., Kumar, S., & Guha, R. (2015). Emotion recognition based on physiological signals using valence-arousal model. In 2015 Third International Conference on Image Information Processing(ICIIP)(pp. 50-55). DOI: 10.1109/ICIIP.2015.7414739
Calvo, R. A., & D'Mello, S. (2010). Affect detection: An interdisciplinary review of models, methods, and their applications. IEEE Transactions on Affective Computing, 1(1), 18-37. DOI: 10.1109/T-AFFC.2010.1
Cowie, R., Douglas-Cowie, E., Tsapatsoulis, N., Votsis, G., Kollias, S., Fellenz, W., & Taylor, J. G. (2001). Emotion recognition in human-computer interaction. IEEE Signal Processing Magazine, 18(1), 32-80. DOI: 10.1109/79.911197
Duan, R. N., Zhu, J. Y., & Lu, B. L. (2013). Differential entropy feature for EEG-based emotion classification. In 2013 6th International IEEE/EMBS Conference on Neural Engineering(NER) (pp. 81-84). DOI: 10.1109/NER.2013.6695876
Ebner, N. C., & Fischer, H. (2014). Emotion and aging: evidence from brain and behavior. Frontiers in Psychology, 5. DOI: 10.3389/fpsyg.2014.00996
Ekman, P. (1992). An argument for basic emotions. Cognition & Emotion, 6, 169-200. DOI: 10.1080/02699939208411068
Jang, E.-H., Park, B.-J., Park, M.-S., Kim, S.-H., & Sohn, J.-H. (2015). Analysis of physiological signals for recognition of boredom, pain, and surprise emotions. Journal of Physiological Anthropology, 34(1), 25. DOI: 10.1186/s40101-015-0063-5
Jirayucharoensak, S., Pan-Ngum, S., & Israsena, P. (2014). EEG-based emotion recognition using deep learning network with principal component based covariate shift adaptation. The Scientific World Journal, 627892. DOI: 10.1155/2014/627892
Kreibig, S. D. (2010). Autonomic nervous system activity in emotion: a review. Biological Psychology, 84(3), 394-421. DOI: 10.1016/j.biopsycho.2010.03.010
Levenson, R. W., Ekman, P., & Friesen, W. V. (1990). Voluntary facial action generates emotion-specific autonomic nervous system activity. Psychophysiology, 27(4), 363-384. Retrieved from https://www.ncbi.nlm.nih.gov/pubmed/2236440
Lin, Y. P., Wang, C. H., Wu, T. L., Jeng, S. K., & Chen, J. H. (2009). EEG-based emotion recognition in music listening: A comparison of schemes for multiclass support vector machine. In 2009 IEEE International Conference on Acoustics, Speech and Signal Processing (pp. 489-492). DOI: 10.1109/ICASSP.2009.4959627
Lindquist, K. A., MacCormack, J. K., & Shablack, H. (2015). The role of language in emotion: Predictions from psychological constructionism. Frontiers in Psychology, 6, 444. DOI: 10.3389/fpsyg.2015.00444
Majumder, S., Mondal, T., & Deen, M. J. (2017). Wearable sensors for remote health monitoring. Sensors (Basel, Switzerland), 17(1). DOI: 10.3390/s17010130
Mill, A., Allik, J., Realo, A., & Valk, R. (2009). Agerelated differences in emotion recognition ability: a cross-sectional study. Emotion (Washington, D.C.), 9(5), 619-630. DOI: 10.1037/a0016562
Nasoz, F., Alvarez, K., Lisetti, C. L., & Finkelstein, N. (2004). Emotion recognition from physiological signals using wireless sensors for presence technologies. Cognition, Technology & Work, 6(1), 4-14. DOI: 10.1007/s10111-003-0143-x
Picard, R. W. (2003). Affective computing: challenges. International Journal of Human-Computer Studies, 59(1), 55-64. DOI: 10.1016/S1071-5819(03)00052-1
Picard, R. W., Vyzas, E., & Healey, J. (2001). Toward machine emotional intelligence: analysis of affective physiological state. IEEE Transactions on Pattern Analysis and Machine Intelligence, 23(10), 1175-1191. DOI: 10.1109/34.954607
Russell, J. A. (1980). A circumplex model of affect. Journal of Personality and Social Psychology, 39(6), 1161-1178. DOI: 10.1037/h0077714
Simon, E. W., Rosen, M., Grossman, E., & Pratowski, E. (1995). The relationships among facial emotion recognition, social skills, and quality of life. Research in Developmental Disabilities, 16(5), 383-391. Retrieved from https://www.ncbi.nlm.nih.gov/pubmed/8532917
Tan, J.-W., Andrade, A. O., Li, H., Walter, S., Hrabal, D., Rukavina, S., Limbrecht-Ecklundt, K., Hoffman, H., Traue, H. C. (2016). Recognition of intensive valence and arousal affective states via facial electromyographic activity in young and senior adults. PLoS ONE, 11(1), e0146691. DOI: 10.1371/journal.pone.0146691
Wagner, J., Kim, J., & Andre, E. (2005). From physiological signals to emotions: Implementing and comparing selected methods for feature extraction and classification. In 2005 IEEE International Conference on Multimedia and Expo(pp. 940-943). DOI: 10.1109/ICME.2005.1521579
Wiem, M. B. H., & Lachiri, Z. (2016). Emotion assessing using valence-arousal evaluation based on peripheral physiological signals and support vector machine. In 2016 4th International Conference on Control Engineering Information Technology(CEIT) (pp. 1-5). DOI: 10.1109/CEIT.2016.7929117
Zaja, R. H., & Rojahn, J. (2008). Facial emotion recognition in intellectual disabilities. Current Opinion in Psychiatry, 21(5), 441-444. DOI: 10.1097/YCO.0b013e328305e5fd
Zhang, Q., Chen, X., Zhan, Q., Yang, T., & Xia, S. (2017). Respiration-based emotion recognition with deep learning. Computers in Industry, 92-93, 84-90. DOI: 10.1016/j.compind.2017.04.005
Park, M. S., Kim, H. E., & Sohn, J. H. (2011). Development of emotion-evoking stimuli to provoke spontaneous emotions. Proceedings for the 2011 Annual Spring Conference of Korean Society for Emotion & Sensibility (pp. 505-512). Daejeon, Republic of Korea. Retrieved from http://www.koses.or.kr/
Lee, K. H. (1997). Human sensibility and its measurement and evaluation. Annual Conference Papers of Korean Society for Emotion & Sensibility (pp. 37-42). Daejeon, Republic of Korea. Retrieved from http://www.koses.or.kr/
※ AI-Helper는 부적절한 답변을 할 수 있습니다.