뇌파 및 심전도 생체신호를 복합적으로 이용한 감정인식을 통한 실시간 사용자 인터페이스를 제안한다. 기존에 뇌파를 통한 감정인식의 문제점이었던 낮은 정확도를 개선하기 위해 뇌파의 Theta, Alpha, Beta, Gamma의 상대파워 값과 심전도의 자율신경계 비율을 혼합하는 복합 생체신호 감정 인식 시스템을 개발했다. 기쁨, 공포, 슬픔, 즐거움, 화남, 혐오에 해당하는 6가지 감정을 인식하기 위해 사용자별 확률 값을 저장하는 데이터 맵을 생성하고, 채널에 대응하는 감정 인식의 정확도를 향상시키기 위해 가중치를 갱신하는 알고리즘을 제안한다. 또한 뇌파로 구성된 단일 데이터와 뇌파/심전도 생체신호 복합 데이터의 실험 결과를 비교한 결과 23.77%의 정확도 증가를 보였다. 제안된 인터페이스 시스템은 높은 정확도를 통해 게임 및 스마트 공간의 제어에 필요한 인터페이스로 기기에 활용이 가능할 것이다.
뇌파 및 심전도 생체신호를 복합적으로 이용한 감정인식을 통한 실시간 사용자 인터페이스를 제안한다. 기존에 뇌파를 통한 감정인식의 문제점이었던 낮은 정확도를 개선하기 위해 뇌파의 Theta, Alpha, Beta, Gamma의 상대파워 값과 심전도의 자율신경계 비율을 혼합하는 복합 생체신호 감정 인식 시스템을 개발했다. 기쁨, 공포, 슬픔, 즐거움, 화남, 혐오에 해당하는 6가지 감정을 인식하기 위해 사용자별 확률 값을 저장하는 데이터 맵을 생성하고, 채널에 대응하는 감정 인식의 정확도를 향상시키기 위해 가중치를 갱신하는 알고리즘을 제안한다. 또한 뇌파로 구성된 단일 데이터와 뇌파/심전도 생체신호 복합 데이터의 실험 결과를 비교한 결과 23.77%의 정확도 증가를 보였다. 제안된 인터페이스 시스템은 높은 정확도를 통해 게임 및 스마트 공간의 제어에 필요한 인터페이스로 기기에 활용이 가능할 것이다.
We propose a real time user interface that utilizes emotion recognition by physiological signals. To improve the problem that was low accuracy of emotion recognition through the traditional EEG(ElectroEncephaloGram), We developed a physiological signals-based emotion recognition system mixing relati...
We propose a real time user interface that utilizes emotion recognition by physiological signals. To improve the problem that was low accuracy of emotion recognition through the traditional EEG(ElectroEncephaloGram), We developed a physiological signals-based emotion recognition system mixing relative power spectrum values of theta/alpha/beta/gamma EEG waves and autonomic nerve signal ratio of ECG (ElectroCardioGram). We propose both a data map and weight value modification algorithm to recognize six emotions of happy, fear, sad, joy, anger, and hatred. The datamap that stores the user-specific probability value is created and the algorithm updates the weighting to improve the accuracy of emotion recognition corresponding to each EEG channel. Also, as we compared the results of the EEG/ECG bio-singal complex data and single data consisting of EEG, the accuracy went up 23.77%. The proposed interface system with high accuracy will be utillized as a useful interface for controlling the game spaces and smart spaces.
We propose a real time user interface that utilizes emotion recognition by physiological signals. To improve the problem that was low accuracy of emotion recognition through the traditional EEG(ElectroEncephaloGram), We developed a physiological signals-based emotion recognition system mixing relative power spectrum values of theta/alpha/beta/gamma EEG waves and autonomic nerve signal ratio of ECG (ElectroCardioGram). We propose both a data map and weight value modification algorithm to recognize six emotions of happy, fear, sad, joy, anger, and hatred. The datamap that stores the user-specific probability value is created and the algorithm updates the weighting to improve the accuracy of emotion recognition corresponding to each EEG channel. Also, as we compared the results of the EEG/ECG bio-singal complex data and single data consisting of EEG, the accuracy went up 23.77%. The proposed interface system with high accuracy will be utillized as a useful interface for controlling the game spaces and smart spaces.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 논문에서 제안한 실시간 복합 생체신호 감정 인식 인터페이스는 뇌파의 상대파워로 추론된 감정과 심전도로 취득된 사용자의 자율신경계 정보의 혼합으로 감정인식의 정확도를 향상시키려고 한다. 따라서 본 논문에서 제안한 실험은 피험자별로 누적된 뇌파데이터를 베이지안 네트워크로 훈련시킨 후 동일 피험자의 새로운 데이터를 테스트 데이터로 입력했을 때의 정확도를 확인하고 심전도의 특징 값이 추가 되었을 때의 정확도 향상 정도를 확인하려 한다.
따라서 본 논문에서는 감정인식의 정확도와 처리속도를 개선해 다양한 분야에서 이용 가능한 인터페이스의 개발을 위해 뇌파와 심전도를 복합하여 사용하는 생체신호 인터페이스 시스템을 제안한다. 본 논문에서 제안한 뇌파와 심전도의 복합 생체신호는 뇌파의 감정인식 특징과 심전도의 자율 신경계 비율의 특징을 혼합하는 방법으로 사용자의 감정 상태를 더 정확하게 분류 할 수 있다.
본 논문에서 개발한 시스템은 게임, 스마트 공간의 제어를 위한 “더 자연스러운 인터페이스”를 목표로 한다. 본 논문에서 개발한 시스템을 이용하면 사람에 감정에 따라 게임의 난이도나 오브젝트를 변화하는 서비스나 기분에 맞춰 생활 조명의 조도를 조절하는 서비스 등이 가능할 것이다.
본 논문에서 제안한 실시간 복합 생체신호 감정 인식 인터페이스는 뇌파의 상대파워로 추론된 감정과 심전도로 취득된 사용자의 자율신경계 정보의 혼합으로 감정인식의 정확도를 향상시키려고 한다. 따라서 본 논문에서 제안한 실험은 피험자별로 누적된 뇌파데이터를 베이지안 네트워크로 훈련시킨 후 동일 피험자의 새로운 데이터를 테스트 데이터로 입력했을 때의 정확도를 확인하고 심전도의 특징 값이 추가 되었을 때의 정확도 향상 정도를 확인하려 한다.
본 논문에서는 이러한 생체신호 기반 인터페이스 연구 중 감정을 인식하는 인터페이스에 초점을 맞춘다. 감정은 인성의 기본 구성 요소이자 동기 부여의 중요한 원천이다[11,12].
본 논문에서는 이와 같이 뇌파 데이터의 데이터 테이블 생성하기 위해 각 채널에서 차지하는 상대 파워 값의 비율로 특정 감정을 추론하며 각각의 채널에는 일정한 가중치를 적용하는 방법을 제안한다.
본 논문은 게임뿐만이 아닌 다양한 분야에서 사용이 가능한 복합 생체신호 인터페이스에 대한 연구로 뇌파와 심전도를 혼합한 복합 생체신호를 통한 감정 인식 시스템을 개발했다. 본 논문에서 개발한 시스템은 뇌파와 심전도를 이용해 사용자별 데이터 맵을 생성하고 실시간으로 취득하는 생체신호를 개인화 된 데이터 맵 DB를 통해 감정을 분류하는 역할을 한다.
본 논문은 뇌파와 심전도에 해당하는 복합 생체 신호를 이용해 사용자의 감정을 인식하는 시스템과 인터페이스의 개발을 목표로 한다. 따라서 사용자의 뇌파와 심전도를 동시에 측정하고 특정 감정으로 분류하는 감정 인식시스템의 개발과 이에 연동되는 인터페이스 모듈의 개발이 필요하다.
본 논문의 목적은 게임뿐만이 아니라 다양한 분야에 적용이 가능한 복합 생체신호 인터페이스의 개발이다. 따라서 특별한 상황으로 유도되는 감정이 아닌 일상생활에서 느끼는 감정을 유도하는데 초점을 맞췄다.
본 시스템은 뇌파, 심전도에서 취득되는 감정이 각각의 사용자마다 상이한 패턴을 보이는 점을 보완하기 위해 각각의 사용자마다 데이터 맵을 만들고 지속적으로 가중치를 갱신하는 방법을 제안한다.
제안 방법
감정을 유도하기 위한 방법으로는 [Fig. 7]과 같이 영화, 드라마 에서 나타나는 해당 감정을 유발 할 수 있는 영상자료를 수집해서 사용했다.
따라서 본 논문에서는 자율신경계 비율(LF/HF)을 통해 사용자의 감성상태를 쾌, 불쾌로 분류한다. 일반적인 실험에서 자율신경계 비율은 약 1.
데이터 맵에 저장된 사용자의 생체신호는 각각의 감정으로 분류되서 저장되며 이때 사용된 생체신호의 특징 값들은 사용자의 감정을 분류하는 가중치로 저장된다. 또한 본 시스템을 인터페이스로 사용할 경우 취득되는 데이터는 실시간 처리기를 통해 사용자 뇌파, 심전도의 특징 값들을 추출한 후 사용자의 데이터 모델과 비교해 사용자의 패턴, 가중치를 고려해 실시간으로 사용자의 감정을 예측한다.
본 실험은 20대의 남성/여성 피험자 각각 5명이 총 10일에 걸쳐 6가지 감정에 대해 훈련했으며 실험 시 영상자료에 집중하기 위해 암실을 만들고 영상자료 시청 시 감독관은 외부에서 감독하도록 했다. 또한 실험의 공정성을 위해 매일 새로운 영상 자료를 제공했으며 피험자 사이의 영상 정보 공유를 차단했다.
본 논문은 게임뿐만이 아닌 다양한 분야에서 사용이 가능한 복합 생체신호 인터페이스에 대한 연구로 뇌파와 심전도를 혼합한 복합 생체신호를 통한 감정 인식 시스템을 개발했다. 본 논문에서 개발한 시스템은 뇌파와 심전도를 이용해 사용자별 데이터 맵을 생성하고 실시간으로 취득하는 생체신호를 개인화 된 데이터 맵 DB를 통해 감정을 분류하는 역할을 한다. 본 논문에서 개발한 시스템은 뇌파의 경우 FFT와 파워 스펙트럼 분석을 통해 Theta, Alpha, Beta, Gamma에 해당하는 주파수 영역의 상대적인 값을 이용하고 심전도 역시 FFT 와 파워 스펙트럼 분석을 통해 자율신경계의 교감 신경과 부교감 신경에 해당하는 주파수 영역을 검출한다.
본 논문에서 개발한 시스템은 뇌파와 심전도를 이용해 사용자별 데이터 맵을 생성하고 실시간으로 취득하는 생체신호를 개인화 된 데이터 맵 DB를 통해 감정을 분류하는 역할을 한다. 본 논문에서 개발한 시스템은 뇌파의 경우 FFT와 파워 스펙트럼 분석을 통해 Theta, Alpha, Beta, Gamma에 해당하는 주파수 영역의 상대적인 값을 이용하고 심전도 역시 FFT 와 파워 스펙트럼 분석을 통해 자율신경계의 교감 신경과 부교감 신경에 해당하는 주파수 영역을 검출한다.
본 논문에서 뇌파데이터는 기쁨, 공포, 슬픔, 즐거움, 화남, 혐오에 해당하는 감정을 분류한다. 데이터 테이블은 뇌파에서 사용된 8개의 채널데이터에 따라 총 8개가 구성이 된다.
본 논문에서 취득한 뇌파의 측정 위치는 좌우측 측두엽과 두정엽을 대칭되도록 10-20 전극 배치법에 따라 [Fig. 9]와 같이 T7, C3, P7, CP5, T8, C4, P8 CP6을 측정했다.
본 논문에서는 실시간 처리환경에서 R피크를 검출하기 위해 사람의 눈으로 파형을 식별하는 작업을 흉내내는 육안 모방 검출 기법을 사용했다.
본 논문에서는 심전도를 통해 자율신경계의 교감활성도와 부 교감 활성도를 취득해 사용자의 쾌, 불쾌에 해당하는 감정 상태를 분류한다. 쾌, 불쾌에 대한 감정은 앞서 분류한 뇌파의 6가지 감정의 정확도 향상을 위한 보조 지표로 사용된다.
본 논문은 검출된 4개 대역의 뇌파와 자율신경계 비율인 LF/HF를 이용해 사용자의 기쁨, 공포, 슬픔, 즐거움, 화남, 혐오에 해당하는 6가지 감정을 분류하는 실험을 진행했다. 실험은 복합 생체 신호를 통한 감정인식의 성능을 검증하기 위해 뇌파 데이터 테이블과 복합 생체신호 데이터 테이블로 각각 비교했고 그 정확도와 증가율을 살펴봤다.
본 실험에 사용된 복합 생체신호 취득 센서는 뇌파와 심전도로 각각 Laxtha사의 8채널 뇌파 측정 장비인 QEEG-8과 기존 연구에서 개발한 3채널 심전도 입력을 포함한 Smart Health-care를 사용했다. 뇌파의 경우 8개 채널의 부착 위치에 따라 취득되는 감정과 정보의 의미가 달라지며 본 논문에서 제안한 가중치의 갱신이 어려워진다.
본 실험은 20대의 남성/여성 피험자 각각 5명이 총 10일에 걸쳐 6가지 감정에 대해 훈련했으며 실험 시 영상자료에 집중하기 위해 암실을 만들고 영상자료 시청 시 감독관은 외부에서 감독하도록 했다. 또한 실험의 공정성을 위해 매일 새로운 영상 자료를 제공했으며 피험자 사이의 영상 정보 공유를 차단했다.
본 실험은 Theta, Alpha, Beta, Gamma의 4개 대역 파형만을 특징으로 갖는 뇌파 데이터와 심전도 자율신경계 비율을 특징으로 더한 데이터를 비교해 두 실험의 정확도를 각각 비교했다.
사용자의 감정을 분류하기 위해 뇌파와 심전도에서 취득된 특징 값들로 데이터 테이블을 생성한다. 데이터 테이블은 뇌파의 특성상 부착되는 전극(채널)마다 생성되어 1∼8채널의 8개의 테이블이 생성된다.
실험에 참여한 피험자들은 [Fig. 10]과 같이 뇌파 전극과 심전도 전극을 동시에 착용하고 영상 자료를 보도록 했다. 피험자가 영상을 보는 동안엔 뇌파와 심전도 데이터의 시간을 일치시키기 동일한 시간에 마커를 위치시키고 90초마다 자동으로 취득이 종료되도록 설정 했다.
실험은 각각의 영상에서 90초 동안 감정유발을 위한 영상을 감상하며 감정유발 영상 사이에는 결과가 겹치는 것을 방지하기위해 30초간의 명상시간을 갖도록 했다.
본 논문은 검출된 4개 대역의 뇌파와 자율신경계 비율인 LF/HF를 이용해 사용자의 기쁨, 공포, 슬픔, 즐거움, 화남, 혐오에 해당하는 6가지 감정을 분류하는 실험을 진행했다. 실험은 복합 생체 신호를 통한 감정인식의 성능을 검증하기 위해 뇌파 데이터 테이블과 복합 생체신호 데이터 테이블로 각각 비교했고 그 정확도와 증가율을 살펴봤다. 실험 결과 뇌파를 이용한 실험은 평균 66.
실험은 3장에 기술된 것과 같이 먼저 사용자의 데이터 맵을 구축했다. 입력되는 신호들은 뇌파의 경우 상대 파워 값을 기준으로 Theta, Alpha, Beta, Gamma값을 저장하고 심전도는 LF, HF 값을 구해 자율 신경계 비율인 LF/HF를 저장했다. [Table 2]는 데이터 맵 구축을 위해 측정된 한 피험자의 기쁨, 공포에 해당하는 데이터 테이블이다.
• 두 번째로 전 처리된 데이터는 생체신호 속의 중요한 정보를 분석하기 위해 FFT를 통해 주파수대역 특성으로 변환한다. 주파수 대역에서는 뇌파와 심전도 모두 의미 있는 데이터를 검출할 수 있기 때문에 Power Spectrum분석을 통해 주파수 대역의 파워 값을 구한다.
10]과 같이 뇌파 전극과 심전도 전극을 동시에 착용하고 영상 자료를 보도록 했다. 피험자가 영상을 보는 동안엔 뇌파와 심전도 데이터의 시간을 일치시키기 동일한 시간에 마커를 위치시키고 90초마다 자동으로 취득이 종료되도록 설정 했다.
대상 데이터
뇌파 측정 위치 선정은 Koelstra의 연구에 따라 Valence-Arousal 평면에서 분류한 감정상태가 비교적 뚜렷한 15개의 채널 중 대칭되는 구조를 갖는 8개의 채널을 사용했다[17].
본 논문에서 뇌파데이터는 기쁨, 공포, 슬픔, 즐거움, 화남, 혐오에 해당하는 감정을 분류한다. 데이터 테이블은 뇌파에서 사용된 8개의 채널데이터에 따라 총 8개가 구성이 된다. 각각의 채널에서 사용되는 특징 값은 Theta, Alpha, Beta, Gamma, LF/HF으로 구성된다.
데이터 테이블은 뇌파의 특성상 부착되는 전극(채널)마다 생성되어 1∼8채널의 8개의 테이블이 생성된다.
버퍼는 신호의 잡음을 포함하는 Dleta(0∼4㎐)파를 제외하고 4∼50Hz대역으로 밴드패스 필터를 적용한다.
데이터처리
실험에서 사용된 분류기는 베이지안 네트워크이며 10-Fold 교차 검증을 통해 정확도를 계산했다. [Table 3]은 뇌파, 복합생체신호의 비교 결과이다.
성능/효과
따라서 본 논문에서는 감정인식의 정확도와 처리속도를 개선해 다양한 분야에서 이용 가능한 인터페이스의 개발을 위해 뇌파와 심전도를 복합하여 사용하는 생체신호 인터페이스 시스템을 제안한다. 본 논문에서 제안한 뇌파와 심전도의 복합 생체신호는 뇌파의 감정인식 특징과 심전도의 자율 신경계 비율의 특징을 혼합하는 방법으로 사용자의 감정 상태를 더 정확하게 분류 할 수 있다.
실험은 복합 생체 신호를 통한 감정인식의 성능을 검증하기 위해 뇌파 데이터 테이블과 복합 생체신호 데이터 테이블로 각각 비교했고 그 정확도와 증가율을 살펴봤다. 실험 결과 뇌파를 이용한 실험은 평균 66.96%의 정확도를 보인 반면 복합 생체신호를 이용한 실험은 평균 90.72%로 약 23.77%의 증가율을 확인했다.
실험 결과 복합 생체신호를 사용할 경우 기존의 뇌파 기반 감정인식에 비해 23.77%의 정확도가 증가한 것을 알 수 있다.
실험결과 EEG신호만을 사용한 경우 최대 71%의 정확도를 보이고 평균 66.96%의 정확도를 보였다. 하지만 자율신경계 데이터를 추가한 복합생체신호 데이터는 최대 94.
채널별로 상대파워의 비율을 확인할 경우 3채널의 데이터에서 기쁨의 경우 알파파가 다른 감정에 비해 작은 12.5%를 보였고 대부분의 감정에서 20%이상의 비율을 보였다. 따라서 데이터 맵에서 채널 3은 기쁨의 감정을 분류할 때 다른 채널보다 높은 가중치를 부여 받을 것이다.
96%의 정확도를 보였다. 하지만 자율신경계 데이터를 추가한 복합생체신호 데이터는 최대 94.05%의 정확도를 보이고 평균 90.72%의 높은 정확도를 보였다.
후속연구
사용자 훈련 기반인 기존의 연구에는 훈련 결과가 축적되지 않으면 높은 정확도를 기대하기 쉽지 않다. 따라서 뇌파의 주파수 특성을 분석해 공통적인 특징 지표를 개발한다면 속도와 범용성 측면에서 완성도 높은 서비스를 제공 할 수 있을 것이다.
따라서 특별한 상황으로 유도되는 감정이 아닌 일상생활에서 느끼는 감정을 유도하는데 초점을 맞췄다. 먼저 본 논문에서 선택한 기본 정서 기쁨, 공포, 슬픔, 즐거움, 화남, 혐오는 게임이나 드라마 등을 시청하면서 쉽게 느낄 수 있는 감정으로 다양한 분야에 적용이 가능한 인터페이스 개발을 위해 선택 되었다.
본 논문에서 개발한 시스템은 게임, 스마트 공간의 제어를 위한 “더 자연스러운 인터페이스”를 목표로 한다. 본 논문에서 개발한 시스템을 이용하면 사람에 감정에 따라 게임의 난이도나 오브젝트를 변화하는 서비스나 기분에 맞춰 생활 조명의 조도를 조절하는 서비스 등이 가능할 것이다.
이러한 서비스를 제공하기 위해 향후 연구에는 실시간으로 처리되는 생체데이터의 분류를 위한 심화된 알고리즘을 연구할 필요가 있다. 사용자 훈련 기반인 기존의 연구에는 훈련 결과가 축적되지 않으면 높은 정확도를 기대하기 쉽지 않다.
질의응답
핵심어
질문
논문에서 추출한 답변
사용자별 확률 값을 저장하는 데이터 맵을 생성할 때 인식하는 감정으로는 무엇이 있나요?
기존에 뇌파를 통한 감정인식의 문제점이었던 낮은 정확도를 개선하기 위해 뇌파의 Theta, Alpha, Beta, Gamma의 상대파워 값과 심전도의 자율신경계 비율을 혼합하는 복합 생체신호 감정 인식 시스템을 개발했다. 기쁨, 공포, 슬픔, 즐거움, 화남, 혐오에 해당하는 6가지 감정을 인식하기 위해 사용자별 확률 값을 저장하는 데이터 맵을 생성하고, 채널에 대응하는 감정 인식의 정확도를 향상시키기 위해 가중치를 갱신하는 알고리즘을 제안한다. 또한 뇌파로 구성된 단일 데이터와 뇌파/심전도 생체신호 복합 데이터의 실험 결과를 비교한 결과 23.
생체신호 기반 인터페이스 기술이란 무엇인가?
이렇게 다양한 연구가 진행되는 가운데 생체신호 기반 인터페이스 기술은 심전도 및 뇌파와 같은 인위적으로 발생 가능한 생체신호를 이용하는 인간 친화적인 인터페이스 기술로서, 문자/ 음성/ 제스처 이후의 차세대 사용자 인터페이스로서 연구되고 있다. 생체신호 기반 인터페이스 기술은 국내외적으로 많은 연구들이 이루어지고 있지만 아직까지 상업적으로 이용할 만한 실용적인 기술을 선보이지 못하고 있다.
뇌파 데이터 테이블과 복합 생체신호 데이터 테이블로 각각 비교하여 정확도와 증가율을 살펴본 결과는 어떠한가?
실험은 복합 생체 신호를 통한 감정인식의 성능을 검증하기 위해 뇌파 데이터 테이블과 복합 생체신호 데이터 테이블로 각각 비교 했고 그 정확도와 증가율을 살펴봤다. 실험 결과 뇌파를 이용한 실험은 평균 66.96%의 정확도를 보인 반면 복합 생체신호를 이용한 실험은 평균 90.72%로 약 23.77%의 증가율을 확인했다.
참고문헌 (17)
KyungSik Kim, YoonJung Lee, DooNam Oh, "Usability Test of 'Paldokangsan3' a Walking Game for the Elderly", Journal of Korea Game Society, Vol. 15, No. 1, pp145-154, 2015.
Hae-Gul Pyun, Haeng-A An, Seongmin Yuk, Jinho Park, "A Gesture Interface based on Hologram and Haptics Environments for Interactive and Immersive Experiences", Journal of Korea Game Society, Vol. 15, No. 1, pp27-34, 2015.
Jonathan R. Wolpaw, Dennis J.. McFarlanda, Gregory W. Neatb, "An EEG-based brain-computer interface for cursor control", Electroencephalography and clinical neurophysiology, Vol. 78, No. 3, pp252-259, 1991.
Jonathan R. Wolpaw, Dennis J. McFarland, "Control of a two-dimensional movement signal by a noninvasive brain-computer interface in humans", Proceedings of the National Academy of Sciences of the United States of America, Vol.101, No. 51, pp17849-17854, 2004.
QiBin Zhao, LiQing Zhang, Andrzej Cichocki, "EEG-based asynchronous BCI control of a car in 3D virtual reality environments", Chinese Science Bulletin, Vol. 54, No. 1, pp78-87, 2009.
Woestenburg, J. C., M. N. Verbaten, J. L. Slangen, "The removal of the eye-movement artifact from the EEG by regression analysis in the frequency domain.", Biological psychology, Vol. 16, No. 1 pp127-147, 1983.
Shusterman, V., Barnea O., "Sympathetic nervous system activity in stress and biofeedback relaxation", Engineering in Medicine and Biology Magazine, IEEE Vol. 24, No. 2, pp52-57, 2005.
Takayuki, H., Kiyoko Y., "The relaxation biofeedback system with computer and heart rate variability interaction", Technical Report of IEICE, pp35-38, 2003.
Jennifer H., Rosalind P., "SmartCar: detecting driver stress", Proc. of the 15th IEEE Pattern Recognition 2000 International Conference, Vol. 4, pp218-221, 2000.
Cai J., Liu G., Hao M., "The research on emotion recognition from ECG signal", Proc. of the IEEE ITCS 2009 International Conference, Vol. 1, pp. 497-500, 2009
Harter, S., "A new self-report scale of intrinsic versus extrinsic orientation in the classroom: Motivational and informational components", Developmental psychology, Vol. 17, No. 3, pp300-312, 1981.
Stipek, D., "Motivation to learn: From theory to practice", Allyn and Bacon, 1993.
Liu, Y., Sourina, O., Nguyen, M. K., "Real-time EEG-based human emotion recognition and visualization", Porc of the IEEE Cyberworlds 2010 International Conference, pp262-269, 2010.
Khosrowabadi, R., Quek, H. C., Wahab, A., Ang, K. K., "EEG-based emotion recognition using self-organizing map for boundary detection" Proc. of the 20th IEEE ICPR 2010 International Conference, pp4242-4245, 2010.
Petrantonakis, P. C., Hadjileontiadis, L. J., "EEG-based emotion recognition using hybrid filtering and higher order crossings" Proc. of the 3rd IEEE ACII 2009 International Conference, pp. 1-6, 2009.
Ekman, P., "Facial expressions." Handbook of cognition and emotion pp226-232, 1999.
Koelstra, S., Muhl, C., Soleymani, M., Lee, J. S., Yazdani, A., Ebrahimi, T., Patras, I., "Deap: A database for emotion analysis; using physiological signals" IEEE Trans. Affective Computing, Vol. 3, No. 1, pp18-31, 2012.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.