감정 표현은 보편적이고 감정 상황은 우리 생활의 중요한 분야에 영향을 미친다. 최근에 증가하고 있는 정서적인 계산 연구들은 정서 인간-컴퓨터 간의 상호 작용을 설립하기 위하여 이용자의 정서 상황을 알아볼 수 있는 컴퓨터 시스템에 관심을 갖고 있다. 감정 상황을 추정하기 위하여 여러 가지 방식이 사용되었다. 가장 인기 있는 방식으로 상대적으로 낮은 비용과 간단하게 인간의 실제 내면감정을 반영 할 수 있어서 상당한 관심을 받고 있는 뇌파(Electroencephalography, EEG)로부터의 감정 인식이다. 뇌파기반의 감정적 ...
감정 표현은 보편적이고 감정 상황은 우리 생활의 중요한 분야에 영향을 미친다. 최근에 증가하고 있는 정서적인 계산 연구들은 정서 인간-컴퓨터 간의 상호 작용을 설립하기 위하여 이용자의 정서 상황을 알아볼 수 있는 컴퓨터 시스템에 관심을 갖고 있다. 감정 상황을 추정하기 위하여 여러 가지 방식이 사용되었다. 가장 인기 있는 방식으로 상대적으로 낮은 비용과 간단하게 인간의 실제 내면감정을 반영 할 수 있어서 상당한 관심을 받고 있는 뇌파(Electroencephalography, EEG)로부터의 감정 인식이다. 뇌파기반의 감정적 상태 추정은 복잡하고 잡음이 많은 다중채널 뇌파 데이터에서 정보를 추출하기 위하여 적절한 특징을 필요로 합니다. 특별한 인식의 감정 정보를 높은 정확도를 가지면서 알아 내기 위하여, 본 논문의 목적은 진폭 및 전력 측정치에서 감정 사진하고 감정소리에 의해 초래된 뇌 감정적 진동 형 활성을 조사하는 것이다. 이벤트에 관련된 전위 (Event-related potential; ERP), 파워 스펙트럼, 이벤트에 관련된 스펙트럼 섭동 (Event-related spectral perturbation; ERSP)을 포함한 세 개의 시간 - 주파수 분석 방법은 감정 인식으로부터 뚜렷한 특징을 발견하는데 사용됩니다. 건강한 대학생 서른 명이 자극 실험에 지원하였다. 감정이 분류된 EEG 데이터를 수집하기 위하여 두 실험 설계 및 실시 하였다. IAPS (International Affective Picture System)의 사진 슬라이드와 IADS (International Affective Digitized Sounds) 데이터베이스의 사운드 클립은 실험에 감정을 불러 일으키는 데에 사용되었다. 연구 결과의 주요 내역은 다음과 같다. (1) 후반 양의 전위 (LPP)의 두 가지 특별한 시간 범위 (600-800ms 800-900ms)는 시각적 정서적인 변화에 대한 서로 다른 뇌 영역에서 다른 원자가하고 각성 감정 상태로써 잠재적인 차이를 연구하기 위해서 제안한다. (2) ERP의 일곱 개의 특별한 시간 범위 (1-50ms, 50-100ms, 200-300ms, 400-500ms, 600-700ms, 700-800ms, 900-1000ms)는 청각적 정서적인 변화에 대한 서로 다른 뇌 영역에서 다른 원자가하고 각성 감정 상태로써 잠재적인 변화를 연구하기 위하여 제안한다. (3) 좁은 주파수 대역은 시각적 및 청각적의 정서적인 변화에 대해 서로 다른 밴드와 뇌 영역의 각성 감정 상태로써 전력의 차이를 연구하는데 사용된다. (4) 세타 알파 및 감마 밴드의 반구의 비대칭이 발견되었다. 베타와 감마 밴드에서 ERSP지도는 시각적, 정서적인 자극에 대해 중립이 가장 강한 반응을 나타내는 반면 청각의 감정적인 자극에 대해 행복이 가장 강한 응답을 나타나는 것으로 보여 주었다.
감정 표현은 보편적이고 감정 상황은 우리 생활의 중요한 분야에 영향을 미친다. 최근에 증가하고 있는 정서적인 계산 연구들은 정서 인간-컴퓨터 간의 상호 작용을 설립하기 위하여 이용자의 정서 상황을 알아볼 수 있는 컴퓨터 시스템에 관심을 갖고 있다. 감정 상황을 추정하기 위하여 여러 가지 방식이 사용되었다. 가장 인기 있는 방식으로 상대적으로 낮은 비용과 간단하게 인간의 실제 내면감정을 반영 할 수 있어서 상당한 관심을 받고 있는 뇌파(Electroencephalography, EEG)로부터의 감정 인식이다. 뇌파기반의 감정적 상태 추정은 복잡하고 잡음이 많은 다중채널 뇌파 데이터에서 정보를 추출하기 위하여 적절한 특징을 필요로 합니다. 특별한 인식의 감정 정보를 높은 정확도를 가지면서 알아 내기 위하여, 본 논문의 목적은 진폭 및 전력 측정치에서 감정 사진하고 감정소리에 의해 초래된 뇌 감정적 진동 형 활성을 조사하는 것이다. 이벤트에 관련된 전위 (Event-related potential; ERP), 파워 스펙트럼, 이벤트에 관련된 스펙트럼 섭동 (Event-related spectral perturbation; ERSP)을 포함한 세 개의 시간 - 주파수 분석 방법은 감정 인식으로부터 뚜렷한 특징을 발견하는데 사용됩니다. 건강한 대학생 서른 명이 자극 실험에 지원하였다. 감정이 분류된 EEG 데이터를 수집하기 위하여 두 실험 설계 및 실시 하였다. IAPS (International Affective Picture System)의 사진 슬라이드와 IADS (International Affective Digitized Sounds) 데이터베이스의 사운드 클립은 실험에 감정을 불러 일으키는 데에 사용되었다. 연구 결과의 주요 내역은 다음과 같다. (1) 후반 양의 전위 (LPP)의 두 가지 특별한 시간 범위 (600-800ms 800-900ms)는 시각적 정서적인 변화에 대한 서로 다른 뇌 영역에서 다른 원자가하고 각성 감정 상태로써 잠재적인 차이를 연구하기 위해서 제안한다. (2) ERP의 일곱 개의 특별한 시간 범위 (1-50ms, 50-100ms, 200-300ms, 400-500ms, 600-700ms, 700-800ms, 900-1000ms)는 청각적 정서적인 변화에 대한 서로 다른 뇌 영역에서 다른 원자가하고 각성 감정 상태로써 잠재적인 변화를 연구하기 위하여 제안한다. (3) 좁은 주파수 대역은 시각적 및 청각적의 정서적인 변화에 대해 서로 다른 밴드와 뇌 영역의 각성 감정 상태로써 전력의 차이를 연구하는데 사용된다. (4) 세타 알파 및 감마 밴드의 반구의 비대칭이 발견되었다. 베타와 감마 밴드에서 ERSP지도는 시각적, 정서적인 자극에 대해 중립이 가장 강한 반응을 나타내는 반면 청각의 감정적인 자극에 대해 행복이 가장 강한 응답을 나타나는 것으로 보여 주었다.
Emotion expression is ubiquitous and its status influences important areas in our daily lives. Recently, increasingly affective computing researches are interested in a computer system that can recognize an emotional state of the human user to establish affective human-computer interactions. A varie...
Emotion expression is ubiquitous and its status influences important areas in our daily lives. Recently, increasingly affective computing researches are interested in a computer system that can recognize an emotional state of the human user to establish affective human-computer interactions. A variety of measures have been used to estimate emotional states. One of the most popular is emotion recognition from electroencephalography (EEG), which has received considerable attention as EEG could reflect the real “inner” feelings of the human with relatively low costs and simplicity. EEG-based emotional state estimation requires the suitable feature to extract information from complex and noisy multichannel EEG data. In order to find out the special cognitive emotional information to reach a good accuracy in the recognition of emotions, the objective of this dissertation is to investigate the brain emotional oscillatory activity induced by both affective pictures and sounds in the amplitude and power measurements. Three time-frequency analysis methods, which include event-related potential (ERP), power spectrums, event-related spectral perturbation (ERSP), are used to discover the pronounced features in the emotion recognition. Thirty healthy college students volunteered the stimulus experiments. Two experiments were designed and carried out to collect the EEG data labeled with emotions. Picture slides from International Affective Picture System (IAPS) and sound clips from International Affective Digitized Sounds (IADS) database were used to evoke emotions in the experiments. Highlights of findings are summarized as follows. (1) Two special time ranges (600-800ms and 800-900ms) of late positive potential (LPP) are proposed to study potential difference with different valence and arousal emotional states in the different brain regions for the visual emotional changes. (2) Seven special time ranges (1-50ms, 50-100ms, 200-300ms, 400-500ms, 600-700ms, 700-800ms and 900-1000ms) of ERP are proposed to study potential various with different valence and arousal emotional states in the brain regions for the audio emotional changes. (3) Narrow frequency band are used to study power difference with different valence and arousal emotional states in different bands and different brain regions for the visual and audio emotional changes. (4) The hemisphere asymmetry had existed in the theta, alpha and gamma band. In the beta and gamma band, ERSP maps revealed that there had the strongest response of neutral for the visual emotional stimulus, while the strongest response of happy was found for the audio emotional stimulus.
Emotion expression is ubiquitous and its status influences important areas in our daily lives. Recently, increasingly affective computing researches are interested in a computer system that can recognize an emotional state of the human user to establish affective human-computer interactions. A variety of measures have been used to estimate emotional states. One of the most popular is emotion recognition from electroencephalography (EEG), which has received considerable attention as EEG could reflect the real “inner” feelings of the human with relatively low costs and simplicity. EEG-based emotional state estimation requires the suitable feature to extract information from complex and noisy multichannel EEG data. In order to find out the special cognitive emotional information to reach a good accuracy in the recognition of emotions, the objective of this dissertation is to investigate the brain emotional oscillatory activity induced by both affective pictures and sounds in the amplitude and power measurements. Three time-frequency analysis methods, which include event-related potential (ERP), power spectrums, event-related spectral perturbation (ERSP), are used to discover the pronounced features in the emotion recognition. Thirty healthy college students volunteered the stimulus experiments. Two experiments were designed and carried out to collect the EEG data labeled with emotions. Picture slides from International Affective Picture System (IAPS) and sound clips from International Affective Digitized Sounds (IADS) database were used to evoke emotions in the experiments. Highlights of findings are summarized as follows. (1) Two special time ranges (600-800ms and 800-900ms) of late positive potential (LPP) are proposed to study potential difference with different valence and arousal emotional states in the different brain regions for the visual emotional changes. (2) Seven special time ranges (1-50ms, 50-100ms, 200-300ms, 400-500ms, 600-700ms, 700-800ms and 900-1000ms) of ERP are proposed to study potential various with different valence and arousal emotional states in the brain regions for the audio emotional changes. (3) Narrow frequency band are used to study power difference with different valence and arousal emotional states in different bands and different brain regions for the visual and audio emotional changes. (4) The hemisphere asymmetry had existed in the theta, alpha and gamma band. In the beta and gamma band, ERSP maps revealed that there had the strongest response of neutral for the visual emotional stimulus, while the strongest response of happy was found for the audio emotional stimulus.
주제어
#EEG Human emotion BCI ICA ERP LPP Power Spectrum ERSP ANOVA IAPS IADS EEGLAB
학위논문 정보
저자
두약유
학위수여기관
전북대학교 일반대학원
학위구분
국내박사
학과
전자.정보공학부(컴퓨터공학)
발행연도
2014
총페이지
xiv, 131 p.
키워드
EEG Human emotion BCI ICA ERP LPP Power Spectrum ERSP ANOVA IAPS IADS EEGLAB
※ AI-Helper는 부적절한 답변을 할 수 있습니다.