본 논문은 남/여 성별에 기반해 음성을 평상, 기쁨, 슬픔, 화남의 4가지 감성 상태로 분류하는 감성인식 시스템을 구축하였다. 제안된 시스템은 입력 음성으로부터 1차적으로 남/여 성별을 분류하고, 분류된 성별을 기반으로 남/여 각기 최적의 특징벡터 열을 적용하여 감성인식을 수행함으로써 감성인식 성공률을 향상시켰다. 또한 음성인식에서 주로 사용되는 ZCPA(Zero Crossings with Peak Amplitudes)를 감성인식용 특징벡터로 사용하여 성능을 향상시켰으며, 남/여 각각의 특징 벡터 열을 최적화하기 위해 SFS(Sequential Forward Selection) 기법을 사용하였다. 감성 패턴 분류기로는 k-NN과 SVM을 비교하여 실험하였다. 실험결과 제안 시스템은 4가지 감성상태에 대해 약 85.3%의 높은 감성 인식 성공률을 달성할 수 있어 향후 감성을 인식하는 콜센터, 휴머노이드형 로봇이나 유비쿼터스(Ubiquitous) 환경 등 다양한 분야에서 감성인식 정보를 유용하게 사용될 수 있을 것으로 기대된다.
본 논문은 남/여 성별에 기반해 음성을 평상, 기쁨, 슬픔, 화남의 4가지 감성 상태로 분류하는 감성인식 시스템을 구축하였다. 제안된 시스템은 입력 음성으로부터 1차적으로 남/여 성별을 분류하고, 분류된 성별을 기반으로 남/여 각기 최적의 특징벡터 열을 적용하여 감성인식을 수행함으로써 감성인식 성공률을 향상시켰다. 또한 음성인식에서 주로 사용되는 ZCPA(Zero Crossings with Peak Amplitudes)를 감성인식용 특징벡터로 사용하여 성능을 향상시켰으며, 남/여 각각의 특징 벡터 열을 최적화하기 위해 SFS(Sequential Forward Selection) 기법을 사용하였다. 감성 패턴 분류기로는 k-NN과 SVM을 비교하여 실험하였다. 실험결과 제안 시스템은 4가지 감성상태에 대해 약 85.3%의 높은 감성 인식 성공률을 달성할 수 있어 향후 감성을 인식하는 콜센터, 휴머노이드형 로봇이나 유비쿼터스(Ubiquitous) 환경 등 다양한 분야에서 감성인식 정보를 유용하게 사용될 수 있을 것으로 기대된다.
In this paper, we constructed a speech emotion recognition system that classifies four emotions - neutral, happy, sad, and anger from speech based on male/female gender discrimination. At first, the proposed system distinguish between male and female from a queried speech, then the system performanc...
In this paper, we constructed a speech emotion recognition system that classifies four emotions - neutral, happy, sad, and anger from speech based on male/female gender discrimination. At first, the proposed system distinguish between male and female from a queried speech, then the system performance can be improved by using separate optimized feature vectors for each gender for the emotion classification. As a emotion feature vector, this paper adopts ZCPA(Zero Crossings with Peak Amplitudes) which is well known for its noise-robustic characteristic from the speech recognition area and the features are optimized using SFS method. For a pattern classification of emotion, k-NN and SVM classifiers are compared experimentally. From the computer simulation results, the proposed system was proven to be highly efficient for speech emotion classification about 85.3% regarding four emotion states. This might promise the use the proposed system in various applications such as call-center, humanoid robots, ubiquitous, and etc.
In this paper, we constructed a speech emotion recognition system that classifies four emotions - neutral, happy, sad, and anger from speech based on male/female gender discrimination. At first, the proposed system distinguish between male and female from a queried speech, then the system performance can be improved by using separate optimized feature vectors for each gender for the emotion classification. As a emotion feature vector, this paper adopts ZCPA(Zero Crossings with Peak Amplitudes) which is well known for its noise-robustic characteristic from the speech recognition area and the features are optimized using SFS method. For a pattern classification of emotion, k-NN and SVM classifiers are compared experimentally. From the computer simulation results, the proposed system was proven to be highly efficient for speech emotion classification about 85.3% regarding four emotion states. This might promise the use the proposed system in various applications such as call-center, humanoid robots, ubiquitous, and etc.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 논문은 음성으로부터 평상, 기쁨, 슬픔, 화남의 4 가지 감성 상태를 인식할 수 있는 음성 감성인식 시스템을 제안하였다. 제안 시스템은 1차적으로 남/여 성별을 구분한 뒤 각 성별에 따라 최적화된 특징벡터 열을 이용하여 2차적으로 음성 감성 인식을 수행함으로써 약 瓯3%의 높은 인식률을 달성할 수 있었다.
본 연구에서는 음성의 감성 상태를 평상, 기쁨, 슬픔, 화남의 4가지로 구별할 수 있는 감성인식 시스템을 제안하였다. 본 논문의 주요 내용은 다음과 같다.
제안 방법
감성 특징벡터는 매 프레임 단위로 피치, 에너지, MFCC와 ZCPA 특징을 추출하여 각 특징계수들의 평균(mean)과 표준 편차(standard deviation)를 구하고 피치, 에너지, MFCC에 대해서는 델타(Delta) 값을 구하여 최종적으로 총 136차의 특징벡터를 구성하였다.
추출된 특징벡터 중에서 남/여 성별을 구분하는데 탁월한 성능을 나타내는 피치와 MFCC를 이용하여 남/여 성별을 구분한다. 구분된 성별에 따라 1단계에서 구축된 최적의 남/여 성별 특징벡터 열을 남/여에 각각 적용하여 k-NN, SVM 패턴 분류기를 이용하여 질의 음성의 감성 상태를 평상, 기쁨, 슬픔 또는 화남의 4가지 감성 상태로 최종 분류한다.
DB를 구축하였다. 구축된 감성 음성 DB는 평소 감성 음성 발성을 훈련하는 아마추어 연극단원 남/여 각 15명이 45개 문장에 대하여 4가지 감성 상태별로 발성한 음성을 총 5, 43개 16kHz, 16bit로 녹음한 것이다. 본
둘째, 음성의 운율적 특징을 설명하는 피치, 에너지, MFCC 외에 음성인식 분야에서 잡음에 강인한 특성을 가진 것으로 알려져 있는 ZCPA(Zero-Crossing with Peak Amplitudes) 특징间을 추가로 적용하여, 감성 인식 성능에 있어 ZCPA 특징의 유효성을 검증하였다. 셋째, 감성 특징으로 추출된 특징벡터 중 감성 인식률 향상에 기여가 높은 특징계수들만을 선별해서 시스템의 인식 성능을 향상시키고 연산 복잡도를 낮출 수 있는 SFS(Sequential Forward Selection)® 기법을 남/여 별도로 적용하였으며, 음성 감성 분류를 위한 패턴 인식기법으로는 k-NN, SVM 2가지 방법을 비교하였다.
있다. 본 논문에서 사용된 ZCPA 특징은 80차로, ZCPA를 포함한 전체 136차 특징벡터와 ZPCA를 제외한 56차 특징 벡터의 인식 결과를 비교하고 있다.
음성 감성상태를 인식하는 시스템이다. 본 논문에서 제안한 시스템은 음성 전처리 과정을 거쳐 피치, 에너지, MFCC, ZCPA 등의 136차 특징벡터를 추출하고 1 차적으로 피치, MFCC 특징벡터 열을 이용하여 성별을 분류한 다음-, 2차적으로 훈련용 음성 DB에서 SFS 기법으로 남/여 성별에 따라 선정된 최적화된 특징벡터 열을 남/여 음성에 각각 적용하여 최종 감성 상태를 분류하여 감성인식 성공률을 향상시킨다.
본 논문에서는 남/여 성별 차이에 따라 서로 다른 최적의 특징벡터 열을 갖는다는 가정하에 남/여 성별로 가장 높은 감성 인식률을 나타내는 특징계수부터 순차적으로 하나씩 특징계수를 추가해 가면서 감성 인식 정확도를 계산하여 남/여 성별로 최적화된 특징벡터 열을 구성하게 된다.
본 연구에서는 논문 [12]에서 기 구축된 DB를 이용하여 평상, 기쁘 슬픔 화남 4가지 감성에 대한 감성 음성 DB를 구축하였다. 구축된 감성 음성 DB는 평소 감성 음성 발성을 훈련하는 아마추어 연극단원 남/여 각 15명이 45개 문장에 대하여 4가지 감성 상태별로 발성한 음성을 총 5, 43개 16kHz, 16bit로 녹음한 것이다.
검증하였다. 셋째, 감성 특징으로 추출된 특징벡터 중 감성 인식률 향상에 기여가 높은 특징계수들만을 선별해서 시스템의 인식 성능을 향상시키고 연산 복잡도를 낮출 수 있는 SFS(Sequential Forward Selection)® 기법을 남/여 별도로 적용하였으며, 음성 감성 분류를 위한 패턴 인식기법으로는 k-NN, SVM 2가지 방법을 비교하였다. 본 논문의 구성은 다음과 같다.
남/여 성별로 각각 수행된 SVM-SFS 결과 여성은 25차에서 所%의 최대 인식 성공률을 남성은 淇차에서 855%의 최대 인식 성공률을 각각 나타냈다. 제안 시스템은 그림 5에서 추출된 최적 특징 벡터 열을 남/여 성별로 각각 구성하여 사용한다. 표 1은 제안 시스템에서 1차적으로 수행하게 되는 남 /여 성별 분류에 대한 실험 결과이다.
나타낸다. 제안 시스템은 크게 1단계 - SFS를 이용하여 남/여 성별로 최적의 감성 특징벡터 추출하는 단겨], 2단계 - 입력된 질의 음성으로부터 남/여 성별을 분류하고 분류된 성별을 바탕으로 1단계에서 구축된 성별 최적의 특징벡터 열을 적용하여 감성 상태를 분류하는 2가지 단계로 구성된다.
추출된 특징벡터 중에서 남/여 성별을 구분하는데 탁월한 성능을 나타내는 피치와 MFCC를 이용하여 남/여 성별을 구분한다. 구분된 성별에 따라 1단계에서 구축된 최적의 남/여 성별 특징벡터 열을 남/여에 각각 적용하여 k-NN, SVM 패턴 분류기를 이용하여 질의 음성의 감성 상태를 평상, 기쁨, 슬픔 또는 화남의 4가지 감성 상태로 최종 분류한다.
대상 데이터
5, 400개 음성 중 무작위로 1, 600개(남/여 각 800개, 감성별 狈개)의 음성을 선택하여 SFS를 이용한 최적의 감성 특징벡터를 선별하는데 사용하였고, 이와 문장이 중복되지 않는 400개(남/여 각 2(力개, 각 감성별 50 개)의 음성을 무작위로 선택하여 질의 데이터로 사용하였다.
이론/모형
피치는 일반적으로 사용되는 SHR(Subharmonic to harmonic ratio) 알고리즘1"'을 사용하였다. SHRe 음성 신호에 FFT를 취하여 2개의 피크 값 (有 을 피치 후보로 선정하고 아래의 수식 (3)에서 SHR 값을 특정 한계 값과 비교하여 SHIS] 한계 값보다 작으면 f2 를 최종 피치로 선정하고, 아니면 有을 피치로 선정한다.
역수를 주파수 히스토그램에 누적시킨다. 그리고 인접한 영교차점간 신호의 피크 값을 검출하여 비선형 함수를 통과한 값을 주파수 히스토그램에 가중치로 사용한다. 최종 ZCPA의 출력은 모든 채널의 히스토그램을 더함으로써 얻어지며, n번째 프레임의 ZCPA의 출력은 다음 수식 ⑸과 같이 표현할 수 있다田.
이후 끝점 검출은 음성 신호에서 음성 구간(voiced period)과 비-음성 구간을 구별하여 음성 구간에서만 특징벡터를 추출하기 위한 것으로 이는 비-음성 구간에서 잘못된 음성 분석과 특징벡터 추출로 인해 야기되는 시스템 성능저하를 예방하기 위한 것이다. 본 연구에서 사용된 끝점 검출기는 TK)와 에너지 엔트로피(entropy)를 이용해 낮은 SNR 환경에서도 비교적 높은 성능을 낼 수 있는 L. Gu의 알고리즘®을 이용하였다. TEO는 기존의 에너지 값이 신호의 세기만을 나타내던 것에 비하여 신호의 세기와 주파수적 특성을 동시에 나타낼 수 있는 장점이 있다.
일반적으로 수식(3)은 음성신호의 크기에 너무 민감하다. 이와 같은 문제점을 해결하기 위해 아래의 수식(4)와 같이 단-구간 음성 에너지는 평균크기 함수(average magnitude function)을 적용하여 에너지를 계산한다.
성능/효과
높은 성공률을 나타냈다. 남/여 성별로 각각 수행된 SVM-SFS 결과 여성은 25차에서 所%의 최대 인식 성공률을 남성은 淇차에서 855%의 최대 인식 성공률을 각각 나타냈다. 제안 시스템은 그림 5에서 추출된 최적 특징 벡터 열을 남/여 성별로 각각 구성하여 사용한다.
벡터 열을 적용하여 2차 감성 분류를 하는 제안 시스템에서는 참조 시스템에서 보였던 평상을 슬픔으로 오분류하는 경우와 화남을 기쁨으로 오분류하는 경우가 많이 줄어들어 853%의 감성인식 성공률을 나타내어 참조 시스템에 비해 약 13% 이상 감성인식 성공률이 크게 향상 되었다.
본 논문의 제안시스템과 같이 1차적으로 남/여 성별을 분류한 뒤 각 성별로 최적화된 특징벡터 열을 적용하여 감성 분류를 수행하는 것이 성공률 향상에 크게 기여함을 알 수 있다.
성능이 우수하였으며, 여성이 남성에 비해 낮은 차수에서 높은 성공률을 나타냈다. 남/여 성별로 각각 수행된 SVM-SFS 결과 여성은 25차에서 所%의 최대 인식 성공률을 남성은 淇차에서 855%의 최대 인식 성공률을 각각 나타냈다.
Lee는 음성 신호의 음향학적 특징에 의미론적인 언어 특징 정보를 더하여 콜센터 같은 응용시스템에서 부정적인 음성 (negative) 과 비-부정적인 (non-negative) 음성을 분류할 수 있는 알고리즘을 제안하였다. 실험 결과 언어 특징 정보를 이용해 남성 음성의 경우 약 40.7%, 여성 음성의 경우 약 36.4% 향상시킬 수 있음을 밝히고 있다'Q Ronge Random Forest 와 함께 최적화된 功차 특징벡터 열을 사용하여 부정적인 음성, 긍정적인 음성 그리고 중립적인 음성의 세 가지 상태에 대해 57.3%, 27.3%, 45.9%의 인식 성공률을 얻었다⑸ 한편, Vogt는 음성을 남성과 여성으로 먼저 분류한 후 인식 성능을 평가한 결과 성별 독립 시스템이 성별 종속 시스템에 비해 약 2~4%의 성능 향상이 있음을 밝히고 있다回 Lugger는 음성의 운율적 특징정보를 이용해 음성을 High(화남, 기쁨, 근심), Low(평상, 지루함, 슬픔) 두 가지로 분류하는 감성인식 실험에서 66.7~74.5%의 인식 성공률을 보이고 있다0.
제안하였다. 제안 시스템은 1차적으로 남/여 성별을 구분한 뒤 각 성별에 따라 최적화된 특징벡터 열을 이용하여 2차적으로 음성 감성 인식을 수행함으로써 약 瓯3%의 높은 인식률을 달성할 수 있었다. 향후 제안시스템은 고객센터(Call center), 유비쿼터스(Ubiquitous) 환경 등에서 감성 상태에 따라 다른 맞춤형 서비스를 제공하는데 유용하게 사용될 것으로 기대된다.
첫째, 음성을 남/여 성별로 1차적으로 구분한 뒤 남/ 여 성별에 따라 각기 다른 최적의 특징벡터 열을 사용함으로서 감성인식 성능을 향상 시켰다.
표 1에서와 같이 피치와 MFCC로 구성된 특징 벡터를 이용한 SVM 분류기가 99.5%로 우수한 성별 분류성능을 나타냄을 알 수 있다. 위 결과에 따라 본 논문의 제안 시스템에서 1차 성별 분류과정에서는 피치와
표 2에서 보듯이 SFS 기법을 사용하지 않고 136차 특징 벡터 전체를 사용한 참조 시스템에서 k-NN 분류기는 65.3%, SVM 분류기는 72%의 인식 성공률을 보이고 있다. 반면, 남/여 성별을 구분한 제안 시스템의 경우는 이 보다 약 1-4% 정도 향상된 결과를 보이고 있다.
결과를 나타낸다. 표에서 제안 시스템은 남(총 54 차)/여(총 25차)별 최적화된 특징벡터 열과 SVM 분류기에 대한 평균 결과를 참조 시스템은 136차 특징 벡터가 적용된 SVM 결과를 나타낸다.
한편, SFS기법을 사용하여 최적화된 특징 벡터를 사용한 제안시스템은 참조시스템에 비해 k-NN 분류기에서는 약 14-16%, SVM 분류기에서는 약 14-15% 정도의 성능 향상을 보이고 있다.
후속연구
이외에 심장 박동 수, 체온, 혈압, 뇌파 등 다양한 수단을 통하여 감성 정보를 얻을 수 있으나 이중에서도 음성을 이용한 감성 인식 시스템은 마이크로폰을 통한 음성 신호의 입력, 처리 등이 타 매체보다 상대적으로 편리하다는 장점으로 최근에 활발한 연구가 이루어지고 있다. 이러한 음성 감성인식 시스템은 향후 유비쿼터스 (Ubiquitous) 환경에서 음성 정보를 이용하여 상대방의 감성 상태를 알고자하는 고객 센터 (Call Center), 결혼 정보 회사, 유비쿼터스(Ubiquitous) 환경 등에서 다양한 형태로 서비스될 수 있을 것이다.
제안 시스템은 1차적으로 남/여 성별을 구분한 뒤 각 성별에 따라 최적화된 특징벡터 열을 이용하여 2차적으로 음성 감성 인식을 수행함으로써 약 瓯3%의 높은 인식률을 달성할 수 있었다. 향후 제안시스템은 고객센터(Call center), 유비쿼터스(Ubiquitous) 환경 등에서 감성 상태에 따라 다른 맞춤형 서비스를 제공하는데 유용하게 사용될 것으로 기대된다.
참고문헌 (12)
Duda R., Hart P. and Stork D., "Pattern Classification, Second Edition," John Wiley & Sons, 2000
Dellaert, F., Polzin, T., and Waibel, A., "Recognizing Emotion in Speech," Proceedings of the International Conference on Spoken Language, Vol. 3, pp. 1970-1973, Oct. 1996
Dellaert, F., Polzin, T., and Waibel, A., "Recognizing Emotion in Speech," Proceedings of the International Conference on Spoken Language, Vol. 3, pp. 1970-1973, Oct. 1996
Lee C. M. and Narayanan S. S., "Towards Detecting Emotions in Spoken Dialogs," IEEE Transactions on Speech and Audio Processing, Vol. 13, No. 2, March 2005
Rong J., Chen Y., Chowdhury M. and Li G., "Acoustic Features Extraction for Emotion Recognition," Computer and Information Science, ICIS 2007. 6th IEEE/ACIS International Conference, pp.419-424, July 2007
Vogt T and Andre E., "Improving Automatic Emotion Recognition from Speech via Gender Differentiation," Proceedings of Language Resources and Evaluation Conference '06, Italy, May 2006
Lugger M. and Yang B., "The relevance of voice quality features in speaker independent emotion recognition," Acoustics, Speech and Signal Processing, ICASSP 07., Vol. 4, pp.IV-17-IV-20, April 2007
Doh-Suk Kim, Soo-Young Lee and Rhee M. Kil, "Auditory Processing of Speech Signals for Robust Speech Recognition in Real-World Noisy Environments," IEEE Transactions on Speech and Audio Processing, Vol. 7, No. 1, pp.55-69, Jan. 1999
Jain A. and Zongker D., "Feature Selection: Evaluation, Application, and Small Sample Performance," IEEE transactions on pattern analysis and machine intelligence, Vol. 19, No. 2, pp.153-158. 1997
Lingyun Gu and Stephen A. Zahorian, "A New Robust Algorithm for Isolated Word Endpoint Detection," Acoustics, Speech and Signal Processing, ICASSP 02., Orlando, FL, May 2002
Xuejing Sun, "A Pitch Determination Algorithm Based On Subharmonic-to-Harmonic Ratio," International Conference on Spoken Language Processing '2000, pp.676-679, 2000
강봉석, "음성 신호를 이용한 문장독립 감정 인식 시스템," 석사학위 논문, 연세대학교, 2001
※ AI-Helper는 부적절한 답변을 할 수 있습니다.