$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

텍스트와 음성의 앙상블을 통한 다중 감정인식 모델
Multi-Emotion Recognition Model with Text and Speech Ensemble 원문보기

스마트미디어저널 = Smart media journal, v.11 no.8, 2022년, pp.65 - 72  

이명호 (조선대학교 전자공학과) ,  임명진 (조선대학교 신산업융합학부) ,  신주현 (조선대학교 신산업융합학부)

초록
AI-Helper 아이콘AI-Helper

COVID-19로 인해 대면으로 이루어지던 상담 방식이 비대면으로 진행되면서 비대면 상담의 중요성이 높아지고 있다. 비대면 상담은 온라인으로 언제 어디서든 상담할 수 있고, COVID-19에 안전하다는 장점이 있다. 그러나 비언어적 표현의 소통이 어려워 내담자의 마음을 이해하기 어렵다. 이에 비대면 상담 시 내담자의 마음을 잘 알기 위해서는 텍스트와 음성을 정확하게 분석하여 감정을 인식하는 것이 중요하다. 따라서 본 논문에서는 텍스트 데이터는 자음을 분리한 후 FastText를 사용하여 벡터화하고, 음성 데이터는 Log Mel Spectrogram과 MFCC를 사용하여 각각 특징을 추출하여 벡터화한다. 벡터화된 데이터를 LSTM 모델을 활용하여 5가지 감정을 인식하는 다중 감정인식 모델을 제안한다. 다중 감정인식은 RMSE을 활용하여 계산한다. 실험 결과 텍스트와 음성 데이터를 각각 사용한 모델보다 제안한 모델의 RMSE가 0.2174로 가장 낮은 오차를 확인하였다.

Abstract AI-Helper 아이콘AI-Helper

Due to COVID-19, the importance of non-face-to-face counseling is increasing as the face-to-face counseling method has progressed to non-face-to-face counseling. The advantage of non-face-to-face counseling is that it can be consulted online anytime, anywhere and is safe from COVID-19. However, it i...

주제어

참고문헌 (13)

  1. 김소연, 유헌창, "SNS 비정형 데이터의 한국어 다중감성 분석 기법," 한국컴퓨터교육학회 학술발표대회논문집, 제22권, 제2호, 147-149쪽, 2018년 

  2. 신동원, 이연수, 장정선, 임해창, "CNN-LSTM을 이용한 대화 문맥 반영과 감정 분류," 한국어정보학회 학술대회, 141-146쪽, 2016년 

  3. 임명진, 박원호, 신주현, "Word2Vec과 LSTM을 활용한 이별 가사 감정 분류," 스마트미디어저널, 제9권 제3호, 90-97쪽, 2020년 9월 

  4. Q. Jin, C. Li, S. Chen and H. Wu, "Speech emotion recognition with acoustic and lexical features," IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 4749-4753, South Brisbane, Australia, Apr. 2015. 

  5. H. S. Kumbhar and S. U. Bhandari, "Speech Emotion Recognition using MFCC features and LSTM network," International Conference On Computing, Communication, Control And Automation, pp. 1-3, Pune, India, Sep. 2019. 

  6. 임명진, 이명호, 신주현, "상담 챗봇의 다차원 감정인식 모델," 스마트미디어저널, 제10권, 제4호, 21-27쪽, 2021년 12월 

  7. Ekman, Paul. "An argument for basic emotions," Cognition & emotion, Vol. 6, No. 3-4, pp. 169-200, Oct. 1992 

  8. Plutchik, Robert. "Emotions and life: Perspectives from psychology, biology, and evolution," American Psychological Association, 2003 

  9. 임명진, "대화 문맥의 연관성을 적용한 멀티 레이블 감정인식 모델", 조선대학교 박사학위 논문, 2022. 8 

  10. Satt, Aharon, et al., "Efficient Emotion Recognition from Speech Using Deep Learning on Spectrograms," Interspeech, pp. 1089-1093, Stockholm, Sweden, Aug. 2017. 

  11. Nancy, A. Maria,et al., "Audio Based Emotion Recognition Using Mel Frequency Cepstral Coeffi-cient and Support Vector Machine," Journal of Computational and Theoretical Nanoscience, Vol. 15, No. 6-7, pp. 2255-2258, Jun. 2018. 

  12. Likitha, M. S., et al., "Speech based human emotion recognition using MFCC," 2017 International Con-ference on Wireless Communications, Signal Processing and Networking (WiSPNET), IEEE, pp. 2257-2260, Chennai, India, Mar. 2017. 

  13. 이명호, 임명진, 신주현, "단어와 문장의 의미를 고려한 비속어 판별 방법," 스마트미디어저널, 제9권, 제3호, 98-106쪽, 2020년 9월 

저자의 다른 논문 :

관련 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로