$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

EEG기반 언어 인식 시스템을 위한 국제음성기호를 이용한 모음 특징 추출 연구
EEG based Vowel Feature Extraction for Speech Recognition System using International Phonetic Alphabet 원문보기

한국지능시스템학회 논문지 = Journal of Korean institute of intelligent systems, v.24 no.1, 2014년, pp.90 - 95  

이태주 (중앙대학교 전자전기공학부) ,  심귀보 (중앙대학교 전자전기공학부)

초록
AI-Helper 아이콘AI-Helper

인간과 기계를 연결하는 새로운 인터페이스인 Brain-computer interface (BCI)를 이용해 휠체어를 제어하거나 단어를 입력하는 등, 사용자를 위한 다양한 장치를 개발하는 연구들이 진행되어 왔다. 특히 최근에는 뇌파를 이용한 음성인식을 구현하고 이를 통해 무음통신 등에 적용하려는 시도들이 있었다. 본 논문에서는 이러한 연구의 일환으로 electroencephalogram (EEG) 기반의 언어 인식 시스템을 개발하기 위한 기초 단계로서, 국제음성기호에 기반을 둔 모음들의 특징을 추출하는 방법에 대한 연구를 진행하였다. 실험은 건장한 세 명의 남성 피험자를 대상으로 진행되었으며, 한 개의 모음을 제시하는 첫 번째 실험 과정과 두 개의 연속된 모음을 제시하는 두 번째 실험 과정으로 두 단계에 나누어서 실험이 진행되었다. 습득된 64개의 채널중 선택적으로 32개의 채널만을 사용해 특징을 추출하였으며, 사고 활동과 관련된 전두엽과 언어활동에 관련된 측두엽을 기준으로 영역을 선택하였다. 알고리즘 적용을 위해서 특징으로는 신호의 고유 값을 사용하였고, support vector machine (SVM)을 이용하여 분류를 수행하였다. 실험 결과, 첫 번째 단계의 실험을 통해서, 언어의 뇌파를 분석하기 위해서는 10차원 이상의 특징 벡터를 사용해야 됨을 알게 되었고, 11차원의 특징 벡터를 사용할 경우, 평균분류율은 최고 95.63 %로 /a/와 /o/를 분류할 때 나타났고, 가장 낮은 분류율을 보이는 모음은 /a/와 /u/로 86.85 %였다. 두 번째 단계의 실험에서는 두 개 이상의 모음을 발음하는 것이 단일 모음 발음과 어떤 차이가 있는지 확인해 보았다.

Abstract AI-Helper 아이콘AI-Helper

The researchs using brain-computer interface, the new interface system which connect human to macine, have been maded to implement the user-assistance devices for control of wheelchairs or input the characters. In recent researches, there are several trials to implement the speech recognitions syste...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 기존의 연구들은 영문 혹은 자국의 언어에 기반을 두어 연구가 진행돼, 전 세계 언어에 대해 일반화하기 힘들다는 단점이 존재한다. 따라서 본 논문에서는 연구 결과를 한글을 비롯한 다양한 언어에서 사용이 가능하도록 국제음성 기호 (International Phonetic Alphabet)을 기준으로 발음을 제시하고, 이에 의해 발생하는 뇌파를 분류하였다. 4 종류의 단일 모음을 분류하는 실험과 함께, 더 긴 단어 및 어휘의 분류 가능성을 확인하고자 두 글자로 된 모음을 피험자에게 제시하여 한 글자로 된 모음을 제시했을 경우와 어떤 점이 달라지는지 확인하는 실험을 수행하였다.
  • 그러나 다른 신체 부위와 달리, 얼굴이나 목의 경우 말 뿐만 아니라, 표정을 짓는 등의 행동을 하므로 노이즈가 발생하기 쉽다. 또 말을 하는 행동에 대한 연구가 아닌 근육 움직임에 의해 발생되는 신호를 연구하게 됨으로써, 본질적으로 언어와 관련된 신호를 습득한다고 보기에 힘들다. 따라서 언어 인식 시스템을 구현하기 위해서는 후자와 같이, 사용자가 언어를 상상할 때 발생하는 신호를 습득하여 분석하는 과정이 필요하다.
  • 본 논문에서는 이러한 단점들을 극복한 EEG 기반의 언어인식 시스템을 개발하기 위한 그 기초 단계로서, 국제 음성기호에 기반을 둔 모음 구분 방법에 대한 연구를 진행 하였다. 기존의 연구들은 영문 혹은 자국의 언어에 기반을 두어 연구가 진행돼, 전 세계 언어에 대해 일반화하기 힘들다는 단점이 존재한다.
  • 본 논문은 EEG를 이용한 언어인식 시스템을 구현하고자, 그 첫 단계로서, 모음을 인식하는 방법에 대한 연구를 수행하였다. 보다 다양한 언어에 적용하기 위하여 특정한 언어에 종속적으로 연구가 진행되었던 기존 방식과 달리, 국제음성기호에 기반을 두어 뇌파 신호를 추출하였으므로, 다양한 언어에 적용할 수 있다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
BCI 구현의 대표적인 사례로 잘 알려진 것은 무엇인가? Brain-computer interface (BCI)는 인간과 기계 사이를 뇌의 활동에서 발생하는 전기적 신호를 이용하여 연결 해주는 새로운 인터페이스로, 세계 각국에서 활발한 연구가 진행되고 있다[1]. 그 중에서도 특히 비침습적이고 사용자 친화적인 Electroencephalogram (EEG)를 이용해 휠체어를 제어하거나 단어를 입력하는 장치가 개발되어 BCI 구현의 대표적인 사례로 잘 알려져 있다. 특히 BCI는 사용자의 움직임 심상을 획득할 수 있어 사용자가 외부 장치의 움직임을 생각만을 이용하여 작동하는데 유용하기 때문에 신체 활동에 어려움이 있는 사람을 위한 보조기구나, 사람이 직접 활동하기 힘든 작업 환경에 대응할 수 있는 장치 개발을 위한 연구들에 적용되고 있다.
BCI란? Brain-computer interface (BCI)는 인간과 기계 사이를 뇌의 활동에서 발생하는 전기적 신호를 이용하여 연결 해주는 새로운 인터페이스로, 세계 각국에서 활발한 연구가 진행되고 있다[1]. 그 중에서도 특히 비침습적이고 사용자 친화적인 Electroencephalogram (EEG)를 이용해 휠체어를 제어하거나 단어를 입력하는 장치가 개발되어 BCI 구현의 대표적인 사례로 잘 알려져 있다.
신호를 분석하는 방법 중 움직임 상상을 통한 접근법이 가진 단점은 무엇인가? 움직임 상상을 통한 접근법의 경우에는, 기존에 진행되어 왔던 많은 움직임 상상 연구와 결합하여 연구를 진행하기가 수월하고 상대적으로 쉽게 결과를 얻을 수 있다는 장점이 있다. 그러나 다른 신체 부위와 달리, 얼굴이나 목의 경우 말 뿐만 아니라, 표정을 짓는 등의 행동을 하므로 노이즈가 발생하기 쉽다. 또 말을 하는 행동에 대한 연구가 아닌 근육 움직임에 의해 발생되는 신호를 연구하게 됨으로써, 본질적으로 언어와 관련된 신호를 습득한다고 보기에 힘들다. 따라서 언어 인식 시스템을 구현하기 위해서는 후자와 같이, 사용자가 언어를 상상할 때 발생하는 신호를 습득하여 분석하는 과정이 필요하다.
질의응답 정보가 도움이 되었나요?

참고문헌 (8)

  1. J. R. Wolpaw, E. W. Wolpaw, "Brain-computer interfaces: something new under the sun," Brain-computer interfaces: principles and practice. Oxford University Press, Oxford, pp. 3-12, 2012. 

  2. R. Bogue, "Brain-computer interfaces: control by thought," Industrial Robot: An International Journale, vol. 37, issue 2, pp. 126-132, 2010. 

  3. K. Brigham, B. V. K. V. Kumar, "Imagined Speech Classification with EEG Signals for Silent Communication: A Preliminary Investigation into Synthetic Telepathy," Conf. Bioinf. and Biomed. Eng. 2010, pp. 1-4, 2010. 

  4. N. Yhoshimura, A. Satsuma, C. S. DaSalla, T. Hanakawa, M. Sato, Y. Koike, "Usability of EEG Cortical Currents in Classification of Vowel Speech Imagery," Int. Conf. Virtual Rehabilitation 2011, pp. 1-2, 2011. 

  5. X. Pei, J. Hill, G. Schalk, "Silent Communication: Toward Using Brain Signals," IEEE Pulse, vol. 3, issue 1, pp. 43-46, Jan. 2012. 

  6. L. Bottou, C-. J. Lin, "Support Vector Machine Solvers," Large-Scale Kernel Machines, MIT Press, pp. 1-27, 2007. 

  7. C. Guger, S. Daban, E. Sellers, C. Holzner, G. Krausz, R. Carabalona, F. Gramatica, G. Edlinger, "How many people are able to control a P300-based brain-computer interface (BCI)?," Neuroscience Letters, vol. 462, issue 1, pp. 94-98, Sep. 2009. 

  8. A. Porbadnigk, M. Wester, J. P. Calliess, T. Schultz, "EEG-based Speech Recognition - Impact of Temporal Effects" 2nd International Conference on Bio-inspired Systems and Signal Processing (Biosignals 2009), 2009. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

유발과제정보 저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로