최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국지능시스템학회 논문지 = Journal of Korean institute of intelligent systems, v.24 no.1, 2014년, pp.90 - 95
이태주 (중앙대학교 전자전기공학부) , 심귀보 (중앙대학교 전자전기공학부)
The researchs using brain-computer interface, the new interface system which connect human to macine, have been maded to implement the user-assistance devices for control of wheelchairs or input the characters. In recent researches, there are several trials to implement the speech recognitions syste...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
BCI 구현의 대표적인 사례로 잘 알려진 것은 무엇인가? | Brain-computer interface (BCI)는 인간과 기계 사이를 뇌의 활동에서 발생하는 전기적 신호를 이용하여 연결 해주는 새로운 인터페이스로, 세계 각국에서 활발한 연구가 진행되고 있다[1]. 그 중에서도 특히 비침습적이고 사용자 친화적인 Electroencephalogram (EEG)를 이용해 휠체어를 제어하거나 단어를 입력하는 장치가 개발되어 BCI 구현의 대표적인 사례로 잘 알려져 있다. 특히 BCI는 사용자의 움직임 심상을 획득할 수 있어 사용자가 외부 장치의 움직임을 생각만을 이용하여 작동하는데 유용하기 때문에 신체 활동에 어려움이 있는 사람을 위한 보조기구나, 사람이 직접 활동하기 힘든 작업 환경에 대응할 수 있는 장치 개발을 위한 연구들에 적용되고 있다. | |
BCI란? | Brain-computer interface (BCI)는 인간과 기계 사이를 뇌의 활동에서 발생하는 전기적 신호를 이용하여 연결 해주는 새로운 인터페이스로, 세계 각국에서 활발한 연구가 진행되고 있다[1]. 그 중에서도 특히 비침습적이고 사용자 친화적인 Electroencephalogram (EEG)를 이용해 휠체어를 제어하거나 단어를 입력하는 장치가 개발되어 BCI 구현의 대표적인 사례로 잘 알려져 있다. | |
신호를 분석하는 방법 중 움직임 상상을 통한 접근법이 가진 단점은 무엇인가? | 움직임 상상을 통한 접근법의 경우에는, 기존에 진행되어 왔던 많은 움직임 상상 연구와 결합하여 연구를 진행하기가 수월하고 상대적으로 쉽게 결과를 얻을 수 있다는 장점이 있다. 그러나 다른 신체 부위와 달리, 얼굴이나 목의 경우 말 뿐만 아니라, 표정을 짓는 등의 행동을 하므로 노이즈가 발생하기 쉽다. 또 말을 하는 행동에 대한 연구가 아닌 근육 움직임에 의해 발생되는 신호를 연구하게 됨으로써, 본질적으로 언어와 관련된 신호를 습득한다고 보기에 힘들다. 따라서 언어 인식 시스템을 구현하기 위해서는 후자와 같이, 사용자가 언어를 상상할 때 발생하는 신호를 습득하여 분석하는 과정이 필요하다. |
J. R. Wolpaw, E. W. Wolpaw, "Brain-computer interfaces: something new under the sun," Brain-computer interfaces: principles and practice. Oxford University Press, Oxford, pp. 3-12, 2012.
R. Bogue, "Brain-computer interfaces: control by thought," Industrial Robot: An International Journale, vol. 37, issue 2, pp. 126-132, 2010.
K. Brigham, B. V. K. V. Kumar, "Imagined Speech Classification with EEG Signals for Silent Communication: A Preliminary Investigation into Synthetic Telepathy," Conf. Bioinf. and Biomed. Eng. 2010, pp. 1-4, 2010.
N. Yhoshimura, A. Satsuma, C. S. DaSalla, T. Hanakawa, M. Sato, Y. Koike, "Usability of EEG Cortical Currents in Classification of Vowel Speech Imagery," Int. Conf. Virtual Rehabilitation 2011, pp. 1-2, 2011.
X. Pei, J. Hill, G. Schalk, "Silent Communication: Toward Using Brain Signals," IEEE Pulse, vol. 3, issue 1, pp. 43-46, Jan. 2012.
L. Bottou, C-. J. Lin, "Support Vector Machine Solvers," Large-Scale Kernel Machines, MIT Press, pp. 1-27, 2007.
C. Guger, S. Daban, E. Sellers, C. Holzner, G. Krausz, R. Carabalona, F. Gramatica, G. Edlinger, "How many people are able to control a P300-based brain-computer interface (BCI)?," Neuroscience Letters, vol. 462, issue 1, pp. 94-98, Sep. 2009.
A. Porbadnigk, M. Wester, J. P. Calliess, T. Schultz, "EEG-based Speech Recognition - Impact of Temporal Effects" 2nd International Conference on Bio-inspired Systems and Signal Processing (Biosignals 2009), 2009.
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
오픈액세스 학술지에 출판된 논문
※ AI-Helper는 부적절한 답변을 할 수 있습니다.