$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

근전도와 관성센서가 내장된 암밴드를 이용한 실시간 수화 인식
Real-time Sign Language Recognition Using an Armband with EMG and IMU Sensors 원문보기

재활복지공학회논문지 = Journal of rehabilitation welfare engineering & assistive technology, v.10 no.4, 2016년, pp.329 - 336  

김성중 (연세대학교 보건과학대학 의공학부) ,  이한수 (연세대학교 보건과학대학 의공학부) ,  김종만 (연세대학교 의공학과) ,  안순재 (연세대학교 의공학과) ,  김영호 (연세대학교 의공학과)

초록
AI-Helper 아이콘AI-Helper

수화를 사용하는 농아인은 의사소통의 제약에 의해 사회적인 불평등과 금전적 손실을 겪고 있다. 이러한 이유로 본 연구에서는 농아인의 원활한 의사소통을 위해 8개의 근전도와 1개의 관성센서로 구성된 암밴드 센서를 이용하여 실시간으로 미국 수화를 인식하는 알고리즘을 개발하였다. 개발된 알고리즘의 성능 검증은 11명의 피험자를 통해 진행하였으며, 패턴 분류기 학습은 훈련 데이터베이스 크기를 증가시키면서 진행하였다. 실험 결과, 개발된 패턴 인식 알고리즘은 동작 별 20개의 훈련 데이터베이스에서 97%이상의 정확도를 가졌으며, 30개의 훈련 데이터베이스에서 99%이상의 정확도를 보였다. 이를 통해 본 연구에서 제안하는 암밴드 센서를 이용한 수화 인식 알고리즘의 실용성과 우수성을 확인하였다.

Abstract AI-Helper 아이콘AI-Helper

Deaf people using sign language are experiencing social inequalities and financial losses due to communication restrictions. In this paper, real-time pattern recognition algorithm was applied to distinguish American Sign Language using an armband sensor(8-channel EMG sensors and one IMU) to enable c...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구에서는 다채널 근전도와 관성센서를 이용하여 실시간으로 수화 동작을 인식하는 알고리즘을 개발하였다. 알고리즘은 20개의 미국 수화 단어를 대상으로 정확도를 평가하였으며, 동작 별 훈련 데이터 개수를 증가시키면서 최적의 훈련 데이터베이스 크기를 결정하였다.
  • 그러나 국내에서는 생체신호 기반의 상지동작 인식 기술에 대한 연구는 거의 없으며, 국내와 해외 모두 암밴드형 센서를 이용한 수화인식 시스템에 대한 연구는 진행되지 않았다. 본 연구의 목표는 암밴드형 센서를 이용한 새로운 방식의 수화인식 시스템을 개발하고 그 성능을 평가하는 것이다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
현재까지의 수화 인식 시스템은 어떤장치들을 이용하였는가? 현재까지의 수화 인식 시스템에 대한 선행연구들은 카메라를 이용한 영상 처리, 장갑형 센서, 부착형 센서를 이용하였다. Dong 등[5]의 연구에서는 카메라와 손 사이의 거리를 이용해서 24개의 미국 수화 알파벳을 90% 이상의 정확도로 분류하였다.
장갑 형태의 센서를 이용한 수화인식 시스템의 장단점은 무엇인가? Francesco 등[7]의 연구에서는 장갑 형태의 센서를 이용하여 실시간으로 3900가지의 동적인 손 모양을 99% 이상의 정확도를 보였으며, Oz 등[8]의 연구는 장갑 센서로부터 얻은 손의 모양과 궤적을 이용하여 50가지 미국 수화 단어를 90% 이상의 정확도로 분류하였다. 장갑형 센서를 이용한 시스템은 수많은 손 동작을 높은 정확도로 다양한 동작을 인식할 수 있다는 장점이 존재하지만 땀으로 인해 장시간 사용할 수 없으며 일상생활에서 맨손을 사용할 수 없다는 제한점을 가지고 있다. Zhang 등[9]의 연구에서는 가속도 센서와 근전도 센서를 이용하여 18개의 손동작을 97% 이상의 정확도로 분류하였으며, Jian 등[10]의 연구에서도 동일한 센서를 사용하여 40개의 미국 수화 단어를 98% 이상으로 분류하였다.
수화 인식 시스템의 역할은 무엇인가? 그러나 국가마다 다른 수화 체계와 수화 사용에 따른 의사소통의 제약으로 인해 많은 농아인들이 교육, 문화, 예술, 보건, 의료, 법률 등 삶의 모든 영역에서 사회적인 불평등과 금전적 손실을 겪고 있다[2]. 수화 인식 시스템은 농아인과 일반인 사이의 의사소통을 도와주고 국가마다 다른 수화 체계부터 발생하는 언어 장벽을 해결하여, 위와 같은 문제점 해결에 중요한 역할을 할 것이다[3]. 그리고 수화는 상지 움직임을 이용한 체계적인 의사소통 수단이므로, 수화 인식 기술의 발전은 상지 동작 인식 기반의 인간-컴퓨터 인터페이스(HCI) 기술 연구에서 중요한 역할을 할 것이다[4]
질의응답 정보가 도움이 되었나요?

참고문헌 (15)

  1. World Health Organization, Multi-country assessment of national capacity to provide hearing care, Switzerland, Geneva, WHO Documents & publications, pp. 10-13, 2013. 

  2. S.C.W. Ong, S. Ranganath, "Automatic sign language analysis: A survey and the future beyond lexical meaning," IEEE transactions on pattern analysis and machine intelligence, vol. 27, no. 6, pp.873-891, 2005. 

  3. D. Barberis, N. Garazzino, P. Prinetto, G. Tiotto, A Savino, U. Shoaib, N. Ahmad, "Language resources for computer assisted translation from italian to italian sign language of deaf people," in Proc. Accessibility Reaching Everywhere AEGIS Workshop and International Conference, Brussels, Belgium, pp.96-104. 2011 

  4. C. Manresa, J. Varona, R. Mas, F.J. Perales, "Hand tracking and gesture recognition for human-computer interaction," ELCVIA Electronic letters on computer vision and image analysis, vol. 5, no. 3, pp. 96-104, 2005. 

  5. C. Dong, M.C. Leu, Z. Yin, "American Sign Language Alphabet Recognition Using Microsoft Kinet," in Proc. The IEEE Conference on Computer Vision and Pattern Recognition Workshop, Boston, MA, USA, pp. 44-52. Jun. 2015 

  6. J. Singha, K. Das, "Recognition of Indian Sign Language in Live Video," International Journal of Computer Applications, vol 70, no 19, pp. 17-22, 2013. 

  7. F. Camastra, D.D. Felice, "LVQ-based Hand Gesture Recognition using a Data Glove," In Proc. The 22th Italian Workshop on Neural Networks, Salerno, Italy, pp. 159-168. 2012 

  8. C. Oz, M.C. Leu, "American Sign Language word recognition with a sensory glove using artificial neural networks," Engineering Applications of Artificial Intelligence, vol 24, no 7, pp. 1204-1213, 2011. 

  9. X. Zhang, X. Chen, Y. Li, V. Lantz, K. Wang, J. Yang, "A Framework for Hand Gesture Recognition Based on Accelerometer and EMG Sensors," IEEE transactions on systems, Man and cybernetics-Part A: Systems and Humans, vol 41, no 6, pp. 1064-1076, 2011. 

  10. J. Wu, Z. Tian, L. Sun, L. Estevez, R. Jafari, "Real-time American Sign Language Recognition Using Wrist-worn Motion and Surface EMG Sensors," In Proc. The IEEE 12th International Conference on Wearable and Implantable Body Sensor Networks(BSN), Cambridge, MA, USA, pp. 1-6. 2015. 

  11. H.T. J, "Trend of gesture recognition technology using wearable device," The Institute of Electronics and Information Engineers, vol. 42, no. 42, pp. 56-62, 2015. 

  12. S. Lake, M. Bailey, A. Grant, "Method and apparatus for analyzing capative EMG and IMU sensor signals for gesture control," U.S. Patent No. 9,299,248, 2016. 

  13. S. Solnik, P. Devita, P. Rider, B. Long, T. Hortobagyi, "Teager-Kaiser Operator improves the accuracy of EMG onset detection independent of signal-to-noise ratio," Acta of Bioengineering and Biomechanics, vol 10, no 2, pp. 65-68, 2008. 

  14. H. Demuth, M. Beale, M. Hagan, Neural Network Toolbox for use with Matlab, Natick, MA, USA, version 3 Mathworks, pp. 128-132, 1998. 

  15. J.S. Kim, W. Jang, Z. Bien, "A dynamic gesture recognition system for the Korean sign language(KSL)," IEEE Transactions on Systems, Man and Cybernetics, Part B (Cybernetics), vol. 26, no. 2, pp. 354-359, 1996. 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로