$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

딥러닝 방식의 웨어러블 센서를 사용한 미국식 수화 인식 시스템
American Sign Language Recognition System Using Wearable Sensors with Deep Learning Approach 원문보기

한국전자통신학회 논문지 = The Journal of the Korea Institute of Electronic Communication Sciences, v.15 no.2, 2020년, pp.291 - 298  

정택위 (계명대학교 전자전기공학과) ,  김범준 (계명대학교 전자전기공학과)

초록
AI-Helper 아이콘AI-Helper

수화는 청각 장애인이 다른 사람들과 의사소통할 수 있도록 설계된 것이다. 그러나 수화는 충분히 대중화되어 있지 않기 때문에 청각 장애인이 수화를 통해서 일반 사람들과 원활하게 의사소통하는 것은 쉽지 않은 문제이다. 이러한 문제점에 착안하여 본 논문에서는 웨어러블 컴퓨팅 및 딥러닝 기반 미국식 수화인식 시스템을 설계하고 구현하였다. 이를 위해서 본 연구에서는 손등과 손가락에 장착되는 총 6개의 IMUs(Inertial Measurement Unit) 센서로 구성된 시스템을 구현하고 이를 이용한 실험을 수행하여 156개 특징이 수집된 데이터 추출을 통해서 총 28개 단어에 대한 미국식 수화 인식 방법을 제안하였다. 특히 LSTM (Long Short-Term Memory) 알고리즘을 사용하여 최대 99.89%의 정확도를 달성할 수 있었고 향후 청각 장애인들의 의사소통에 큰 도움이 될 것으로 예상된다.

Abstract AI-Helper 아이콘AI-Helper

Sign language was designed for the deaf and dumb people to allow them to communicate with others and connect to the society. However, sign language is uncommon to the rest of the society. The unresolved communication barrier had eventually isolated deaf and dumb people from the society. Hence, this ...

주제어

표/그림 (5)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

제안 방법

  • In this study, 4 types of raw data were collected from the sensors during the experiments, namely accelerometer (A), gyroscope (G), orientation (O), and quaternion (Q). Accelerometer and gyroscope data were acquired from the IMU BNO055 sensors directly, however, orientation and quaternion data were calculated by utilizing sensor fusion computation. Then all these data were further reorganized and grouped into 15 sensor data categories by adopting leave-one-out techniques.
  • In this study, 4 types of raw data were collected from the sensors during the experiments, namely accelerometer (A), gyroscope (G), orientation (O), and quaternion (Q). Accelerometer and gyroscope data were acquired from the IMU BNO055 sensors directly, however, orientation and quaternion data were calculated by utilizing sensor fusion computation.
  • standard deviation (STD) and mean (MEAN). STD was measured to observe degree of movement, and MEAN was calculated to observe the average or arithmetic mean value of one window size. Then, all these features were further normalized between a range of 0 to 1 in order to reduce the processing time and data complexity.
  • The objective of this study targeted to design and implement a system with smart wearable sensors that able to recognized dynamic word-based ASL signs which involved movements. The system aimed to serve the deaf and dumb communities as a sign language interpreter that able decode sign language into text or audio to mass public.
  • Accelerometer and gyroscope data were acquired from the IMU BNO055 sensors directly, however, orientation and quaternion data were calculated by utilizing sensor fusion computation. Then all these data were further reorganized and grouped into 15 sensor data categories by adopting leave-one-out techniques.Table 2 showed the list of sensor data categories.
  • This study proposed the state-of-art time series data classification model, long short-term memory (LSTM). In comparison of typical recurrent neural network, LSTM introduced functional gates to overcome the vanishing and exploding gradient for a long sequence, namely forget gate (f), input gate (i), and output gate (o).

대상 데이터

  • There were 12 subjects performed data collection in this experiment. The experiments were under supervision of researcher(s) in order to make the data collection was obtained correctly and safely.

이론/모형

  • The 27 word-based ASL gestures were showed as Table 1, all of these gestures were selected based on the ASL components by William Stokoe’s terminology.
본문요약 정보가 도움이 되었나요?

참고문헌 (17)

  1. T. Chong and B. Lee, "American Sign Language Recognition Using Leap Motion Controller with Machine Learning Approach," Sensors, vol. 18, no. 10, 2018, pp. 35-54. 

  2. M. J. Cheok, "A review of hand gesture and sign language recognition techniques," Int. J. Mach. Learn. Cybern., vol. 10, issue 1, 2019, pp. 131-153. 

  3. M. A. Ahmed, B. B. Zaidan, and A. A. Zaidan, "A Review on Systems-Based Sensory Gloves for Sign Language Recognition State of the Art between 2007 and 2017," Sensors, vol. 18, no. 7, 2018, pp. 1-44. 

  4. I. Infantino, R. Rizzo, and S. Gaglio, "A Framework for Sign Language Sentence Recognition by Commonsense Context," IEEE Trans. Syst. Man, Cybern. vol. 37, no. 5, 2007, pp. 1034-1039. 

  5. L. Ding and A. M. Martinez, "Modelling and Recognition of the Linguistic Components in American Sign Language Title," Image Vis. Comput., vol. 27, no. 12, 2009, pp. 1826-1844. 

  6. H. Lane and F. Grosjean, Recent perspective on American Sign Language. New York, Pyschology Press, 2017. 

  7. A. Haria, A. Subramanian, N. Asokkumar, and S. Poddar, "ScienceDirect ScienceDirect Hand Gesture Recognition for Human Computer Interaction," Procedia Comput. Sci., vol. 115, 2017, pp. 367-374. 

  8. M. Elmezain and A. Al-hamadi, "A Hidden Markov Model-Based Isolated and Meaningful Hand Gesture Recognition," Int. J. Electr. Comput. Syst. Eng., vol. 3, no. 3, 2009, pp. 156-163. 

  9. P. Molchanov, S. Gupta, K. Kim, and K. Pulli, "Multi-sensor System for Driver's Hand-Gesture Recognition," In Proc. 2015 11th IEEE Int. Conf. Work. Autom. Face Gesture Recognit., vol. 1, 2015, pp. 1-8. 

  10. C. Preetham, G. Ramakrishnan, S. Kumar, and A. Tamse, "Hand Talk- Implementation of a Gesture Recognizing Glove," In Proc. 2013 Texas Instruments India Educators' Conference, Bangalore, India, 2013, pp. 328-331. 

  11. K. Patil, G. Pendharkar, and P. G. N. Gaikwad, "American Sign Language Detection," Int. J. Sci. Res. Publ., vol. 4, no. 11, 2014, pp. 4-9. 

  12. X. Wang, M. Xia, H. Cai, Y. Gao, and C. Cattani, "Hidden-Markov-Models-Based Dynamic Hand Gesture Recognition," Math. Probl. Eng., vol. 2012, 2012, p. 11. 

  13. B. G. Lee and S. M. Lee, "Smart Wearable Hand Device for Sign Language Interpretation System With Sensors Fusion," IEEE Sens. J., vol. 18, no. 3, 2018, pp. 1224-1232. 

  14. C. K. Mummadi, F. Leo, K. Verma, S. Kasireddy, P. Scholl, J. Kempfle, and K. Laehoven, "Real-Time and Embedded Detection of Hand Gestures with an IMU-Based Glove," Informatics, vol. 5, no. 2, 2018, pp. 1-18. 

  15. J. Kim and W. Lee, "An User-aware System using Visible Light Communication," J. of the Korea Institute of Electronic Communication Sciences, vol. 14, no. 4, 2019, pp. 715-722. 

  16. J. Jo, "Effectiveness of Normalization Pre-Processing of Big Data to the Machine Learning Performance," J. of the Korea Institute of Electronic Communication Sciences, vol. 14, no. 3, 2019, pp. 547-552. 

  17. J. Jo, "Performance Comparison Analysis of AI Supervised Learning Methods of Tensorflow and Scikit-Learn in the Writing Digit Data," J. of the Korea Institute of Electronic Communication Sciences, vol. 14, no. 4, 2019, pp. 701-706. 

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로