$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

Efficient Mobile Writing System with Korean Input Interface Based on Face Recognition 원문보기

韓國컴퓨터情報學會論文誌 = Journal of the Korea Society of Computer and Information, v.25 no.6, 2020년, pp.49 - 56  

Kim, Jong-Hyun (Dept. of Software Application, Kangnam University)

초록
AI-Helper 아이콘AI-Helper

가상 키보드방식의 문자 입력 시스템은 고정된 버튼 위치를 터치하여 입력하는 방식으로 손가락의 움직임이 불편한 사람들이나 노인들은 입력하기가 매우 불편하다. 이러한 문제를 완화시키고자, 본 논문에서는 모바일 디바이스의 RGB 카메라를 통해 얻은 영상과 사용자의 움직임을 통해 자판 입력과 필기 기능이 가능한 효율적인 프레임워크를 제안한다. 이 시스템을 개발하기 위해 얼굴인식을 활용하여 입력 영상으로부터 컨트롤 좌표를 계산하고, 이 좌표 값을 이용하여 한글을 입력하고 조합할 수 있는 인터페이스 개발한다. 얼굴인식을 기반으로 계산된 컨트롤 위치는 자판의 글자를 선택하고 전달하는 포인터 역할을 하며, 마지막으로 전달된 글자들을 조합하여 한글 자판 기능을 수행할 수 있도록 통합한다. 본 연구의 결과는 얼굴인식 기술을 활용한 효율적인 필기 시스템이며, 이 시스템을 사용하면 일반인 뿐 만 아니라 신체가 불편한 지체장애인의 의사소통 및 특수교육 환경도 개선시킬 수 있을 거라 기대한다.

Abstract AI-Helper 아이콘AI-Helper

The virtual Korean keyboard system is a method of inputting characters by touching a fixed position. This system is very inconvenient for people who have difficulty moving their fingers. To alleviate this problem, this paper proposes an efficient framework that enables keyboard input and handwriting...

주제어

표/그림 (11)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구의 결과들을 만들기 위해 실험한 환경은 Intel Core i7-7700K CPU, 32GB RAM, Geforce GTX 1080Ti GPU가 탑재된 컴퓨터를 이용하였다. 본 논문에서는 모바일 디바이스 환경에서 얼굴인식을 통해 계산한 포인터 위치를 이용하여 한글을 입력할 수 있는 새로운 한글 자판 인터페이스를 제안했다.
  • 본 논문에서는 얼굴인식을 이용하여 컨트롤 위치를 계산하고 이로부터 한글 자판을 입력할 수 있는 새로운 인터페이스 프레임워크를 제안했다. 입력 영상은 RGB 카메라로부터 얻었으며, 조명과 잡음으로부터 표현되는 문제를 줄이기 위해 회색계 알고리즘과 모폴로지 필터를 활용하였다.
  • 통합된 환경이 없는 입력 시스템의 부재는 노인이나 장애인들에게는 기본욕구의 좌절 등에서 초래되는 부정적인 심리를 감소시키기 못하기 때문에 사회적 문제로 야기될 수 도 있다. 본 논문에서는 이 문제를 최소화하기 위해 지체 장애인들도 쉽게 한글 자판 입력 시스템을 활용할 수 있는 새로운 인터페이스를 제안한다. 이러한 인터페이스는 사람 간의 대화나 관계 뿐 만 아니라 장애인들을 위한 특수 교육 환경에서의 자판 입력으로 활용될 수 있다.
  • 본 연구에서는 모바일 디바이스의 전면 RGB 카메라를 이용하여 사용자가 모바일 디바이스에서 타자를 입력할 수 있도록 얼굴의 좌표를 계산한다. 제안하는 기법은 RGB 카메라로부터 얻어진 영상을 이용한다는 부분에서 모바일 디바이스 뿐 만 아니라 RGB 카메라가 내장되어 있는 노트북에서도 활용이 가능하다.
본문요약 정보가 도움이 되었나요?

참고문헌 (23)

  1. S. E. Park, S. Y. Moon, H. S. Yoon, D. C. Shin, and H. S. Jeong, "An Input Method for Hangul Character and Implementation for Personal Digital Assistant," Proc. of Fall Conference of KIISE, vol. 21, no. 2, pp. 657-660, 1994. 

  2. W. H. Choi, S. C. Kim, and K. R. Song, "Apparatus and Method for Inputting the Korean Alphabet Based on the Character-Generative Principles of HUNMINJUNGEUM," Patent no. 1999-052648, 1999. 

  3. J. W. Kim, "Apparatus for Inputting Key and Method for Inputting Character by Direction Key," Patent no. 2001-0006208, 2001. 

  4. Share-typing, https://www.sharetyping.com/. 

  5. Kang, Seung-Shik, Hahn, Kwangsoo, "Hangul Vowel Input System for Hand-held Devices ", KIPS Transactions on Software and Data Engineering, pp. 507-512, 2005. DOI : 10.3745/KIPSTB.2005.12B.4.507. 

  6. T. J. Eom, J. B. Lee, and B. K. Kim, "Design of Smart Phone-Based Braille Keyboard System for Visually Impaired People," Journal of Information Security, vol. 12, no. 1, pp. 63-70, 2012. 

  7. Y. C. Byun, "2011 Survey on Impaired People," Research Report 2011-82, 2012. 

  8. H. Y. Kim, Gesture Recognition Interface by Keyboard Insertion IR Module, Master Thesis, KAIST, 2011. 

  9. D. H. Kim, Y. H. Kwon, and J. H. Kim, "A Hangul Input Interface Using Continuous Gestures and Language Models," Proc. of KCC2005, pp. 586-588, 2005. 

  10. Won Il Lee, "Natural Language Processing for Korean Speech Recognition," Proc. of KCC2005, pp. 586-588, 2005. 

  11. Sang Hun Jeong, "The Study on Phonetical Information for Speech Recognition", The Contents and Language Phenomena of Seokbosangjeol, vol. 49, pp.135-160, 2007. 

  12. Keyboard for Android : http://swypeinc.com/. 

  13. Jared Cechanowicz, Steven Dawson, Matt Victor, Sriram Subramanian, "Stylus based text input using expanding CIRRIN," AVI '06, May. 2006. DOI : 10.1145/1133265.1133299. 

  14. Gennaro Costagliola, Vittorio Fuccella, Michele DiCapua, Giovanni Guardi, "Performances of Multiple-Selection Enabled Menus in Soft Keyboards", DMS'09 - The 15th International Conference on Distributed Multimedia Systems., pp. 359-364, 2009. 

  15. Amberkar, Aditya, Parikshit Awasarmol, Gaurav Deshmukh, and Piyush Dave. "Speech Recognition using Recurrent Neural Networks." In International Conference on Current Trends towards Converging Technologies, pp. 1-4, 2018. DOI : 10.1109/ICCTCT.2018.8551185. 

  16. Lim, Chee Peng, Siew Chan Woo, Aun Sim Loh, and Rohaizan Osman. "Speech recognition using artificial neural networks." In Proceedings of the First International Conference on Web Information Systems Engineering, vol. 1, pp. 419-423, 2000. DOI : 10.1109/ICCSP.2018.8524333. 

  17. Graves, Alex, Navdeep Jaitly, and Abdel-rahman Mohamed. "Hybrid speech recognition with deep bidirectional LSTM." In IEEE workshop on automatic speech recognition and understanding, pp. 273-278, 2013. DOI : 10.1109/ASRU.2013.6707742. 

  18. Sundermeyer, Martin, Ralf Schluter, and Hermann Ney. "LSTM neural networks for language modeling." In Thirteenth annual conference of the international speech communication association. 2012. 

  19. Wang-Jun Kyung, Dae-Chul Kim, Yeong-Ho Ha, "Enhancement of Faded Images Using Integrated Compensation Coefficients Based on Multi-Scale Gray World Algorithm", vol. 39, pp. 459-466, The Journal of Korea Information and Communications Society, 2012. DOI : 10.7840/kics.2014.39A.8.459 

  20. Schneider, Steffen and Baevski, Alexei and Collobert, Ronan and Auli, Michael, "wav2vec: Unsupervised pre-training for speech recognition", arXiv preprint arXiv:1904.05862, 2019. 

  21. Schneider, Steffen and Baevski, Alexei and Collobert, Ronan and Auli, Michael, "wav2vec: Unsupervised pre-training for speech recognition", arXiv preprint arXiv:1904.05862, 2019. 

  22. Tian, Xu and Zhang, Jun and Ma, Zejun and He, Yi and Wei, Juan and Wu, Peihao and Situ, Wenchang and Li, Shuai and Zhang, Yang, "Deep LSTM for large vocabulary continuous speech recognition, arXiv preprint arXiv:1703.07090, 2017. 

  23. Sriram, Anuroop and Jun, Heewoo and Gaur, Yashesh and Satheesh, Sanjeev, "Robust speech recognition using generative adversarial networks, 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 5639-5643. 2017. DOI : 10.1109/ICASSP.2018.8462456 

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로