$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

착용형 양안 시선추적기와 기계학습을 이용한 시선 초점 거리 추정방법 평가
Evaluation of Gaze Depth Estimation using a Wearable Binocular Eye tracker and Machine Learning 원문보기

컴퓨터그래픽스학회논문지 = Journal of the Korea Computer Graphics Society, v.24 no.1, 2018년, pp.19 - 26  

신춘성 (전자부품연구원) ,  이건 () ,  김영민 (전자부품연구원) ,  홍지수 (전자부품연구원) ,  홍성희 (전자부품연구원) ,  강훈종 (전자부품연구원) ,  이영호 (국립목포대학교)

초록
AI-Helper 아이콘AI-Helper

본 논문은 가상현실증강현실을 위해 양안식 눈추적기 기반의 시선 깊이 추정 기법을 제안한다. 제안한 방법은 먼저 양안식 눈추적기로부터 안구 및 시선과 관련된 다양한 정보를 획득한다. 이후 획득된 정보를 바탕으로 다층퍼셉트론 알고리즘 기반의 시선 추적과 인식 모델을 통해 눈 시선 깊이를 추정한다. 제안한 방법을 검증하기 위해 13명의 참여자를 모집하고 개인별 시선 추적과 범용 시선 추적에 대한 성능을 분석하였다. 실험결과 개인별 모델에서는 90.1%, 그리고 전체 사용자를 대상으로 한 범용 모델에서는 89.7%의 정확도를 보였다.

Abstract AI-Helper 아이콘AI-Helper

In this paper, we propose a gaze depth estimation method based on a binocular eye tracker for virtual reality and augmented reality applications. The proposed gaze depth estimation method collects a wide range information of each eye from the eye tracker such as the pupil center, gaze direction, int...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 대표적으로, 페이스북은 페이스북 스페이스(Facebook Spaces)라는 네트워크 가상공간을 구축하여 HMD를 착용하고 재미있는 가상현실체험을 가능하게 하였다[1]. 또한, 마이크로소프트의 홀로렌즈는 HMD에 부착된 여러 대의 카메라를 이용하여 공간을 인식 및 추적하여 증강현실 및 혼합현실 환경을 구성하고, 사용자의 제스처와 음성을 입력으로 활용해 다양한 체험을 가능하도록 하였다⑵. 이러한 가상현실 및 증강현실 기술은 자연스럽고 직관적인 상호작용과 함께 사용자에게 보다 더 유용하게 제공되면서 발전할 것으로 예상된다.
  • 본 논문에서는 증강현실을 위해 착용형 양안 추적기 기반의 시선 초점 거리를 추정하는 방법을 제안한다. 제안하는 방법은 먼저 일반적인 양안 추적기로부터의 눈 추적 관련 다양한 정보를 획득하고 처리한다.
  • 시선추적기는 데스크탑 등에 사용자 신체 외부에 부착되어 사용자의 눈을 추적하는데스크탑 방식과 사용자가 착용한 안경이나 HMD에 부착되어 사용자가 어디로 이동하든 시선을 추적할 수 있는 착용형 추적기로 나눌 수 있다. 본 논문에서는 착용형 시선 추적 기술 중심으로 하고 하고 있어 안경이나 HMD에 착용이 가능한 2D 및 3D 시선 추적 기술을 살펴본다.
  • 본 논문에서는 착용형 양안 추적기 기반의 시선 초점거리 추정 방법을 제 안하였다. 제안한 방법은 양안 추적기를 통해 각 눈의 3차원 위치와 3차원 시선 정보를 획득하였고 눈간 거리를 정보를 추가로 활용해 특징 벡터를 구성하였다.
본문요약 정보가 도움이 되었나요?

참고문헌 (14)

  1. https://www.facebook.com/spaces [Accessed Aug. 09, 2017] 

  2. S. Orts-Escolano, C. Rhemann, S. Fanello, W. Chang, A. Kowdle, Y. Degtyarev, D. Kim, P. L. Davidson, S. Khamis, M. Dou, V. Tankovich, C. Loop, Q. Cai, P. A. Chou, S. Mennicken, J. Valentin, V. Pradeep, S. Wang, S. B. Kang, P. Kohli, Y. Lutchyn, C. Keskin, and S. Izadi.. "Holoportation: Virtual 3D Teleportation in Real-time," In Proceedings of the 29th Annual Symposium on User Interface Software and Technology (UIST '16), pp. 741-754, 2016. 

  3. D. W. Hansen, Q. Ji, In the Eye of the Beholder: A Survey of Models for Eyes and Gaze, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 32, No. 3, pp. 478-500, 2010. 

  4. C. Cho, J. Lee, E. Lee and K. Park, "Robust gaze-tracking method by using frontal-viewing and eye-tracking cameras," Opt. Eng, Vol. 48, No. 12, 2009. 

  5. K. Tan, D.J Kriegman, N Ahuja, "Appearance-based Eye Gaze Estimation," Proceedings. Sixth IEEE Workshop on Applications of Computer Vision (WACV 2002). 

  6. Y. Sugano, Y. Matsushita, Y. Sato, "Appearance-based gaze estimation using visual saliency," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol 35, No.2, pp. 329-341, 2013. 

  7. E. G. Mlot, H. Bahmani, S. Wahl, and E. Kasneci. 2016. 3D Gaze Estimation using Eye Vergence. In Proceedings of the 9th International Joint Conference on Biomedical Engineering Systems and Technologies, 2016. 

  8. T. Toyama, D. Sonntag, J. Orlosky, K. Kiyokawa, A Natural Interface for Multi-focal Plane Head Mounted Displays Using 3D gaze," In Proceedings of the 2014 International Working Conference on Advanced Visual Interfaces (AVI '14). pp. 25-32, 2014. 

  9. Y. Itoh, J. Orlosky, K. Kiyokawa, T. Amano, and M. Sugimoto, "Monocular Focus Estimation Method for a Freely-Orienting Eye using Purkinje-Sanson Images," In Proceeding of VR 2017. 

  10. J. Lee, C. Cho, K. Shin, E. Lee, and K. Park, 3D Gaze Tracking Method Using Purkinje, Images on Eye Optical Model and Pupil, Optics and Lasers in Engineering, Vol. 50, No. 5, pp. 736-751, 2012. 

  11. M. Kassner, W. Patera, and A. Bulling, "Pupil: an open source platform for pervasive eye tracking and mobile gaze-based interaction," In Proceedings of the 2014 ACM International Joint Conference on Pervasive and Ubiquitous Computing: Adjunct Publication (UbiComp '14 Adjunct), pp. 1151-1160. 

  12. scikit-learn http://scikit-learn.org/stable/ [Accessed Aug. 09, 2017] 

  13. Weka http://www.cs.waikato.ac.nz/-ml/weka/ [Accessed Aug. 09, 2017] 

  14. Y. Lee, C. Shin, A. Plopski, Y. Itoh, A. Dey, G. Lee, S. Kim, M. Billinghurst, "Estimating Gaze Depth Using Multi-Layer Perceptron," 2017 International Symposium on Ubiquitous Virtual Reality (ISUVR), Nara, Japan, 2017, pp. 26-29. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로