$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

휴대폰 상에서의 손동작 기반 증강현실 인터페이스 구현
Implementation of Hand-Gesture-Based Augmented Reality Interface on Mobile Phone 원문보기

방송공학회논문지 = Journal of broadcast engineering, v.16 no.6, 2011년, pp.941 - 950  

최준영 (한양대학교 전자컴퓨터통신공학과) ,  박한훈 (NHK 방송기술연구소) ,  박정식 (한양대학교 전자컴퓨터통신공학과) ,  박종일 (한양대학교 컴퓨터공학부)

초록
AI-Helper 아이콘AI-Helper

최근 휴대폰의 발전과 더불어 휴대폰 환경에 적합한 인터페이스에 대한 연구가 많이 이루어지고 있다. 본 논문에서는 특히 사람에게 친숙한 손동작을 이용한 상호작용에 주목하여, 휴대폰 상에서 손동작을 이용한 비전 기반 인터페이스를 구현하였다. 사용자가 한손에 휴대폰을 들고 휴대폰의 카메라를 통해서 다른 손의 손바닥을 바라보면, 사용자의 손바닥 위에 가상 객체가 증강되고 사용자는 자신의 손과 손가락의 움직임을 통해서 가상 객체와 상호작용 할 수 있다. 구현된 인터페이스는 사람에게 친숙한 손동작을 기반으로 동작하기 때문에, 사용자는 별도의 훈련 과정 없이 친숙하게 사용가능하다. 또한, 추가적인 센서나 마커를 요구하지 않기 때문에, 사용자가 원하는 시간과 장소에서 자유롭게 가상 객체와 상호작용 할 수 있다. 일부 시간이 많이 걸리는 처리 과정을 휴대폰 환경에 적합하도록 최적화, 고속화함으로써, 구현된 인터페이스는 상용화된 휴대폰(Galaxy S2)에서 5 fps로 동작한다.

Abstract AI-Helper 아이콘AI-Helper

With the recent advance in the performance of mobile phones, many effective interfaces for them have been proposed. This paper implements a hand-gesture-and-vision-based interface on a mobile phone. This paper assumes natural interaction scenario when user holds a mobile phone in a hand and sees the...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 인터페이스를 실제로 사용하기 위해선 인터페이스의 안정성이 무엇보다 중요하며, 구현된 인터페이스와 같이 인식 기반 인터페이스의 경우 이는 인식률에 비례한다. 따라서 본 논문에서는 구현된 인터페이스의 인식률 실험을 수행하였다. 구현된 인터페이스에서는 그림 6-(b)와 같이 엄지손가락의 뿌리가 완전히 접히는 경우 손을 검출하지 못하는 경우가 있다.
  • 그러나 이러한 현존하는 비전 기반 인터페이스는 단순하고 제한된 상호작용만을 제공한다. 따라서 휴대폰 환경에서 세련된 상호작용을 제공하는 방법에 대한 연구는 중요한 이슈중 하나이며, 본 논문에서는 휴대폰 환경에서 손과 손가락 움직임을 이용한 세련된 상호작용을 제공하는 효과적인 인터페이스를 구현하였다.
  • 본 논문에서는 구현된 인터페이스의 효용성을 검증하기 위해서, 다음과 같은 다양한 손 기반 어플리케이션을 구현하였다.
  • 본 논문에서는 모바일 폰 환경에서 더욱 세련된 상호작용을 제공하는 비전 기반 인터페이스를 구현하였다. 구현된 인터페이스는 가능한 모든 손바닥 포즈(피치 방향으로 –60˚~60˚, 요 방향으로 –45˚~60˚, 롤(roll) 방향으로 –180˚~180˚를 인식)를 더욱 정확히 인식할 수 있다.
  • 본 논문에서는 휴대폰 환경에서 동작하는 손동작 기반 증강현실 인터페이스를 구현하였다. 구현된 인터페이스는 다양한 손바닥 포즈와 손가락 동작을 빠르고 정확하게 인식하며, 사용자의 손바닥 위에 증강된 가상 객체와의 다양하고 자연스러운 상호작용을 제공할 수 있다.

가설 설정

  • 구현된 인터페이스는 자연스러운 상호작용 시나리오를 가정한다. 사용자는 한 손에 휴대폰을 들고, 휴대폰의 카메라를 통해서 다른 손의 손바닥을 바라보면, 손바닥 포즈 계산을 통해서 손바닥 위에 가상 객체가 증강된다.
  • 구현된 인터페이스에서는 그림 6-(b)와 같이 엄지손가락의 뿌리가 완전히 접히는 경우 손을 검출하지 못하는 경우가 있다. 따라서 본 논문의 인식률 실험에서는 기본적으로 엄지손가락의 뿌리가 완전히 접히지 않으며, 또한 손가락이 서로 붙어 있지 않다고 가정한다. 인식률 실험은 다양한 입력 영상에서 손을 찾고, 손바닥 포즈를 구하고, 손 모양 인식까지를 뜻하며, 구현된 인터페이스는 그림 7과 같은 16 종류의 손바닥 포즈를 포함하는 800 개의 영상에 대한 인식률 실험에서 평균적으로 83%의 인식률을 보였다.
  • 최근 울트라 모바일(ultra-mobile) PC 환경에서 더욱 발전된 비전 기반의 손을 이용한 인터페이스가 제안되었다. 이 인터페이스는 사용자가 한 손에 모바일 기기를 들고 있고, 모바일 기기의 카메라를 통해서 다른 손을 바라보는 자연스러운 상호작용을 가정한다. 사용자의 손바닥 포즈뿐만 아니라 손가락의 움직임까지 인식할 수 있기 때문에, 사용자의 손바닥 위에 있는 가상 객체와의 더욱 다양하고 세련된 상호작용을 제공할 수 있다[9].
  • 이와 유사한 인터페이스로 산타바바라 대학에서는 새로운 개념의 손 기반 인터페이스를 제안하였다[8]. 이 인터페이스는 착용식 컴퓨팅(wearable computing) 환경에서 사용자의 몸에 장착된 카메라를 통해서 손을 바라보는 상황을 가정한다. 이 인터페이스는 손바닥 포즈를 계산함으로써 손바닥 위의 가상 객체와의 상호작용을 제공한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
산타바바라 대학에서는 새로운 개념의 손 기반 인터페이스의 특징은 무엇인가? 이와 유사한 인터페이스로 산타바바라 대학에서는 새로운 개념의 손 기반 인터페이스를 제안하였다[8]. 이 인터페이스는 착용식 컴퓨팅(wearable computing) 환경에서 사용자의 몸에 장착된 카메라를 통해서 손을 바라보는 상황을 가정한다. 이 인터페이스는 손바닥 포즈를 계산함으로써 손바닥 위의 가상 객체와의 상호작용을 제공한다. 그러나 이 인터페이스는 손바닥 포즈를 계산하기 위해서 손가락 끝 점의 좌표를 필요로 하기 때문에, 사용자는 상호작용을 하는 동안 자신의 손가락을 움직일 수 없다. 결국, 상호작용의 범위나 종류가 극히 제한된다.
Myron Krueger는 Artificial Reality란 책에서 자연스러운 상호작용을 무엇으로 서술하였나? Myron Krueger는 Artificial Reality란 책에서 자연스러운 상호작용이란 음성과 동작을 뜻한다고 서술하였다[1]. 또한 손은 사람과 사람 사이의 상호작용에서 가장 중요한 상호작용 도구이기 때문에, 본 논문은 손과 동작, 두 가지 핵심어를 포함하는 손동작에 초점을 맞추고, 휴대폰 환경에 적합한 손동작 기반 인터페이스를 구현하였다.
휴대폰 환경에서의 비전 기반 인터페이스의 예 중 카메라 영상을 활용한 방법에는 어떤것이 있는가? 휴대폰 환경에서의 비전 기반 인터페이스의 예로, 카메라 영상에서의 광류(optical flow)로부터 휴대폰의 움직임을 간접적으로 측정하여 이를 상호작용 입력으로 사용하는 방법이 있다[4]. 그리고 화면 위쪽에 스테레오 카메라를 장착하고 사용자가 바라보는 곳을 추적함으로써 사용자의 시점을 인터페이스 입력으로 사용한 인터페이스도 있다[5].
질의응답 정보가 도움이 되었나요?

참고문헌 (11)

  1. M. W. Krueger, Artificial Reality, 2nd ed., Addison-Wesley: Redwood City, CA, 1991. 

  2. T. Miyaki and J. Rekimoto, "GraspZoom: zomming and scrolling control model for single-handed mobile interaction," In proceedings of MobileHCI'09, 2009. 

  3. A. T. Campbell, T. Choudhury, S. Hu, H. Lu, M. K. Mukerjee, M. Rabbi, and R. D. S. Raizada, "NeuroPhone: Brain-mobile phone interface using a wireless EEG headset," In proceedings of MobiHeld'10 2010. 

  4. A. Haro, K. Mori, T. Capin, and S. Wilkinson, "Mobile camera-based user interaction," In proceedings of ICCV, Workshop on HCI'05, pages 79-89, 2005. 

  5. T. Nagamatsu, Michiya Yamamoto, and Hiroshi Sato, "MobiGaze: Development of a Gaze Interface for Handheld Mobile Devices," In proceedings of CHI'11, 2011. 

  6. J. An and K. Hong, "Finger gesture-based mobile user interface using a rear-facing camera," In proceedings of ICCE'11, pages 303-304, 2011. 

  7. O. Gallo, S. M. Arteaga, and J. E. Davis, "A camera-based pointing interface for mobile devices," In proceedings of ICIP'08, 2008. 

  8. T. Lee and T. Hollerer, "Handy AR: Markerless Inspection of Augmented Reality Objects Using Fingertip Tracking," In Proceedings of ISWC'07, 2007 

  9. B.-K. Seo, J. Choi, J. Han, H. Park, and J.-I. Park, "One-handed interaction with augmented virtual objects on mobile devices," In proceedings of VRCAI'08, 2008. 

  10. J. Choi, H. Park, and J.-I. Park, "Hand shape recognition using distance transform and shape decomposition," In proceedings of ICIP'11, 2011. 

  11. D. G. Lowe, "Object recognition from local scale-invariant features," IJCV, volume 60, number 2, pages 91-110, 2004. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로