$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

제스쳐 클리핑 영역 비율과 크기 변화를 이용한 손-동작 인터페이스 구현
Implement of Hand Gesture Interface using Ratio and Size Variation of Gesture Clipping Region 원문보기

한국인터넷방송통신학회 논문지 = The journal of the Institute of Internet Broadcasting and Communication, v.13 no.1, 2013년, pp.121 - 127  

최창열 (상지대학교 컴퓨터정보공학부) ,  이우범 (상지대학교 컴퓨터정보공학부)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 UI 시스템에서 포인팅 장비를 대신할 수 있는 컴퓨터 비전 기반의 제스쳐 형상의 영역 비율과 크기 변화 특징을 이용한 손-동작 인터페이스를 제안한다. 제안한 방법은 효과적인 손 영역 검출을 위해서 HSI 컬러 모델을 기반으로 손 영역의 피부 색상(Hue)과 채도(Saturation) 값을 혼합하여 적용함으로서 제스쳐 인식에 있어서 손 영역 이외의 피부색 영역을 제거할 수 있으며, 빛에 의한 잡음 영향을 줄이는데 효과적이다. 또한 제시되는 제스쳐의 정적인 포즈 인식이 아닌 실시간으로 변화하는 제스쳐 클리핑 영역에서의 손 영역 화소 비율과 크기 변화를 검출함으로써 계산량을 줄일 수 있으며, 보다 빠른 응답 속도를 보장한다. 제안한 컴퓨터 비전 기반의 포인팅 인터페이스는 우리가 이전 연구에서 구현한 자가 시력 측정 시스템에서 독립적인 포인팅 인터페이스로 적용한 결과, 평균적으로 86%의 제스쳐 인식률과 87%의 좌표이동 인식률을 보여 포인팅 인터페이스로의 활용도를 보였다.

Abstract AI-Helper 아이콘AI-Helper

A vision based hand-gesture interface method for substituting a pointing device is proposed in this paper, which is used the ratio and size variation of Gesture Region. Proposed method uses the skin hue&saturation of the hand region from the HSI color model to extract the hand region effectively. Th...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서 구현하는 사용자 인터페이스는 포인팅 입력 장치의 클릭 및 드래그 앤 드롭(Drag&Drop) 에 의한 방향성 검출 기능을 목적으로 하고 있다.
  • 획득된 손-동작을 포함하는 최소 근접 사각형 영역을 분류 인식하기 위해서는 먼저 인식되는 대상들 간의 분류 특징을 최대화하기 위하여 최소 근접 사각형에 대해서 클리핑(clipping) 작업을 수행한다. 본 논문에서 수행하는 클리핑 작업은 손-동작의 특징을 손-동작 영역의 크기와 영역 내에서의 손-동작 영역의 화소 비율을 특징으로 정의하기 위한 전처리 작업으로서 수행된다.
  • 본 논문에서는 포인팅 장치의 대체를 위한 손 동작 인식 기반의 UI 시스템을 제안했다. 제안한 방법은 별도의 포인팅 장비나 입력 도구를 요구하지 않고 응용 프로그램과 별도의 독립적인 형태로 실행된다.

가설 설정

  • 여기서, υ는 식 (1)에 의해서 계산된 r, g, b 값을 의미하고, m은 변형 상수이다. HSI 컬러모델로 변환된 영상은 그림 2의 (b), (c), (d) 영상과 같이 색상, 채도, 밝기의 3가지 채널로 분리 된다. 색상 채널은 빨강, 녹색, 파랑의 색상 정보를 가진 영역이고, 채도 채널은 색의 선명도를 나타내는 채널로 동일색상에서의 선명도를 구별하는데 유용하며, 밝기 채널은 밝기 정보를 가진 영역으로 명암에 따른 객체 검출에 유용하다.
  • 전처리 클리핑 작업은 손-동작 영역의 최소 근접 사각형의 넓이 값을 사각형의 수직방향으로 적용하여 정사각형 영역으로 클리핑하여 손-동작 영역을 재설정 한다. 그림 3의 (e), (f), (g), (h) 영상은 실영상에서 획득한 클리핑 영역의 예이다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
제스쳐 인식의 방법을 위해 어떤 방법들을 융합적으로 적용하여 사용하는가? 또한 제스쳐 인식에 있어서도 승리 표시나, 엄지 손가락 올림 등의 정적 움직임(static movement)인 포즈 인식과 손을 흔드는 인사와 같은 동적 움직임(dynamic movement)인 제스쳐 인식으로 구분할 수 있다. 여기서 제스쳐 인식의 방법으로는 PCA, HMM, 영상처리, 패턴인식, 신경회로망 등의 방법들이 융합적으로 적용되어 사용된다. 그러나 이러한 방법들은 동일한 제스쳐일 경우에도 사람에 따라서 움직임 형태의 가변성이 크며, 빛 상태와 같은 촬영 조건의 제약 때문에 확실한 해법을 제시하지 못 하는 실정이다[1][2].
손-동작 기반의 제스쳐 인식 분야는 어떤 방식으로 나누어지는가? 기존의 손-동작 기반의 제스쳐 인식 분야는 크게 칼라 및 텍스쳐 정보 등을 제스쳐 분석에 사용하는 비전 기반 방식과 별도의 부가적인 입력 장치를 요구하는 데이터-장갑(Data-Glove) 기반 방식으로 나누어진다[1][2]. 
본 논문에서 손 영역 검출을 위해 RGB 컬러모델대신 HSI 컬러모델을 사용한 이유는 무엇인가? HSI 컬러모델은 인간이 색을 인지하는 방식과 유사한 컬러모델[4]로서 인간이 색을 인지하는 척도인 색상(Hue), 채도(Saturation), 밝기(Intensity)정보를 이용하여 색상을 표현한다[4][5]. 특히, HSI 모델은 RGB 컬러모델과는 다르게 색상 정보와 밝기 정보를 분리하는 것이 가능하기 때문에 손 영역 검출에 있어서 빛의 영향을 최대한 줄여주는 것이 가능하다
질의응답 정보가 도움이 되었나요?

참고문헌 (11)

  1. R. Z. Khan and N. A. Ibraheem, "Survey on Gesture Recognition for Hand Image Posture", Computer and Information Science Vol. 5(3), pp. 110-121, 2012. 

  2. S. Mitra and T. Acharya, "Gesture Recognition: A Survey", IEEE Trans. on SMC Vol. 37(3), pp. 311-324, 2007. 

  3. Changyur Choi and Woobeom Lee, "A Self Visual-Acuity Testing System based on the Hand-Gesture Recognition by the KS Standard Optotype", Journal of The Institute of Signal Processing and Systems, Vol. 11(4), pp. 303-309, 2010. 

  4. A.R. Smith, "Color Gamut Transform Pairs", SIGGRAPH 78, pp. 12-19, 1978. 

  5. Gary R. Bradski and Santa Clara, "Computer Vision Face Tracking For Use in a Perceptual User Interface", Intel Technology Journal Q2, pp. 1-15, 1998. 

  6. Fu Chang, Chun-Jen Chen, Chi-Jen Lu, "A Linear-Time Component-Labeling Algorithm Using Contour Tracing Technique", Computer Vision and Image Understanding, Vol. 93(2), pp. 206-220, 2004. 

  7. Intel. Open source computer vision library: Reference manual. 2001. 

  8. P. Garg, N. Aggarwal, S. Sofat, "Vision Based Hand Gesture Recognition", World Academy of Science, Engineering and Technology 49, 2009. 

  9. G. R. S. Murthy and R. S. Jadon, "A Review of Vision based Hand Gestures Recognition", International Journal of Info. Tech. and Knowl. Mang. Vol. 2(2), pp. 405-410, 2009. 

  10. X. Shen, etc., "Dynamic hand gesture recognition: An exemplar-based approach from motion divergence fields", Image and Vision Computing 30, pp. 227-235, 2012. 

  11. V. A. Prisacariu and I. Reid, "3D hand tracking for human computer interaction", Image and Vision Computing 30, pp. 236-250, 2012. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로