오늘날 인간은 기계와의 상호의사소통을 이용하여 기계를 더욱 발전시켜가고 있다. 시각기반인지시스템을 비롯한 여러 HCI(Human Computer Interaction)시스템 중 손가락 제스처를 인식, 추적하는 기술은 HCI 시스템에서 매우 중요한 부분을 차지하고 있다. 이 논문에서는 손가락을 구분하기 위해서 제한된 배경과 복잡한 배경에서의 손가락을 구분할 뿐만 아니라 배경과 전경을 분리하는 차영상을 이용하여 더욱더 효과적으로 손가락을 구분해내는 방법을 이용한다. 손가락을 구분하기 위해서는 미리 정의해놓은 손가락 끝 이미지들과 Template-Matching 을 통하여 손가락을 인식한다. 그리고 인식된 손가락을 추적한 후 미리 정의해놓은 제스처들과 비교함으로써 제스처를 인식한다. 이 논문에서는 차영상과 Template Matching 반을 이용하지 않고 미리 관심영역을 획득한 후 그 영역 안에서 Template Matching 을 수행한다. 그래서, 실행속도 및 반응속도를 줄이는 데 중점을 두고 있으며 더욱 효과적으로 제스처를 인식하는 방법에 대해 제안한다.
오늘날 인간은 기계와의 상호의사소통을 이용하여 기계를 더욱 발전시켜가고 있다. 시각기반인지시스템을 비롯한 여러 HCI(Human Computer Interaction)시스템 중 손가락 제스처를 인식, 추적하는 기술은 HCI 시스템에서 매우 중요한 부분을 차지하고 있다. 이 논문에서는 손가락을 구분하기 위해서 제한된 배경과 복잡한 배경에서의 손가락을 구분할 뿐만 아니라 배경과 전경을 분리하는 차영상을 이용하여 더욱더 효과적으로 손가락을 구분해내는 방법을 이용한다. 손가락을 구분하기 위해서는 미리 정의해놓은 손가락 끝 이미지들과 Template-Matching 을 통하여 손가락을 인식한다. 그리고 인식된 손가락을 추적한 후 미리 정의해놓은 제스처들과 비교함으로써 제스처를 인식한다. 이 논문에서는 차영상과 Template Matching 반을 이용하지 않고 미리 관심영역을 획득한 후 그 영역 안에서 Template Matching 을 수행한다. 그래서, 실행속도 및 반응속도를 줄이는 데 중점을 두고 있으며 더욱 효과적으로 제스처를 인식하는 방법에 대해 제안한다.
On today, human is going to develop machine by using mutual communication to machine. Including vision - based HCI(Human Computer Interaction), the technique which to recognize finger and to track finger is important in HCI systems, in HCI systems. In order to divide finger, this paper uses more eff...
On today, human is going to develop machine by using mutual communication to machine. Including vision - based HCI(Human Computer Interaction), the technique which to recognize finger and to track finger is important in HCI systems, in HCI systems. In order to divide finger, this paper uses more effectively dividing the technique using subtraction which is separation of background and foreground, as well as to divide finger from limited background and cluttered background. In order to divide finger, the finger is recognized to make "Template-Matching" by identified fingertip images. And, identified gestures be compared the tracked gesture after tracking recognized finger. In this paper, after obtaining interest area, not only using subtraction image and template-matching but to perform template-matching in the area. So, emphasis is placed on decreasing perform speed and reaction speed, and we propose technique which is more effectively recognizing gestures.
On today, human is going to develop machine by using mutual communication to machine. Including vision - based HCI(Human Computer Interaction), the technique which to recognize finger and to track finger is important in HCI systems, in HCI systems. In order to divide finger, this paper uses more effectively dividing the technique using subtraction which is separation of background and foreground, as well as to divide finger from limited background and cluttered background. In order to divide finger, the finger is recognized to make "Template-Matching" by identified fingertip images. And, identified gestures be compared the tracked gesture after tracking recognized finger. In this paper, after obtaining interest area, not only using subtraction image and template-matching but to perform template-matching in the area. So, emphasis is placed on decreasing perform speed and reaction speed, and we propose technique which is more effectively recognizing gestures.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
제안 방법
그리고 미리 준비된 fingertip 템플릿을 이용하여 템플릿 매칭을 실시하여, 그에 매칭되는 부분을 손가락 끝으로 인식하고, 그 좌표에 적색의 원을 그리게끔 표현하였다. 이리하여 손끝이 움직이는 위치를 추적하여 제스처를 표현할 수 있게 되었다.
[2]에서는 fingertip detection 을 cluttered background 에서 수행했다. 그리고 차 영상을 이용하여 전경과 배경을 분리하고, fingertip position 은 전경을 분리하고 나서 템플릿 매칭을 이용하여 획득했다. (3)에서는 칼만필터를 이용하여 손가락의 움직임을 미리 예상하고, 포인팅과 클릭의 제스처를 정의, 동일한 위치에서 일정시간의 포인팅을 인지하면 클릭으로 인식하였다.
안에서 이루어지는 궤적의 흔적을 미리 학습된 제스처 이미지들과의 유클라디안 방법을 이용하여 비교 인식하였다.
이 논문에서는 손 영역 부분에 대한 segmentation 은색상 정보를 이용하여 수행하였고, 차영상을 이용하여 검색범위를 축소시킨 후, 입력받은 영상에서 템플릿 매칭을 수행한 결과를 가지고 PCA[4]를 이용하여 제스처를 구분하였다..
이 논문에서는 저렴한 시스템의 구성을 위해 webcam 과 pc 만으로 시스템을 구성해보았다.
인체의 일부분이며 인간이 쉽게 사용하는 수단인 손을 이용한 가상의 마우스를 구현함에 있어서, 다른 device 를 사용하지 않고 손을 이용하여 직접적인 인터페이스를 구현하였다. 하지만 마우스의 기능에 맞추어 제스처를 정의하는 부분은 직관적이지 못하다는 문제가 생긴다.
테스트 프로그램에서 나타내지는 영상은 원 영상, 컬러모델에서 추출된 손 형상의 이진영상, 차 영상을 이용한 레이블링된 영상, 레이블링된 영상 안에서이진 영상만을 검색하여 fingertip 템플릿을 이용하여 템플릿 매칭을 실시한 후, 그 궤적을 적색의 원으로 표현하였다. 위의 그림에서 다수의 적색 원이 보이는 이유는 테스트 도중 차영상을 얻기 위하여 좌우로 움직였을 때, 얻어지는 궤적이 화면에 남았기 때문이다.
대상 데이터
컬러모델은 인간의 피부색 검출에 강한 YCbCr 채널을 이용하였고, 손톱부분과 손 형상안의 잡음을 제거하기 위하여 Cb채널에 대한 조건문도 포함되었다.
테스트 프로그램의 구현은 카메라에서 입력영상을 쉽게 처리할 수 있는 OpenSource 인 OpenCV 라이브러리를 이용하였다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.