$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

Kalman-Filer를 이용한 효과적인 실시간 시선검출
A Study on real time Gaze Discimination Using Kalman Fillter 원문보기

한국전자통신학회 논문지 = The Journal of the Korea Institute of Electronic Communication Sciences, v.5 no.4, 2010년, pp.399 - 405  

정유선 (조선대학교 컴퓨터공학과) ,  홍성수 (동강대학 컴퓨터정보과)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 기존의 문제점인 얼굴 움직임이 있을 시 시선 식별이 어려운 점과 사용자에 따른 교정작업이 필요하다는 점을 해결하고자 새로운 시선 식별 시스템을 제안한다. Kalman필터를 사용하여 현재 머리의 위치정보를 이용하여 미래위치를 추정하였고 얼굴의 진위 여부를 판단하기 위해서 얼굴의 특징요소를 구조적 정보와 비교적 처리시간이 빠른 수평, 수직 히스토그램 분석법을 이용하여 얼굴의 요소를 검출한다. 그리고 적외선 조명기를 구성하여 밝은 동공효과를 얻어 동공을 실시간으로 검출, 추적하였고 동공-글린트 벡터를 추출한다.

Abstract AI-Helper 아이콘AI-Helper

In this paper, the movement faces the problem of the difficult points upon the gaze of the user that corrective action is needed to solve the identification system offers a new perspective. Using the Kalman filter using the position information of the current head position estimated the future. In o...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 시선 식별을 위하여 전처리 과정에서 얻는 동공과 글린트를 가지고 동공-글린트 벡터를 구성하고, 동공-글린트 벡터를 모니터 상에 매핑하는 기능을 수행토록 하였다. 동공과 글린트에 관한매개변수가 충분히 주어진다면 시선에 따라 유일한 기능을 갖는 동공과 글린트 매개변수를 찾고자 GRNN 을 이용하여 교정을 일반화 하고자 하였다. GRNN에 사용할 입력 벡터는 식(15)와 같다.
  • 이는 동공으로부터 얼굴 방향을 추정하기 위한 기초로 사용하여, 좌우동공크기, 좌우동공간 거리 및 좌우 동공 모양과 같은 좌우 동공 명암을 이용하여 얼굴 방향을 분석하여 이와 같은 특징들이 일관성을 가질 수 있도록 이 매개변수들을 얼굴 전면에서의 측정 값으로 나누어줌으로써 표준화하였다. 본 논문에 제안된 방법의 문제점은 동공이 눈꺼풀로 가려질 때 동공의 식별이 이루어지지 않을 수 있다는 것이다. 이러한 문제를 해결하기 위해서, 특정 시점에 대한 얼굴 방향을 그 전후 프레임들에 대한 얼굴 방향 측정치들을 포함한 평균치로 계산하여야 한다.
  • 본 논문에서는 동공영상을 획득하기 위하여 Hutchinson의 방법에 근거하여 880nm파장의 적외선 LED를 두개의 고리 모양으로 구성한 능동적 적외선 조명기를 제작하여 40nm파장에서 32mW의 강도로 적외선을 조사하였다. 안경을 쓴 사용자의 경우 빛의 반사에 따른 오인식이 있을 수 있으므로 안경을 착용 하지 않은 경우로 가정하였고 카메라와 사용자의 거리는 사용자가 컴퓨터 앞에 자연스럽게 앉아 있을 경우인 0.
  • Hallinan[11,12]도 영상에서 눈을 검출하기 위해 템플릿 매칭을 사용하였다. 본 논문에서는 머리 영역 검출 후 적절한 상태가 판단되면 추출된 후보 영역이 얼굴인지의 여부를 판단하게 된다. 얼굴의 진위 여부를 판단하기 위해서 얼굴의 특징 요소인 양쪽 눈, 양쪽 콧구멍 및 입의 양끝을 사용하여, 구조적 정보와 비교적 처리 시간이 빠른 수평, 수직 히스토그램 분석법을 이용하여 얼굴의 요소를 검출하였다.
  • 본 연구는 지도학습법의 GRNN알고리즘으로 얼굴 인식을 연구한다. GRNN(generalized regression neural network)은 Specht에 의해 처음 사용된 것으로 관측된 데이터의 확률 밀도 함수에 기본[13]을 두고 있다.
  • 시선 식별을 위하여 1차적인 매개변수만을 이용할 경우 움직임이 있는 경우에 대한 시선 식별이 잘 이루어지지 않는 경향이 있기에 본 논문에서는 얼굴 움직임에 대비한 얼굴 방향에 대한 매개변수를 추출하고자 하였다. 얼굴방향에 대한 동공 특성은 다음과 같다.

가설 설정

  • 이때 같은 동작으로 모든 단계부주의, 하품, 잠듬에 대하여 상향식 분류에 사전 확률을 설정한다. 실험을 위해 눈 검출 영역, 머리 방향 추정, 머리 움직임추정, 얼굴추적 등을 조합하여 a,b,c,d,e,f 로 동작을 가정하고 각 동작으로 모든 단계에 부주의, 하품, 잠듬에 대해 사전 확률을 측정한다. Ia, Yw, Fa는 각각 부주의, 하품, 잠듬을 나타낸다.
  • 본 논문에서는 동공영상을 획득하기 위하여 Hutchinson의 방법에 근거하여 880nm파장의 적외선 LED를 두개의 고리 모양으로 구성한 능동적 적외선 조명기를 제작하여 40nm파장에서 32mW의 강도로 적외선을 조사하였다. 안경을 쓴 사용자의 경우 빛의 반사에 따른 오인식이 있을 수 있으므로 안경을 착용 하지 않은 경우로 가정하였고 카메라와 사용자의 거리는 사용자가 컴퓨터 앞에 자연스럽게 앉아 있을 경우인 0.5~1m로 하였다. 광원을 교차 조사함에 따라 안쪽 고리의 적외선 LED들이 켜졌을 때는 동공에서 반사된 적외선이 검출되어 밝은 동공영상이 생성되었고, 바깥 쪽 고리의 적외선 LED들이 켜졌을 때는 동공에 반사된 적외선이 검출되지 않으므로 어두운 동공이 생성되었다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
기존의 시선 식별 시스템은 시선을 식별하기 위해 무엇을 이용하는가? 기존의 시선 식별 시스템은 시선을 식별하기 위해 얼굴의 움직임과 눈동자의 움직임을 이용한다. 얼굴의 움직임만을 이용할 경우 얼굴의 위치에 따라 시선의 위치를 결정하게 되는데 미세한 시선 변화를 감지하지 못하는 단점을 지니고 있다.
현재까지 연구된 눈동자에 근거한 시선 추정 방식의 가장 큰 공통점은? 얼굴의 움직임만을 이용할 경우 얼굴의 위치에 따라 시선의 위치를 결정하게 되는데 미세한 시선 변화를 감지하지 못하는 단점을 지니고 있다. 현재까지 연구된 눈동자에 근거한 시선 추정 방식의 가장 큰 공통점은 각막의 글린트와 동공 사이의 상대적인 위치에 근거한다는 것이다.[1-3] 눈과 시선 식별 시스템의 또 다른 문제는 각각의 사용자에 대하여 교정 작업이 필요하다는 점이다.
시선 식별 시스템에서 얼굴의 움직임만을 이용할 경우의 단점은? 기존의 시선 식별 시스템은 시선을 식별하기 위해 얼굴의 움직임과 눈동자의 움직임을 이용한다. 얼굴의 움직임만을 이용할 경우 얼굴의 위치에 따라 시선의 위치를 결정하게 되는데 미세한 시선 변화를 감지하지 못하는 단점을 지니고 있다. 현재까지 연구된 눈동자에 근거한 시선 추정 방식의 가장 큰 공통점은 각막의 글린트와 동공 사이의 상대적인 위치에 근거한다는 것이다.
질의응답 정보가 도움이 되었나요?

참고문헌 (8)

  1. J.Weng, D. L. Swets, "Face Recognition in Biometrics : Personal Identification in Networked Society", pp.67-86, Boston. MA KluwerAcademic, 1999. 

  2. K. Sung, T.Poggio, "Example-based learning for view-based human face detection", IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.20 Issue:1, pp.39-51, Jan. 1998. 

  3. L. Cohen, N. Sebe, A. Garg, M.A. Lew, T.S. Huang, "Facial expression recognition form video sequrences", IEEE International Conference on Multimedia 

  4. T. Yamaguchi, M.Tominage, K, Mrakami, H. Koshimizu, "Regeneration of facial image eye-contacting with partner on TV Confernce environment", IEEE Iternational Conference on Systems, Man, and Cybernetics, vol.2, pp.1169-1174, 2000. 

  5. C. Collet, A. Finkel, R. Gherbi, "CapRe; a gaze tracking system in man-machine interaction", IEEE International Conference on intelligent Engineering Systems, pp.577-581, 1997. 

  6. P.Ekman and W.V. Friesen. "Emotion in the human face System."cambridge University Press, San Francisco, CA, second edition, 1982. 

  7. State of the art in facial Animation 22, acm siggraph '89 course notes,1989. 

  8. Isfan A. Essa and Alex P. Pentland. Facial expression recognition using visually extracted facial action parameters. In Int'l Work-shop on Automatic Face- and Gesture-Recognition '95, pages 35-40,1995. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로