최근에 인간컴퓨터 상호작용 분야에서 사용자의 시선 위치를 파악하여 더욱 편리한 입력 장치를 개발하고자 하는 연구가 많이 진행되고 있다. 기존의 대부분 연구들은 큰 모니터를 사용하는 컴퓨터 환경에서 시선 추적 시스템을 개발하였다. 최근 이동단말기의 사용 증대로 이동 중에 시선 추적에 의한 단말기 제어의 필요성이 증대되고 있다. 이에 본 연구에서는 이동형 컴퓨터 (Ultra-Mobile PC) 및 컴퓨터 내장 카메라를 이용하여 사용자의 얼굴을 추적하고, 얼굴내의 특징점의 위치를 능동외관모델 (Active Appearance Model)을 기반으로 추적하는 연구를 수행하였다. 본 논문의 독창성은 기존 연구와는 달리 소형 화면을 가지는 이동 단말기에서 사용자의 시선 위치를 추적할 수 있는 방법을 제안한 점과 정밀한 얼굴 특징점 검출을 위하여 능동외관모델을 사용한 점이다. 또한 사용자의 초기 캘리브레이션시 얻어진 특징값을 기반으로, 입력 특징값들을 정규화 함으로써, Z거리에 따라 시선 위치 정확도가 영향을 받지 않는다는 점이다. 실험결과, 약 1.77도의 시선 오차를 발생하였으나, 추가적인 얼굴 움직임에 의한 마우스 움직임 기능으로 이러한 시선 오차는 더욱 줄일 수 있음을 알 수 있었다.
최근에 인간컴퓨터 상호작용 분야에서 사용자의 시선 위치를 파악하여 더욱 편리한 입력 장치를 개발하고자 하는 연구가 많이 진행되고 있다. 기존의 대부분 연구들은 큰 모니터를 사용하는 컴퓨터 환경에서 시선 추적 시스템을 개발하였다. 최근 이동단말기의 사용 증대로 이동 중에 시선 추적에 의한 단말기 제어의 필요성이 증대되고 있다. 이에 본 연구에서는 이동형 컴퓨터 (Ultra-Mobile PC) 및 컴퓨터 내장 카메라를 이용하여 사용자의 얼굴을 추적하고, 얼굴내의 특징점의 위치를 능동외관모델 (Active Appearance Model)을 기반으로 추적하는 연구를 수행하였다. 본 논문의 독창성은 기존 연구와는 달리 소형 화면을 가지는 이동 단말기에서 사용자의 시선 위치를 추적할 수 있는 방법을 제안한 점과 정밀한 얼굴 특징점 검출을 위하여 능동외관모델을 사용한 점이다. 또한 사용자의 초기 캘리브레이션시 얻어진 특징값을 기반으로, 입력 특징값들을 정규화 함으로써, Z거리에 따라 시선 위치 정확도가 영향을 받지 않는다는 점이다. 실험결과, 약 1.77도의 시선 오차를 발생하였으나, 추가적인 얼굴 움직임에 의한 마우스 움직임 기능으로 이러한 시선 오차는 더욱 줄일 수 있음을 알 수 있었다.
Recently, many researches of making more comfortable input device based on gaze detection technology have been performed in human computer interface. Previous researches were performed on the computer environment with a large sized monitor. With recent increase of using mobile device, the necessitie...
Recently, many researches of making more comfortable input device based on gaze detection technology have been performed in human computer interface. Previous researches were performed on the computer environment with a large sized monitor. With recent increase of using mobile device, the necessities of interfacing by gaze detection on mobile environment were also increased. In this paper, we research about the gaze detection method by using UMPC (Ultra-Mobile PC) and an embedded camera of UMPC based on face and facial feature detection by AAM (Active Appearance Model). This paper has following three originalities. First, different from previous research, we propose a method for tracking user's gaze position in mobile device which has a small sized screen. Second, in order to detect facial feature points, we use AAM. Third, gaze detection accuracy is not degraded according to Z distance based on the normalization of input features by using the features which are obtained in an initial user calibration stage. Experimental results showed that gaze detection error was 1.77 degrees and it was reduced by mouse dragging based on the additional facial movement.
Recently, many researches of making more comfortable input device based on gaze detection technology have been performed in human computer interface. Previous researches were performed on the computer environment with a large sized monitor. With recent increase of using mobile device, the necessities of interfacing by gaze detection on mobile environment were also increased. In this paper, we research about the gaze detection method by using UMPC (Ultra-Mobile PC) and an embedded camera of UMPC based on face and facial feature detection by AAM (Active Appearance Model). This paper has following three originalities. First, different from previous research, we propose a method for tracking user's gaze position in mobile device which has a small sized screen. Second, in order to detect facial feature points, we use AAM. Third, gaze detection accuracy is not degraded according to Z distance based on the normalization of input features by using the features which are obtained in an initial user calibration stage. Experimental results showed that gaze detection error was 1.77 degrees and it was reduced by mouse dragging based on the additional facial movement.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
기존의 시선 추적 연구 결과와는 달리 본 연구에서는 작은 크기의 화면을 가지는 이동단말기 (UMPC) 상에서의 시선 위치 추출 연구를 수행하였다. 전술한 바와 같이 이동단말기 환경은 화면 크기가 작기 때문에 보다 정밀한 시선 정확도가 요구된다.
본 연구에서는 그림 1과 같은 흐름도에 의해 UMPC환경에서의 시선 추적 알고리즘을 개발하였다. 먼저, UMPC 내장 카메라에 의해 취득된 얼굴 영상으로부터 적응적 상승 기법 (Adaboost, Adaptive Boost) 기반 얼굴 영역을 검출한다.
된다. 본 연구에서는 이러한 삼각형의 크기 및 상대적인 면적 비 변화를 기반으로 UMPC 상의 시선 위치를 계산하였다. 즉, 초기에 사용자가 UMPC 모니터 상의 4지점을 쳐다보게 한 후, 이때 구한 6 삼각형의 크기를 각각 저장한다.
77도의 시선 위치 추출 에러 성능을 나타냈다. 이러한 시선 추적 에러를 보정하기 위하여 본 연구에서는 얼굴 움직임에 의한 추가적인 마우스 움직임으로 전술한 시선 위치 에러를 보정하였다. 매 영상마다 처리속도는 약 100ms 정도로 초당 10장의 속도로 사용자의 시선 위치를 추적할 수 있었다.
[28]의 연구에서는 눈꺼풀 검출 마스크 및 포물 허프 변환을 이용하여 눈꺼풀을 검출하였으나, 본 연구에서와 같이 눈 영역의 해상도가 낮은 경우에는 적용하기 힘들다. 이에 본 연구에서는 AAM (Active Appearance Model) 방법을 이용하여 눈꺼풀을 포함한 자세한 얼굴 특징점 정보를 추출하고자 한다[21, 23].
최근 이동단말기의 사용 증대로 이동 중에 시선 추적에 의한 단말기 제어의 필요성이 증대되고 있다. 이에 본 연구에서는 이동형 UMPC (Ultra-Mobile PC) 및 UMPC 내장 카메라를 이용하여 사용자의 얼굴 및 AAM (Active Appearance Model) 기반 얼굴 특징점 기반 시선 추적 연구를 수행하였다. 본 연구에서는 30명의 사용자를 대상으로 Adaboost 얼굴 검출기를 실험 결과, 약 L77도의 시선 오차를 발생하였으며, 이러한 오차는 UMPC의 작은 화면에서 세밀한 화면 제어가 어렵게 만드는 요소가 된다.
가설 설정
본 연구에서는 사용자의 얼굴이 회전되는 경우가 많이 발생하기 때문에 검출된 얼굴 영역에서 가로, 세로 방향으로 일정한 간격으로 분할하였고, 가로 방향에서의 2 ~ 3번째 구간과 세로 방향에서의 4번째 구간을 기준으로 여분의 공간을 두어 사용자의 코의 위치가 충분히 들어오게 하였다. 먼저 사용자의 콧구멍을 기준으로 중심에 위치한다고 가정하고 진행하였다. 코끝의 위치를 추출하기 위해서는 이진화 과정을 먼저 진행하였다.
제안 방법
UMPC 모니터 상에 사용자의 시선 위치 정확도를 파악하기 위하여 모니터 상의 12개의 점(검은색 점) 을 30명의 사용자가 응시하도록 하고, 이때 계산된 시선 위치와 실제 응시해야 할 위치 사이의 최소 자승 에러(RMS errox)를 측정하였다. 실험 결과 약 1.
먼저, UMPC 내장 카메라에 의해 취득된 얼굴 영상으로부터 적응적 상승 기법 (Adaboost, Adaptive Boost) 기반 얼굴 영역을 검출한다. 검출된 얼굴 영역에서 미리 정해진 눈, 코의 영역을 설정하고 이 영역에서 이진화, 성분 명명화 (Component Labeling) 등의 방법을 이용하여 양 눈 및 콧구멍의 위치를 검출한다. 이 위치를 기반으로 능동외관모델 (AAM, Active Appearance Model)의 초기 위치 및 크기 값을 지정하여 AAM을 이용하여 보다 정확한 얼굴 특징점들의 위치를 검출한다.
이 위치를 기반으로 능동외관모델 (AAM, Active Appearance Model)의 초기 위치 및 크기 값을 지정하여 AAM을 이용하여 보다 정확한 얼굴 특징점들의 위치를 검출한다. 검출된 얼굴 특징점들이 형성하는 삼각형의 기하학적 모양 변화를 이용하여 UMPC 화면상의 시선 위치를 검출하게 된다. 보다 자세한 연구 내용은 다음 절에서부터 소개된다.
매 영상마다 처리속도는 약 100ms 정도로 초당 10장의 속도로 사용자의 시선 위치를 추적할 수 있었다. 다음으로 본 논문의 AAM에 의한 얼굴 특징점 추출 및 시선 추적이 아닌, 기존의 방식에 의한 시선 위치 검출 성능을 비교하였다. 기존의 다른 방식으로는 이진화 및 성분 명명화에 의한 눈의 양 꼬리, 콧구멍, 입의 양 끝점 검출 및 시선 추적 방법[32] 와, sobel filtering을 통해 추출된 얼굴의 수평 및 수직 방향 에지 투영(projection) 정보를 이용하여 양 눈 대비 얼굴 중심의 회전각을 측정하는 방식 [33] 등이다.
다음으로 표 2와같이 UMPC 화면과 사용자 얼굴 간의 Za리에 따른 시선 추출 정확도를 측정하였다. 일반적으로 모바일 기기를 손으로 들고 사용하는 거리인 30cm를 기준으로 +-10cm 범위 내에서의 시선 위치 추출 정확도를 측정하였다.
라벨링 이후, 양 눈 이외에 다른 영역들도 포함하는 경우가 발생하게 된다. 따라서 이를 해결하기 위하여 눈 영역의 존재 가능 영역을 왼쪽과 오른쪽 눈에 대하여 분리하고 각 분리된 영역에서 중심 위치에 라벨링 된 영역을 눈 위치라고 판단하고 이를 채택하였다. 30명에 대한 실험 결과 양 눈 검출의 평균 RMS(Root Mean Square) 오차는 약 2.
또한 안경을 착용한 사람은 착용했을 때와 착용하지 않았을 때를 각각 촬영하였다. AAM을 사용하여 얼굴 특징점을 추출하는 정확도를 측정하기 위해서 학습하지 않은 추가 30명분의 200장을 가지고 실험한 결과, 학습한 영상에 대해서는 2.
콧구멍은 다른 피부 영역과는 다르게 안쪽으로 들어가 있는 형태이므로 영상에서 어둡게 나타나기 때문에 이진화를 위한 임계치 설정이 용이하다. 또한 이와 더불어 앞서 구한 사용자 얼굴의 피부 평균 밝기를 기준으로 임계치를 설정하였다. 이진화 과정을 거친 영상에 대해서 형태학적 연산을 수행하여 콧구멍 이외에 다른 노이즈를 제거하였다.
먼저, UMPC 내장 카메라에 의해 취득된 얼굴 영상으로부터 적응적 상승 기법 (Adaboost, Adaptive Boost) 기반 얼굴 영역을 검출한다. 검출된 얼굴 영역에서 미리 정해진 눈, 코의 영역을 설정하고 이 영역에서 이진화, 성분 명명화 (Component Labeling) 등의 방법을 이용하여 양 눈 및 콧구멍의 위치를 검출한다.
5인치로 800 X 600화소의 공간해상도 및 Windows-XP OS 사용하고 있다[31]. 본 연구에서 제안하는 시선 추적 프로그램은 Microsoft Visual Studio C++ 2005, DirectX 9.0c SDK (Software Development Kit) 의 Directs how를 사용하여 구현하였다.
추출하였다[21]. 본 연구에서는 눈 영역을 검출하기 위하여 Adaboost로 검출된 얼굴 영역에서 눈이 존재할 만한 박스 영역을 사전에 지정한 후, 일반적으로 눈 영역의 그레이 레벨이 주위 영역보다 낮다는 특성을 이용하여[27], 이 영역 내에서 p-tile method에 의한 이진화, 성분 명명화 (component lae beling), 흑화소의 무게중심 검출을 이용하여 눈의 정확한 위치를 검출하였다[29]. p-tile method는 눈 존재 박스 내에서 그레이 영상의 히스토그램을 구하고 이중, 검은 화소의 부분이 전체 화소 중에서 미리 정의된 p%정도 반드시 존재한다는 가정 하에 이진화를 수행하는 방식이다.
본 연구에서는 휴대용 컴퓨터인 UMPC (UltraMobile TC) 및 UMPC의 내장 카메라를 이용하여 사용자의 얼굴 영역을 추적하고, 얼굴 영역 내에서 능동 외관 모델 (AAM, Active Appearance Model)기반 얼굴 특징점 기반 시선 추적 연구를 수행하였다.
검출된 얼굴 영역에서 미리 정해진 눈, 코의 영역을 설정하고 이 영역에서 이진화, 성분 명명화 (Component Labeling) 등의 방법을 이용하여 양 눈 및 콧구멍의 위치를 검출한다. 이 위치를 기반으로 능동외관모델 (AAM, Active Appearance Model)의 초기 위치 및 크기 값을 지정하여 AAM을 이용하여 보다 정확한 얼굴 특징점들의 위치를 검출한다. 검출된 얼굴 특징점들이 형성하는 삼각형의 기하학적 모양 변화를 이용하여 UMPC 화면상의 시선 위치를 검출하게 된다.
이후, 사용자 얼굴의 회전 및 이동이 발생하는 경우 초기 4지점을 볼 때 저장한 값 대비 변화된 값을 기반으로 선형보간법을 이용하여 UMPC 모니터 상의 시선 위치를 구하게 된다. 이때 얼굴의 이동 시에는 삼각형의 면적 변화보다는 AAM으로 구한 얼굴 특징점의 무게중심의 이동 량을 기반으로 시선 위치를 측정하였다.
또한 이와 더불어 앞서 구한 사용자 얼굴의 피부 평균 밝기를 기준으로 임계치를 설정하였다. 이진화 과정을 거친 영상에 대해서 형태학적 연산을 수행하여 콧구멍 이외에 다른 노이즈를 제거하였다. 이진화 및 형태학적 연산을 거친 영상에서 검출된 콧구멍의 중심을 코끝으로 간주하고 이를 추출하였다.
이진화 과정을 거친 영상에 대해서 형태학적 연산을 수행하여 콧구멍 이외에 다른 노이즈를 제거하였다. 이진화 및 형태학적 연산을 거친 영상에서 검출된 콧구멍의 중심을 코끝으로 간주하고 이를 추출하였다. 30명에 대한 실험결과 콧구멍 검출의 평균 RMS(Root Mean Square) 오차는 약 3.
측정하였다. 일반적으로 모바일 기기를 손으로 들고 사용하는 거리인 30cm를 기준으로 +-10cm 범위 내에서의 시선 위치 추출 정확도를 측정하였다. 실험 결과 Z 거리에 따라 시선 위치의 저하는 발생하지 않는 것으로 조삭되었다.
대상 데이터
AAM을 학습시키기 위해서 30명을 대상으로 각각 모바일 기기의 화면의 정면, 모서리 네 점을 회전을 하여 응시하게 하였으며 각 5~10장씩 총 210장을 사용하였다. 또한 안경을 착용한 사람은 착용했을 때와 착용하지 않았을 때를 각각 촬영하였다.
이론/모형
얼굴 영역을 검출한다[21]. Adaboost 얼굴 검출 방법은 간단한 Haar wavelet 형태의 마스크를 사용하고 통계모델로써 분류기 (Classifier)의 상승 트리 (Boosting Tree)를 사용한다. 이때 분류기는 고정된 크기의 영상을 이용하여 결정되고, 탐색 윈도우를 통해서 전체 영상의 각 영역에서 찾고자 하는 물체가 있는지를 판단하게 된다.
본 연구에서는 그림 3과 같이 눈 영역을 찾고, 추줄된 눈 위치를 기준으로 능동외관모델 (AAM, Active Appearance Model)[23-25}를 이용하여 얼굴 특징점들을 추출하였다[21]. 본 연구에서는 눈 영역을 검출하기 위하여 Adaboost로 검출된 얼굴 영역에서 눈이 존재할 만한 박스 영역을 사전에 지정한 후, 일반적으로 눈 영역의 그레이 레벨이 주위 영역보다 낮다는 특성을 이용하여[27], 이 영역 내에서 p-tile method에 의한 이진화, 성분 명명화 (component lae beling), 흑화소의 무게중심 검출을 이용하여 눈의 정확한 위치를 검출하였다[29].
즉, 초기에 사용자가 UMPC 모니터 상의 4지점을 쳐다보게 한 후, 이때 구한 6 삼각형의 크기를 각각 저장한다. 이후, 사용자 얼굴의 회전 및 이동이 발생하는 경우 초기 4지점을 볼 때 저장한 값 대비 변화된 값을 기반으로 선형보간법을 이용하여 UMPC 모니터 상의 시선 위치를 구하게 된다. 이때 얼굴의 이동 시에는 삼각형의 면적 변화보다는 AAM으로 구한 얼굴 특징점의 무게중심의 이동 량을 기반으로 시선 위치를 측정하였다.
성능/효과
또한 안경을 착용한 사람은 착용했을 때와 착용하지 않았을 때를 각각 촬영하였다. AAM을 사용하여 얼굴 특징점을 추출하는 정확도를 측정하기 위해서 학습하지 않은 추가 30명분의 200장을 가지고 실험한 결과, 학습한 영상에 대해서는 2.06 화소, 학습하지 않은 영상에 대해서는 3.88 화소의 RMS 오차가 나타냈다. 이때 오차는 손으로 직접 표시한 얼굴 특징점의 위치와위치 사이의로 자동 검출한 특징점의 위치사이의 화소 RMS (Root Mean Square)에러를 나타낸다.
2%의 정확도로 얼굴 영역을 검출하였다. 그리고 UMPC에서 Adaboost로 얼굴을 검출하는데 약 50 ms/frame의 처리 속도를 나타냄을 알 수 있었다.
이에 본 연구에서는 이동형 UMPC (Ultra-Mobile PC) 및 UMPC 내장 카메라를 이용하여 사용자의 얼굴 및 AAM (Active Appearance Model) 기반 얼굴 특징점 기반 시선 추적 연구를 수행하였다. 본 연구에서는 30명의 사용자를 대상으로 Adaboost 얼굴 검출기를 실험 결과, 약 L77도의 시선 오차를 발생하였으며, 이러한 오차는 UMPC의 작은 화면에서 세밀한 화면 제어가 어렵게 만드는 요소가 된다. 하지만 본 연구에서는 추가적인 얼굴 움직임에 의한 마우스 움직임 기능으로 이러한 시선 오차는 더욱 줄일 수 있음을 알 수 있었으며, 이러한 방식을 통해 모바일 환경에서 실용적으로 시선 추적 기술을 구현할 수 있었다, 향후 사용자의 눈동자 움직임에 의한 시선 추적 알고리즘을 개발하고 이 결과 룰 결합함으로써 보다 정확한 시선 추적 시스템을 개발하고자 한다.
본 연구에서는 30명의 사용자를 대상으로 Adaboost 얼굴 검출기를 실험 결과, 입력 영상에서 99.2%의 정확도로 얼굴 영역을 검출하였다. 그리고 UMPC에서 Adaboost로 얼굴을 검출하는데 약 50 ms/frame의 처리 속도를 나타냄을 알 수 있었다.
Ada boost로 검출한 얼굴 영역에서 일정한 영역에 코끝의 위치하는 것을 알 수 있다. 본 연구에서는 사용자의 얼굴이 회전되는 경우가 많이 발생하기 때문에 검출된 얼굴 영역에서 가로, 세로 방향으로 일정한 간격으로 분할하였고, 가로 방향에서의 2 ~ 3번째 구간과 세로 방향에서의 4번째 구간을 기준으로 여분의 공간을 두어 사용자의 코의 위치가 충분히 들어오게 하였다. 먼저 사용자의 콧구멍을 기준으로 중심에 위치한다고 가정하고 진행하였다.
일반적으로 모바일 기기를 손으로 들고 사용하는 거리인 30cm를 기준으로 +-10cm 범위 내에서의 시선 위치 추출 정확도를 측정하였다. 실험 결과 Z 거리에 따라 시선 위치의 저하는 발생하지 않는 것으로 조삭되었다. 이는 U.
다음 표 1은 4 방법의 시선 추출 정확도를 나타낸 것이다. 실험 결과 본 논문의 방법이 가장 우수한 성능을 나타냄을 알 수 있다.
errox)를 측정하였다. 실험 결과 약 1.77도의 시선 위치 추출 에러 성능을 나타냈다. 이러한 시선 추적 에러를 보정하기 위하여 본 연구에서는 얼굴 움직임에 의한 추가적인 마우스 움직임으로 전술한 시선 위치 에러를 보정하였다.
6절에서 언급한 바와 같이 본 논문의 시선 추적 방법에서는 초기에 사용자가 UMPC 모니터 상의 4지점을 쳐다보게 한 후 이때 구한 6 삼각형의 크기를 각각 저장한 후, 사용자 얼굴의 회전 및 이동이 발생하는 경우 초기 4지점을 볼 때 저장한 값 대비 변화된 값을 기반으로 선형 보간법을 이용하여 UMPC 모니터 상의 시선 위치를 구하기 때문이다. 오히려, 20 cm 정도로 UMPC 화면과 사용자 얼굴이 가까워 진 경우, 취득된 사용자 얼굴 및 얼굴 특징점 간 공간 해상도가 증가되어 시선 추출 정확도가 조금 상승함을 알 수 있었다.
02화소 이다. 이 과정에서 검출된 눈의 위치는 차후에 진행되는 AAM의 초기값으로 적용하게 되고, 영상에서의 정확한 눈동자의 좌표를 AAM의 초기값으로 사용했을 때와 비교했을 때 크게 영향을 주지 않았다. [28]의 연구에서는 눈꺼풀 검출 마스크 및 포물 허프 변환을 이용하여 눈꺼풀을 검출하였으나, 본 연구에서와 같이 눈 영역의 해상도가 낮은 경우에는 적용하기 힘들다.
후속연구
본 연구에서는 30명의 사용자를 대상으로 Adaboost 얼굴 검출기를 실험 결과, 약 L77도의 시선 오차를 발생하였으며, 이러한 오차는 UMPC의 작은 화면에서 세밀한 화면 제어가 어렵게 만드는 요소가 된다. 하지만 본 연구에서는 추가적인 얼굴 움직임에 의한 마우스 움직임 기능으로 이러한 시선 오차는 더욱 줄일 수 있음을 알 수 있었으며, 이러한 방식을 통해 모바일 환경에서 실용적으로 시선 추적 기술을 구현할 수 있었다, 향후 사용자의 눈동자 움직임에 의한 시선 추적 알고리즘을 개발하고 이 결과 룰 결합함으로써 보다 정확한 시선 추적 시스템을 개발하고자 한다.
참고문헌 (34)
Jacob, R. and J. K, "Eye Movement-Based Human-Computer Interaction Techniques : Toward Non-Command Interfaces," Advances in Human-Computer Interaction, H. R. Hartson and D. Hix, Editors., Ablex Publishing Co., pp. 151-190, 1993.
L. E. Sibert, and R. J. K. Jacob, "Evaluation of Eye Gaze Interaction," Proceedings of the SIGCHI Conference, pp. 281-288, 2000.
Ohno, T. "Quick Menu Selection Task with Eye Mark," Transactions of Information Processing Society of Japan, Vol.40, No.2, pp. 602-612, 1999.
Yamato, M., Monden, A., Matsumoto, K., Inoue, K. and Torii, K, "Quick Button Selection with Eye Gazing for General GUI Environments," International Conference on Software: Theory and Practice, August 2000.
Andrew T. Duchowski, Vinay Shiva shankariah, Tim Rawls, Anand K.Gramopadhye, Brian J. Melloy, and Barbara Kanki, "Binocular Eye Tracking in Virtual Reality for Inspection Training," Proceedings of the 2000 Symposium on Eye Tracking Research & Applications, pp. 89-96, 2000.
Jeong Jun Lee, Kang Ryoung Park, and Jaihie Kim, "Gaze Detection System under HMD Environment for User Interface," Joint Conference of ICANN/ICONIP, June 2003.
이의철, 박강령, "HMD (Head Mounted Display)에서 시선 추적을 통한 3차원 게임 조작 방법 연구," 대한전자공학회 논문지, 제 45권 2호 sp편, pp. 49-64, 2008년 3월.
Daniel Cheng and Roel Vertegaal, "An Eye for an Eye: A Performance Evaluation Comparison of the LC Technologies and Tobii Eye Trackers," Proceedings of ACM Eye Tracking Research and Applications Symposium, San Antonio, 2004.
Shen-Wen Shih, and Jin Liu, "A Novel Approach to 3-D Gaze Tracking Using Stereo Cameras," IEEE Transactions on System, Man, and Cybernetics Part B, Vol.34, No.1, pp. 234-245, Feb. 2004.
Dong Hyun Yoo and Myung Jin Chung, "Non-Intrusive Eye Gaze Estimation without Knowledge of Eye Pose," Proceedings of the Sixth IEEE International Conference on Automatic Face and Gesture Recognition, 2004.
이의철, 박강령, “눈동자 시선 추적에 의한 3차원 1인칭 슈팅 게임,” 한국정보처리학회 논문지, 제12-B권 제4호, pp. 465-472, 2005년 8월.
"Method and Apparatus for Tracking Gaze Position," 미국 특허 출원 중 (출원 번호 : 11/91813, 출원일 : 2007.12.06), 발명자 (이의철 외)
Eui Chul Lee, and Kang Ryoung Park, "A Robust Eye Gaze Tracking Method based on Virtual Eyeball Model," Machine Vision and Applications, Vol.20, Issue 5, pp. 319-337, 2009.
Eui Chul Lee, and Kang Ryoung Park, "A Study on Eye Gaze Estimation Method Based on Cornea Model of Human Eye," Lecture Notes in Computer Science (MIRAGE 2007), Vol.4418, pp. 307-317, INRIA Rocquencourt, France, Mar. 28-30, 2007.
You Jin Ko, Eui Chul Lee, and Kang Ryoung Park, "A Robust Gaze Detection Method by Compensating for Facial Movements Based on Corneal Specularities,' Pattern Recognition Letters, Vol.29, Issue 10, pp. 1474-1485, 15 July 2008.
You Jin Ko, Eui Chul Lee, and Kang Ryoung Park, "A Study on Robust Eye Gaze Tracking System Allowing the Natural Facial Movements," ACCV'07 Workshop on Multidimensional and Multi-view Image Processing, Tokyo, 19 Nov. 2007.
고유진, 이의철, 박강령, "적외선 환경에서 얼굴 및 눈동자 움직임이 자유로운 시선 위치 추적에 대한 연구," 2006년 한국 차세대컴퓨팅학회 논문 발표회, 일산 KINTEX, 2006.11.16-17.
이의철, 박강령, "사용자 시선 추적을 통한 3차원 FPS 게임 화면 조정," 2006년 한국 차세대컴퓨팅학회 논문 발표회, 일산 KINTEX, 2006. 11. 16-17.
Eui Chul Lee, Kang Ryoung Park, Min Cheol Whang, and Junseok Park, "Robust Gaze Tracking Method for Stereoscopic Virtual Reality System," Lecture Notes in Computer Science (HCI International 2007), Vol.4552, pp. 700-709, Beijing, China, July 22-27, 2007.
Eui Chul Lee, Kang Ryoung Park, Min Cheol Whang, and Joa Sang Lim, "Vision-based Gaze Estimation Method For Stereoscopic Display Systems," Proceedings of 10th International Federation of Automatic Control (IFAC), Ritz-Carlton Hotel, Seoul, Korea, 4-6 Sep., 2007.
Eui Chul Lee, You Jin Ko and Kang Ryoung Park, "Gaze Tracking Based on AAM and Multiple SVR on Mobile Device," Optical Engineering, Vol. 48, No. 7, pp. 077002-1-077002-11, 2009.
You Jin Ko, "A Study on Gaze Detection Technology," A Master Thesis of Sangmyung University, 2009. 2.
Cootes, T. F., Edwards, G. J., and Taylor, C. J, "Active Appearance Models," IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol.23, No.6, pp. 681-685, 2001.
DTU(Technical university of Denmark) IMM face database, http://www2.imm.dtu.dk/~aam/(accessed on August 26, 2009)
K. Ando et al., "Effects of Phencyclidine, Secobarbital and Diazepam on Eye Tracking in Rhesus Monkeys," Psychopharmacology, Vol.81, No.4, pp. 295-300, 1983.
Dal-ho Cho, Kang Ryoung Park, Dae Woong Rhee, Yanggon Kim, and Jonghoon Yang, "Pupil and Iris Localization for Iris Recognition in Mobile Phones," Proceedings of SNPD, Las Vegas Nevada, USA, June 19-20, 2006.
장영균, 강병준, 박강령, "홍채 인식을 위한 포물 허프 변환 기반 눈꺼풀 영역 검출 알고리즘," 대한전자공학회 논문지, 제 44권 SP편, 제01호, pp. 94-104, 2007년 1월
R. C. Gonzalez and R. E. Woods, Digital Image Processing, 2/E, Prentice Hall, 2002
Gregory A. Baxes, Digital Image Processing-Principles and Application, Wiley.
http://www.nbinside.com/sony/UX17LP/UX17LP.htm (accessed on August 26, 2009).
이정준, 박강령, 김재희, "얼굴의 회전 및 이동분석에 의한 응시 위치파악," 대한전자공학회, 제 39권(SP편), 제5호, pp. 59-67, 2002년 9월.
Kenichi Ohue, Yukinori Yamada, Shigeyasu Uozumi, Setsuo Tokoro, Akira Hattori, and Takeshi Hayashi, "Development of a New Pre-crash Safety System," Proceedings of the Society of Automotive Engineers, Detroit, MI, USA, April 3-6, 2006.
Erik Murphy-Chutorian, Anup Doshi, and Mohan Manubhai Trivedi, "Head Pose Estimation for Driver Assistance Systems: A Robust Algorithm and Experimental Evaluation," Proceedings of the IEEE Intelligent Transportation Systems Conference, Seattle, WA, USA, Sept. 30 - Oct. 3, 2007.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.