본 논문에서는 운전자의 졸음 방지 시스템 구현을 위해 운전자의 상태를 “평상시 상태”, “부주의한 상태”, “하품 상태”, “잠든 상태” 4개의 동작으로 구분하고 각 상태에 따른 주요 얼굴 특징만을 확인하여 얼굴 동작 인식을 할 수 있도록 하였다. 각 상태에 따른 사전 지식과 연속된 프레임에서 시간과 공간으로 나타나는 현상으로 얼굴 동작을 인식할 수 있다. 각 상태에 따른 얼굴 특징을 미리 정의하여 정의된 특징을 검출토록 하였으며, 현재 프레임의 입, 눈, 주름과 같은 다른 얼굴 특징뿐 만 아니라 이전 프레임의 얼굴 특징들의 정보를 융합하여 인식하도록 하였다. 이러한 방법으로 다양한 제약 조건하에서 효율적인 분류와 실시간 동작 인식을 할 수 있도록 하였다. 추론 결과에 따라 상태별로 운전자의 음성이나 ...
본 논문에서는 운전자의 졸음 방지 시스템 구현을 위해 운전자의 상태를 “평상시 상태”, “부주의한 상태”, “하품 상태”, “잠든 상태” 4개의 동작으로 구분하고 각 상태에 따른 주요 얼굴 특징만을 확인하여 얼굴 동작 인식을 할 수 있도록 하였다. 각 상태에 따른 사전 지식과 연속된 프레임에서 시간과 공간으로 나타나는 현상으로 얼굴 동작을 인식할 수 있다. 각 상태에 따른 얼굴 특징을 미리 정의하여 정의된 특징을 검출토록 하였으며, 현재 프레임의 입, 눈, 주름과 같은 다른 얼굴 특징뿐 만 아니라 이전 프레임의 얼굴 특징들의 정보를 융합하여 인식하도록 하였다. 이러한 방법으로 다양한 제약 조건하에서 효율적인 분류와 실시간 동작 인식을 할 수 있도록 하였다. 추론 결과에 따라 상태별로 운전자의 음성이나 비상등 점멸 등으로 경고해준다. 피검자를 대상으로 능동적으로 졸음운전 방지를 위하여 운전자의 동작을 분류한 결과 “부주의한 상태”, “하품 상태”, “잠든 상태”, “평상시 상태”에 대한 평균 인식률은 98.3%, 99.6%, 97.1%, 98.6% 이었고 전체적인 평균 인식률은 98.6%로 나타났으며 기존의 HMM 방식과 비교하여 약 6.5% 정도 인식률이 향상되었음을 확인 할 수 있었다. 그러므로 제안된 방법이 효율적으로 얼굴 동작을 인식 할 수 있고 유용하게 졸음운전 방지 시스템으로 사용 되어질 수 있음을 증명하였다.
본 논문에서는 운전자의 졸음 방지 시스템 구현을 위해 운전자의 상태를 “평상시 상태”, “부주의한 상태”, “하품 상태”, “잠든 상태” 4개의 동작으로 구분하고 각 상태에 따른 주요 얼굴 특징만을 확인하여 얼굴 동작 인식을 할 수 있도록 하였다. 각 상태에 따른 사전 지식과 연속된 프레임에서 시간과 공간으로 나타나는 현상으로 얼굴 동작을 인식할 수 있다. 각 상태에 따른 얼굴 특징을 미리 정의하여 정의된 특징을 검출토록 하였으며, 현재 프레임의 입, 눈, 주름과 같은 다른 얼굴 특징뿐 만 아니라 이전 프레임의 얼굴 특징들의 정보를 융합하여 인식하도록 하였다. 이러한 방법으로 다양한 제약 조건하에서 효율적인 분류와 실시간 동작 인식을 할 수 있도록 하였다. 추론 결과에 따라 상태별로 운전자의 음성이나 비상등 점멸 등으로 경고해준다. 피검자를 대상으로 능동적으로 졸음운전 방지를 위하여 운전자의 동작을 분류한 결과 “부주의한 상태”, “하품 상태”, “잠든 상태”, “평상시 상태”에 대한 평균 인식률은 98.3%, 99.6%, 97.1%, 98.6% 이었고 전체적인 평균 인식률은 98.6%로 나타났으며 기존의 HMM 방식과 비교하여 약 6.5% 정도 인식률이 향상되었음을 확인 할 수 있었다. 그러므로 제안된 방법이 효율적으로 얼굴 동작을 인식 할 수 있고 유용하게 졸음운전 방지 시스템으로 사용 되어질 수 있음을 증명하였다.
Facial behaviors represent activities of face or facial feature in spatial or temporal space, such as facial expressions, face pose, gaze, and furrow happenings. An automated system for facial behavior recognition is always desirable. However, it is a challenging task due to the richness and ambigui...
Facial behaviors represent activities of face or facial feature in spatial or temporal space, such as facial expressions, face pose, gaze, and furrow happenings. An automated system for facial behavior recognition is always desirable. However, it is a challenging task due to the richness and ambiguity in daily facial behaviors. This paper presents an efficient approach to real-world facial behavior recognition. With dynamic Bayesian network (DBN) technology and a general-purpose facial behavior description language (e.g., FACS), a task oriented framework is constructed to systematically represent facial behaviors of interest and the associated visual observations. Based on the task oriented DBN, we can integrate analysis results from previous times and prior knowledge of the application domain both spatially and temporally. With the top-down inference, the system can make dynamic and active selection among multiple visual channels. With the bottom-up inference from observed evidences, the current facial behavior can be classified with a desired confidence via belief propagation. We demonstrate the proposed task-oriented framework for monitoring driver vigilance. Experimental results demonstrate the validity and efficiency of our approach.
Facial behaviors represent activities of face or facial feature in spatial or temporal space, such as facial expressions, face pose, gaze, and furrow happenings. An automated system for facial behavior recognition is always desirable. However, it is a challenging task due to the richness and ambiguity in daily facial behaviors. This paper presents an efficient approach to real-world facial behavior recognition. With dynamic Bayesian network (DBN) technology and a general-purpose facial behavior description language (e.g., FACS), a task oriented framework is constructed to systematically represent facial behaviors of interest and the associated visual observations. Based on the task oriented DBN, we can integrate analysis results from previous times and prior knowledge of the application domain both spatially and temporally. With the top-down inference, the system can make dynamic and active selection among multiple visual channels. With the bottom-up inference from observed evidences, the current facial behavior can be classified with a desired confidence via belief propagation. We demonstrate the proposed task-oriented framework for monitoring driver vigilance. Experimental results demonstrate the validity and efficiency of our approach.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.