본 논문에서는 로봇의 시각시스템에 효과적으로 적용할 수 있는 얼굴인식 방법을 제안하였다. 제안한 알고리즘은 얼굴영상의 색상추출과 특징점을 이용하여 인식한다. 색상추출은 피부색, 눈동자색, 입술색의 차를 이용하였으며, 특징정보는 눈, 코, 입에서 추출된 특징점 사이의 거리, 거리 비율, 각도, 면적의 차를 특징 파라미터로 이용하였다. 특징 파라미터를 퍼지화 데이터로 멤버십 함수를 생성한 후, 유사도를 평가하여 얼굴을 인식하였다. 입력받은 정면 칼라 영상으로 실험한 결과 96%의 인식율을 나타내었다.
본 논문에서는 로봇의 시각시스템에 효과적으로 적용할 수 있는 얼굴인식 방법을 제안하였다. 제안한 알고리즘은 얼굴영상의 색상추출과 특징점을 이용하여 인식한다. 색상추출은 피부색, 눈동자색, 입술색의 차를 이용하였으며, 특징정보는 눈, 코, 입에서 추출된 특징점 사이의 거리, 거리 비율, 각도, 면적의 차를 특징 파라미터로 이용하였다. 특징 파라미터를 퍼지화 데이터로 멤버십 함수를 생성한 후, 유사도를 평가하여 얼굴을 인식하였다. 입력받은 정면 칼라 영상으로 실험한 결과 96%의 인식율을 나타내었다.
This paper proposed the face recognition method which can be effectively applied to the robot's vision system. The proposed algorithm is recognition using hue extraction and feature point. hue extraction was using difference of skin color, pupil color, lips color. Features information were extractio...
This paper proposed the face recognition method which can be effectively applied to the robot's vision system. The proposed algorithm is recognition using hue extraction and feature point. hue extraction was using difference of skin color, pupil color, lips color. Features information were extraction from eye, nose and mouth using feature parameters of the difference between the feature point, distance ratio, angle, area. Feature parameters fuzzified data with the data generated by membership function, then evaluate the degree of similarity was the face recognition. The result of experiment are conducted with frontal color images of face as input images the received recognition rate of 96%.
This paper proposed the face recognition method which can be effectively applied to the robot's vision system. The proposed algorithm is recognition using hue extraction and feature point. hue extraction was using difference of skin color, pupil color, lips color. Features information were extraction from eye, nose and mouth using feature parameters of the difference between the feature point, distance ratio, angle, area. Feature parameters fuzzified data with the data generated by membership function, then evaluate the degree of similarity was the face recognition. The result of experiment are conducted with frontal color images of face as input images the received recognition rate of 96%.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 논문에서는 로봇의 시각시스템에 적용하기 위하여 칼라영상에서 얼굴을 인식하는 알고리즘을 제안하고자 한다. 제안한 알고리즘은 칼라정보와 특징정보로 구성하였다.
본 논문에서는 얼굴에 대한 정면 칼라 영상을 입력받아 칼라정보와 특징정보를 퍼지추론하여 얼굴을 인식하는 알고리즘을 제안하였다. 실험은 디지털 카메라로부터 칼라영상을 입력받아 칼라 정보와 특징점에 대한 거리, 거리비, 각도, 면적의 차에 대하여 퍼지추론한 결과 다음과 같은 결론을 얻었다.
제안 방법
검출된 얼굴영역[7]에서 얼굴인식을 위한 특징 파라미터를 검출하기 위하여 이진영상을 이용하였다. 얼굴을 인식하기 위한 눈, 코, 입의 특징정보를 추출하기 위하여 이진영상에 특징 마스크를 적용하였다.
특징점 사이의 거리, 거리비, 각도, 면적의 차를 특징 파라미터로 퍼지추론하여 인식하였다. 멤버십 함수의 형태는 삼각형형으로 하였으며, 등록영상 10개와 각각의 등록영상에 대하여 10개를 추가로 입력 받아 계산된 인식 파라미터의 차를 근거로 정하였다. 표 1은 특징점에 대한 퍼지화 데이터를 보여주는 것이다.
본 논문에서는 얼굴에 대한 정면 칼라 영상을 입력받아 칼라정보와 특징정보를 퍼지추론하여 얼굴을 인식하는 알고리즘을 제안하였다. 실험은 디지털 카메라로부터 칼라영상을 입력받아 칼라 정보와 특징점에 대한 거리, 거리비, 각도, 면적의 차에 대하여 퍼지추론한 결과 다음과 같은 결론을 얻었다.
검출된 얼굴영역[7]에서 얼굴인식을 위한 특징 파라미터를 검출하기 위하여 이진영상을 이용하였다. 얼굴을 인식하기 위한 눈, 코, 입의 특징정보를 추출하기 위하여 이진영상에 특징 마스크를 적용하였다. 특징 마스크가 적용되어진 영역을 제외한 모든 픽셀을 1로 놓고 가산투영을 실시하였다.
얼굴을 인식하기 위한 방법으로 눈, 코, 입에서 추출된 특징점을 사용하였다. 특징점 사이의 거리, 거리비, 각도, 면적의 차를 특징 파라미터로 퍼지추론하여 인식하였다.
)로 특징점을 추출한다. 얼굴을 인식하기 위한 특징파라미터로 특징점간의 거리, 거리비, 각도, 면적등을 이용하였다. 특징점간의 거리는 특징점이 위치하고 있는 좌표 (x1, y1)과 이웃하는 특징점의 좌표 (x2, y2)간의 거리를 나타내는 것으로, 식 (3)과 같이 정의된다.
본 논문에서는 로봇의 시각시스템에 적용하기 위하여 칼라영상에서 얼굴을 인식하는 알고리즘을 제안하고자 한다. 제안한 알고리즘은 칼라정보와 특징정보로 구성하였다. 칼라정보는 피부색, 눈동자색, 입술색의 차를 특징파라미터로 멤버십 함수를 생성 유사도를 평가하였으며, 특징 정보는 눈, 코, 입에서 추출된 특징점 사이의 거리, 거리비, 각도, 면적의 차를 특징 파라미터로 멤버십 함수를 생성 유사도를 평가하였다.
제안한 알고리즘은 칼라정보와 특징정보로 구성하였다. 칼라정보는 피부색, 눈동자색, 입술색의 차를 특징파라미터로 멤버십 함수를 생성 유사도를 평가하였으며, 특징 정보는 눈, 코, 입에서 추출된 특징점 사이의 거리, 거리비, 각도, 면적의 차를 특징 파라미터로 멤버십 함수를 생성 유사도를 평가하였다.
얼굴을 인식하기 위한 눈, 코, 입의 특징정보를 추출하기 위하여 이진영상에 특징 마스크를 적용하였다. 특징 마스크가 적용되어진 영역을 제외한 모든 픽셀을 1로 놓고 가산투영을 실시하였다. 가산투영 처리되어진 영상에서 특징정보의 중심위치를 추출하기 위하여 영상의 중심좌표를 이용하며 식 (1)과 같다.
얼굴을 인식하기 위한 방법으로 눈, 코, 입에서 추출된 특징점을 사용하였다. 특징점 사이의 거리, 거리비, 각도, 면적의 차를 특징 파라미터로 퍼지추론하여 인식하였다. 멤버십 함수의 형태는 삼각형형으로 하였으며, 등록영상 10개와 각각의 등록영상에 대하여 10개를 추가로 입력 받아 계산된 인식 파라미터의 차를 근거로 정하였다.
퍼지추론을 이용하여 등록영상의 특징 파라미터와 입력영상의 특징 파라미터의 유사도를 계산하기 위하여 먼저 등록영상의 파라미터에 대한 멤버십 함수를 결정하고, 등록파라미터의 멤버십 함수에 대응하는 입력파라미터의 멤버십 함수를 계산하여 유사도 계산을 위한 합성연산을 수행한다. 등록영상의 특징파라미터를 A라 하고, 입력영상의 특징파라미터를 B라 할 때 두 특징 파라미터의 유사도 계산 과정을 표 2와 같이 정의된다.
대상 데이터
제안한 알고리즘의 타당성을 검증하기 위하여 등록영상 10장에 대하여 추가로 10장의 영상을 입력받아 실험하였다. 그림 1은 실험에 사용된 등록영상과 입력영상을 나타낸 것이다.
제안한 알고리즘의 타당성을 검토하기 위하여 디지털 카메라로부터 입력받은 320×240 크기의 칼라영상을 입력받아 인식율에 대한 실험을 하고자 한다.
성능/효과
1. 영상에 대한 국부적 가산투영 방법을 이용하여 얼굴영상의 특징점을 비교적 정확하게 추출할 수 있었다.
2. 얼굴영상에 대한 에지정보와 이진영상을 같이 이용하여 파라미터의 변화를 줄일 수 있었다.
3. 10개의 등록영상에 대하여 10개를 추가로 입력받아 인식에 대한 실험을 한 결과 96%의 인식율을 나타내었다.
후속연구
이와 같은 연구결과는 로봇의 시각시스템에 적용 사용자를 인식하기 위한 시스템에 적용되리라 사료된다. 향후 연구 과제로는 인식되어진 영상을 이용하여 사용자의 표정을 인식하기 위한 연구가 계속되어야 하겠다.
이와 같은 연구결과는 로봇의 시각시스템에 적용 사용자를 인식하기 위한 시스템에 적용되리라 사료된다. 향후 연구 과제로는 인식되어진 영상을 이용하여 사용자의 표정을 인식하기 위한 연구가 계속되어야 하겠다.
질의응답
핵심어
질문
논문에서 추출한 답변
칼라영상에서 얼굴을 인식하는 알고리즘에서 특징 정보는 무엇인가?
제안한 알고리즘은 칼라정보와 특징정보로 구성하였다. 칼라정보는 피부색, 눈동자색, 입술색의 차를 특징파라미터로 멤버십 함수를 생성 유사도를 평가하였으며, 특징 정보는 눈, 코, 입에서 추출된 특징점 사이의 거리, 거리비, 각도, 면적의 차를 특징 파라미터로 멤버십 함수를 생성 유사도를 평가하였다.
지능형 로봇은 무엇인가?
지능형 로봇은 외부환경을 인식하고, 스스로 상황을 판단하여 자율적으로 동작하는 로봇을 의미한다. 스스로 사용자를 인식하여 사용자가 원하는 일을 하고 정보를 제공하기 위해 가장 핵심적인 기능이 시각 지능화로 얼굴을 검출하고 인식하기 위한 연구가 활발히 진행되고 있다[1].
얼굴인식을 위한 평가 방법으로는 어떤 것들이 있는가?
얼굴인식을 위한 평가 방법으로는 얼굴의 기하학적인 정보를 이용하거나 얼굴의 특징 성분인 눈, 코, 입, 턱등의 특징정보를 이용하여 그 크기와 모양, 상호 연관성등의 요소들을 혼합된 형태의 정보로 이용하여 얼굴을 인식하는 방법으로 퍼지추론을 이용하는 방법[3], 영상 집합에 의해 학습되어진 모델을 이용하여 얼굴을 인식하는 신경망을 이용하는 방법[4], 개개인의 얼굴 정보를 공간상에서 적절히 부호화하여 사용하는 주성분 분석 방법[5], 클래스간 분산과 클래스내 분산의 비율을 최대화하는 방식으로 데이터의 특징벡터 차원을 축소하는 선형판별분석방법[6] 등이 있다.
참고문헌 (7)
Waring. C. A, Liu Xiuwen, "Face detection using spectral histograms and SVMs" Man and Cybernetics of IEEE Transactions on systems, Vol.35, No.3, pp.467-476, 2005.
B. A. Draper, K. Baek, M. S. Barlett, and J. R. Beveridge, "Recognizing Faces with PCA and ICA", Computer Vision and Imaging Understanding 91, pp. 115-137, 2003.
P. N. Belhumeur, J. P. Hespanha, D. J. Kriegman, "Eigenfaces vs. Fisherfaces: Recognition using class specific Linear Projection", IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 19, no. 7, pp. 711-720, 1997.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.