최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기한국방송공학회 2010년도 하계학술대회, 2010 July 08, 2010년, pp.195 - 197
오재현 (아주대학교 전자공학과) , 곽노준 (아주대학교 전자공학과)
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
얼굴 인식 분야에서 사용되는 차원 감소 방법 중 LDA 의 목적은? | 얼굴 인식 분야에서 사용되는 차원 감소 방법에는 아공간( subspace ) 방법들이 많이 사용되며 이들 중 대표적인 것으로 LDA (Linear Discriminant Analysis) [2], NLDA (null space based LDA) [3] 등의 방법이 있다. 이 중 LDA는 각 클래스 간 떨어진 정도를 최대화하는 것이 목적으로 특징 벡터의 차원을 감소시키는 기법 중의 하나이며, 클래스간 분산과 클래스내 분산의 비율을 최대화하는 방법을 이용하여 데이터에 대한 특징 벡터의 차원을 축소한다. 본 논문에서 적용하는 알고리즘인 LDAr은 LDA의 기본개념인 각 클래스 간 떨어진 정도를 최대화하는 것이 목적으로 클래스간 분산과 클래스내 분산의 비율을 최대화 하는 방법을 응용하여 이를 회귀문제에 적용할 수 있게 변형을 한 것이다[4]. | |
극좌표계 변환은 어떤 방식으로 데이터를 재구성하는가? | 극좌표계 변환은 얼굴의 중심부를 기준점으로 일정한 반지름의 원을 그리며 360도 방향으로 각각 원의 중심에서부터 반지름의 끝 부분까지 샘플링을 하여 얼굴 데이터를 재구성한다. 눈, 코, 입 등 얼굴의 주요 특징들이 얼굴의 중심부분에 집중적으로 모여 있으므로, 만일 극좌표계와 평행좌표계를 이용하는 영상이 동일한 수의 픽셀로 이루어져 있다면 극좌표계에서 얼굴의 주요 특징점들이 평행좌표계보다 더많이 샘플링되는 효과가 있다. | |
얼굴 인식 분야에서 사용되는 차원 감소 방법에는 무엇들이 있는가? | 입력 차원을 줄이면, 특징 벡터를 간결하게 다루는 효과를 얻으며, 입력 차원이 커질 때 발생하는 차원의 저주 [1] 같은 문제를 해결하는 효과를 얻을 수 있다. 얼굴 인식 분야에서 사용되는 차원 감소 방법에는 아공간( subspace ) 방법들이 많이 사용되며 이들 중 대표적인 것으로 LDA (Linear Discriminant Analysis) [2], NLDA (null space based LDA) [3] 등의 방법이 있다. 이 중 LDA는 각 클래스 간 떨어진 정도를 최대화하는 것이 목적으로 특징 벡터의 차원을 감소시키는 기법 중의 하나이며, 클래스간 분산과 클래스내 분산의 비율을 최대화하는 방법을 이용하여 데이터에 대한 특징 벡터의 차원을 축소한다. |
*원문 PDF 파일 및 링크정보가 존재하지 않을 경우 KISTI DDS 시스템에서 제공하는 원문복사서비스를 사용할 수 있습니다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.