보고서 정보
주관연구기관 |
한국전자통신연구원 Electronics and Telecommunications Research Institute |
연구책임자 |
윤호섭
|
참여연구자 |
양현승
,
최진영
,
유하진
,
Gerard Medioni
|
보고서유형 | 연차보고서 |
발행국가 | 대한민국 |
언어 |
한국어
|
발행년월 | 2016-11 |
과제시작연도 |
2016 |
주관부처 |
미래창조과학부 Ministry of Science, ICT and Future Planning |
등록번호 |
TRKO201700008838 |
과제고유번호 |
1711047470 |
사업명 |
한국전자통신연구원연구운영비지원 |
DB 구축일자 |
2017-10-14
|
키워드 |
인간로봇상호작용.인지센서네트워크.사용자신원인식.얼굴인식.객체추적.제스처인식.행동인식.
|
DOI |
https://doi.org/10.23000/TRKO201700008838 |
초록
▼
Ⅰ. 해당 연도 추진 현황
Ⅰ-1 기술개발 추진 일정
Ⅰ-2 해당 연도 추진 실적
1. 인지센서네트워크 프레임워크 구축 및 성능 고도화
o 환경에 설치 및 구축이 용이한 형태의 표준화된 인지센서네트워크 프레임 워크 개발
- IP 카메라 및 웹캠 설치에 따른 사용자 추적 및 인식 가용성 분석, 카메라의 종류, 대수 및 설치원칙 수립.
1) 단일 기종 카메라 사용
- 이기종 카메라 혼합을 배제, 단일 기종의 카메라(네트워크 IP 카메라)를 선택. 영상 신호 동기화, 카메라 배선의 간편함, 입
Ⅰ. 해당 연도 추진 현황
Ⅰ-1 기술개발 추진 일정
Ⅰ-2 해당 연도 추진 실적
1. 인지센서네트워크 프레임워크 구축 및 성능 고도화
o 환경에 설치 및 구축이 용이한 형태의 표준화된 인지센서네트워크 프레임 워크 개발
- IP 카메라 및 웹캠 설치에 따른 사용자 추적 및 인식 가용성 분석, 카메라의 종류, 대수 및 설치원칙 수립.
1) 단일 기종 카메라 사용
- 이기종 카메라 혼합을 배제, 단일 기종의 카메라(네트워크 IP 카메라)를 선택. 영상 신호 동기화, 카메라 배선의 간편함, 입력 신호 인터페이스의 간결함과 같은 장점 얻음.
2) 카메라 대수의 간소화
- 한 서버에서 처리할 수 있는 카메라 처리 대수는 성능 목표상을 구현 가능 확인(서버당 카메라 처리대수: 5차년도 6대, 6차년도 8대).
- IP 카메라 8 대를 설치 환경 및 서비스 시나리오를 고려하여 천장의 앞(5), 뒤(1), 좌(1), 우(1)에 설치. 줌 렌즈를 이용하여 FOV를 조절. 추적과 인식에 동일한 카메라를 사용하고, 중복되는 카메라 영상을 처리하지 않음으로써 비용 절감 효과 기대.
o 인지센서네트워크 환경 구축
- ETRI 테스트베드, IP카메라 8대 이용 PSN 환경 구축
- Arecontvision AV5255PMIR-SH 모델 (5MP)
- NETGEAR 기가비트 POE 스위치 GS516TP
o 인지센서네트워크 통합 S/W 플랫폼 고도화
- 위치추적 및 행동인식은 CPU를 사용하고, 신원 인식은 GPU를 사용하여 실시간 30명 인식 가능
- 앉은 자세, 선 자세를 구분하여 서서 움직이는 사용자에 대해서만 얼굴인식을 수행하여 컴퓨팅 파워 절감
- 음성기반 화자인식 결과와 영상기반 얼굴인식 결과 융합을 통해 신원인식 신뢰도 향상
o 3W 인식 정보에 기반한 상황 인식 기술 개발
- 공간내의 사용자 위치에 따라 사용자 군집화 정도 추정 및 인지센서네트워크 프레임워크에 출력
o 스마트 클래스 시나리오에 따른 PSN 통합 S/W
플랫폼 사용자 인식률 시험 완료
- PSN 통합 사용자 인식 시연을 위해 스마트 클래스 환경을 가정하고, ETRI 실험실에 책상과 의자를 설치하여 30명이 수업을 듣는 교실 환경을 모사한.
시나리오를 개발. 성인 30명의 데이터베이스를 8대의 고해상도(5MP) 카메라로 수집
- 사람 추적 결과와 신원 인식 결과 융합, 인식률은 전체 신원 인식 시도 중 true positive로 계산
- 결과: 30명에 대한 인식결과를 ground-truth와 비교한 결과 99.254% 인식률 (올바르게 인식된 횟수 / 인식시도 횟수) (13,041 / 13,139) 을 보임.
통합 S/W 플랫폼 사용자 인식률 99% 기준을 만족
o PSN 기반 3W 컴포넌트 OPRoS화
- 현재 개발된 3W 컴포넌트를 OPRoS 모듈로 포팅 진행 중 (12월 중 개발 완료 예정)
< 주요산출물 >
o S/W
- PSN 프레임워크 프로토타입
o 논문
- “지능형 로봇을 위한 실환경의 사용자 신원, 위치 정보 자동 추출 및 인식 S/W 개발,” 2016년 대한전자공학회 하계학술대회
2 실환경 로봇단말용 신원인식 컴포넌트 최적화
o Deep Convolutional Neural Network 방식을 적용하여 deep feature extraction을 통해 조명, 표정 등에 강인한 얼굴 매칭 기술 개발
o 정면 얼굴 인식
- LFW DB(6,000쌍) wild 환경에서 촬영된 다양한 조명, 표정, 포즈, 화질을 포함한 공인 신원인식 성능평가용 DB. 동일인물 300쌍, 다른인물 300쌍을 하나의 셋으로 총 10개의 셋으로 구성. 결과: 98.27% (목표: 98%)
- 국가공인 KISA DB: 조명, 표정, 포즈, 액세서리 변화가 포함된 얼굴 영상 데이터베이스로 부터 얼굴 검증 인식율 테스트. 조명, 표정, 포즈 변화해 대해 테스트 셋당 정면 1장 등록, 17장의 동일 얼굴 테스트 및 499명x17장의 타인 얼굴 테스트를 EER 1%이내로 달성, 인식율 기준 99%, 2셋 평균치임
< 주요 산출물 >
o 논문
- “1x1 필터를 이용한 CNN 요약모델”, 제 11회 한국로봇종합학술대회
- “A Pseudo Ensemble Convolutional Neural Networks”, Ubiqeitous Robots and Abmient Intelligence 2016
- “합성곱 신경망을 이용한 성별인식”, 2016 대한전자공학회 하계학술대회
o 얼굴인식 공인인증서
3. 실환경 로봇 단말용 위치인식 컴포넌트 최적화
o 정면, 측면얼굴 검출 및 전방향 상반신 개별 검출기 융합을 통한 사용자 검출 기술 개발
- 전방향 얼굴 검출기 개발, Local Binary Pattern 특징, AdaBoost 활용.
- 전방향 얼굴 검출기, 전방향 상반신 검출기 및 전신 검출기 동시 활용한 사람 검출. 연속된 프레임 사이에서 검출에 실패하는 객체를 추적
(mean-shift)하여 예측된 영역을 검출기에 재적용.
- Ground-Truth 2,354명 기준 2,318명의 사용자 검출, 검출률은 98.5%로 (목표: 98%) 평가기준을 만족, 속도는 960x540 영상에서 5.23fps, VGA 영상 기준 5 fps 이상 기준을 만족, (Intel i7 3.2GHz CPU)
< 주요 산출물 >
o S/W
- 2D 영상 기반 사용자 검출 엔진
o 논문
- "개별 검출기 융합을 통한 사람 검출률 향상", 한국로봇종합학술대회
- “AdaBoost 검출기 최적화 및 ARM Cortex-A8 적용” HCI Korea 2016
4. 로봇단말용 특정 사용자추종 컴포넌트 최적화
o 장애물을 회피하면서 지정된 특정 사용자만을 추종하는 기술 개발
- 장애물 회피 시 추종 중인 사용자가 카메라 화각을 벗어남에 따라, 추종중인 대상을 재인식하는 사람 재인식(re-identification) 기술 필요
- 딥러닝 기술을 이용하여 사람 재인식 성능 개선, 이를 위한 Siamese network 구성 및 학습
- 사람 재인식의 경우 기존 metric learning 방법과 비교시 Rank-10 인식 정확도 약 28%p 향상
(기존: 52%, 개선: 80%, CUHK03 DB 기준)
- 완전 겹침 상황을 포함한 환경에서 추종 성공률 92% (실환경 24회 반복 테스트 결과, 5차년도 목표: 90% 이상 달성)
< 주요 산출물 >
o S/W
- 장애물을 회피하면서 특정 사용자를 추종하는 로봇 단말용 사람추종 시스템
o 논문
- "Person Re-identification in a Person-following Robot", IEEE RO-MAN 2016.
5. 로봇단말용 손 제스처 인식 기술 최적화
o 양손 제스처 인식 기술 고도화
- 제스처 spotting 기술 적용
: Stand 자세를 이용하여 의미 있는 제스처를 획득하게 함
[Stand자세를 이용한 제스처 spotting]
[제스처 spotting 기반 인식 작업 절차]
- 양손 제스처 인식 작업 (10가지 제스처)
: Depth 영상을 기반으로 정면/왼쪽측면/오른쪽 측면 MHI(Motion History Image)를 적용하여 인식 작업을 수행함
: 양손 제스처에 대하여 98.03% 인식률 달성
(5차년도 정량 목표 : 98%)
[정면/왼쪽/오른쪽 MHI 생성]
6. 인지센서네트워크 프레임워크 국내외 표준안 제안(TTA, 4건)
o 인간-로봇 상호작용(HRI) 응용 컴포넌트 표준화
- 인간-로봇 상호작용 서비스를 위한 로봇 응용 프로그램을 로봇 하드웨어 플랫폼에 독립적으로 손쉽게 개발 지원
o 개방형 로봇 소프트웨어 플랫폼의 HRI 상호작용
응용 컴포넌트 프로파일 표준안 갱신중(12월 표준완료)
- KROS 1067-2:2024 표준의 개방형 로봇 소프트웨어 플랫폼용 컴포넌트 정의 준용
- 14개의 HRI 기본 Component 인터페이스 (1)
Person Detection; (2) Person Localization; (3) Person Identification; (4) Face Detection; (5) Face Localization; (6) Sound Detection; (7) Sound Localization; (8) Speech Recognition; (9) Gesture Recognition; (10) Speech Synthesis; (11) Reaction. (12) Navigation (13) Follow (14) Move
o 스마트디바이스와 로봇간의 인터페이스 및 서비스관련 표준안 2건 신청중(12월 표준완료)
- 용어와 정리 표준화
- 로봇 인터페이스 표준화
o 개방형 로봇 소프트웨어 플랫폼-장치 추상화를 위한 공통 로봇 인터페이스 표준안 신청중(12월 표준완료)
- 다수의 로봇 플랫폼에 손쉽게 적용 가능한 로봇 부속장치에 대한 의존적인 부분 추상화 표준화
7. 다중시점기반 신원인식 컴포넌트 최적화
o 기존의 얼굴 검출기는 실험실 환경에서 촬영된 얼굴 영상들로부터 학습되어서 실환경 데이터셋에 적용시 얼굴 검출률이 낮음. 이러한 한계를 극복하기 위해 대용량 데이터셋으로부터 얻은 얼굴 영상들로부터 얼굴 검출기를 재학습
[무제약 환경에서 촬영된 데이터로부터 얼굴 검출기 학습]
o 학습에는 face detection data set and benchmark (FDDB), faces in the wild (FIW) 라는 large scale dataset 사용
- 기존 얼굴 검출기에서 사용된 Adaboost와 HOG의 성능을 개선하기 위해 Haar-like feature, locol binary patterns (LBP)를 사용하여 얼굴 패턴을 기술
[얼굴 검출기 학습에 사용된 모델 파라미터]
o Affine SIFT의 성능 개선을 위한 다양한 특징추출 기법 도입
- Pose 변화에 강인한 key point를 찾기 위해 입력 영상에 대해서 Affine simulation 적용
- 기존에 얼굴의 특징 벡터로 사용된 scale-invariant keypoint (SIFT) 외에도, speeded up robust features(SURF), features from accelerated segment test (FAST), Efficient alternative to SIFT or SURF(ORB)를 적용하여 특징 벡터 추출
[Affine simulation + key point detection + patch representation]
o 의복 영역 특징 추출.
- 얼굴 위치를 기반으로 기하학적 위치와 비율정보를 활용하여 의복 영역 위치 보정
- VGG-Net(크기가 작은 convolution layer를 여러번 연이어 사용하여 국제 영상 인식 대회 ILSVRC 2014 에서 가장 좋은 이미지 분류 성능을 보여준 모델)을 기반으로 의복에 대한 학습을 통해 딥러닝 특징 추출.
< 주요 산출물 >
o S/W
- PSN Demon을 위한 얼굴 인식 S/W
- 다중 시점 기반 의복 인식 S/W
[딥러닝 특징을 이용한 의복영역 특징 추출]
8. 딥러닝 기반 신원인식 컴포넌트 성능 개선
o 정량적 평가를 위한 ground truth labeling
[Ground truth labeling]
o 딥러닝 특징 벡터를 활용한 얼굴 인식
- 기존 특징 추출 방법들에 비해 매우 우수한 성능을 보이는 딥러닝 벡터를 적용
- 딥러닝 모델로는 LFW(Labeled Faces in the Wild) 데이터셋에서 우수한 결과를 보이는 VGG-Face를 사용
- 기존 Affine SIFT 등으로 description을 하던 모듈을 딥러닝 특징으로 대체
- 기존 nearest neighbor(NN) 분류기를 VGG-Face의 softmax 레이어로 교체
[딥러닝을 이용한 얼굴 영역 특징 벡터 추출]
[VGG-Face 네트워크 구성표]
[각 특징 벡터에 따른 성능 비교]
o 포즈 변화에 강인한 딥러닝 특징 벡터 학습
- VGG-Face CNN 모델을 PSN 데이터셋으로 튜닝
[Fine tuning for VGG-Face]
[트레이닝과 테스트 시 accuracy(%)와 cost function value]
o MatConvNet을 PSN-Who 모듈에 적용
- VGG그룹에서 제작한 오픈소스 MATLAB CNN toolbox인 MatConvNet을 Visual Studio 프로젝트로 포팅
- PSN-Who에서 VGG-Face 모델 활용 가능
- 속도 향상을 위해 GPU 버전으로 제작
o 시점 변화에 따른 얼굴 인식률 98% 이상 (30명 기준)
- ETRI PSN 2016.05.27 Dataset 평가 기준
- 얼굴 인식률 98.10%
[각 person ID 별 인식률]
< 주요 산출물 >
o S/W
- PSN Demon을 위한 딥러닝 기반 얼굴 인식 S/W
o 논문
- “Locality-preserving descriptor for robust texture feature representation”, Neurocomputing
- “얼굴과 의복 정보를 활용한 딥러닝 기반 신원인식”, 대한전자공학회 하계종합학술대회
9. 객체 탐지 기술 성능개선
o 실제 교실 환경과 유사한 smart class 데이터셋 구축
- 앞(3), 뒤, 좌, 우 총 6대의 카메라 설치
- 모든 카메라 뷰에 대하여 GT 작업
- 다양한 얼굴 각도, 다양한 뷰에 따른 조명 변화와 화질 변화에 대하여 더 robust한 head detector 학습이 가능
o 새로 촬영한 DB에 대한 Head-Detector 학습
- 올해는 사람의 밀도가 높고(7 m x 7 m 기준 30명) 하반신이 책상이나 같은 사람끼리 가려지는 상황이 많음
- 따라서 전신모델보다 Head model로 학습
- 총 49,413의 sample 확보
- 학습결과 상당수의 fp가 줄어듦을 확인 할 수 있었음
올해 촬영한 smart class dataset은 2개의 셋으로 구성되어 있음. 하나는 학습용, 하나는 테스트용으로 사용함. 학습용에서 총 1,755장의 이미지(각 카메라 뷰에서 같은 비율로 샘플링)를 통해 학습. 테스트 시에는 다른 셋에서 동일한 조건에서 테스트함.
- 탐지성공률 : 99.38% 달성 (목표 99%)
- 그 외 :
# of ground truth : 9,536
# of true positives : 9,477
# of false positives : 721
Recall : 99.38 %
Precision : 92.93 %
< 주요 산출물 >
o S/W
- 머리 모델 기반 실시간 객체 탐지 알고리즘(VS 2012/2013, 32/64 bit)
- smart class data에서 머리의 bounding box ground truth 확보
o 논문
- “실 환경 보행자 탐지를 위한 선택적 피라미드 탐색 알고리즘”, 2016 대한전자공학회 하계 종합학술대회.
10. 다중카메라 상에서의 객체 추적 기술 성능개선 100%
o 여러 대의 카메라를 이용하여 가려짐(Occlusion)에 강인한 추적 알고리즘 개발
- 머리 탐지 결과를 기반으로 한 다중 카메라에서의 실시간 추적 기술 개발
- 추적 성능 평가를 위한 Ground Truth 태깅 작업
- 대부분의 사람이 앉아 있는 교실 상황에 적합한 새로운 알고리즘 개발
o 실시간 다중 카메라 추적 알고리즘
- 입력으로 들어오는 머리 탐지 결과를 가만히 있는 사람과 돌아다니는 사람으로 분리
- 가만히 있는 사람에 대해서는 라벨을 유지하고 돌아다니는 사람에 데이터 연관 기법을 이용한 추적 알고리즘 적용
- 한 사람이라고 생각되어지는 탐지 결과를 묶어서 (Clique) 하나로 생각하여 그래프 문제로 치환
- 초기해는 헝가리안 방법으로 구함
- Time window 내에서 무작위 분할 병합을 반복하여 비용 함수가 줄어드는 방향으로 알고리즘 진행
o Smart-class 데이타셋 추적 결과
[3차원 추적 결과]
- 평가 척도 :
- 객체 추적율 : 99.25% 달성 (목표 99%)
< 주요 산출물 >
o S/W
- 다중 카메라 객체 추적 시스템
- 추적 데이터셋 및 트랙의 ground truth 확보
o 논문
- “실환경 적용을 위한 다중 시점 다중 객체 탐지 및 추적 시스템”, 2016 대한전자공학회 하계 종합 학술대회.
11. 단일 객체의 행동 인식 기술 성능개선
o 실시간으로 행동인식을 수행하기 위하여 각 프레임마다 이미지 분류 기법을 이용하여 자세를 판단함
- 한 이미지에서의 자세로만 판단할 수 없는 행동은 모션 정보를 이용하여 연속된 프레임들을 보고 판단
- 다른 물체나 사람에 의한 가려짐이 없는 상황을 가정하고 행동을 인식함
- 이미지 분류 알고리즘은 Locality-constrained Linear Coding(LLC)을 이용
- 행동인식 대상에 대한 추적 상자(Tracking box)가 주어진 상황을 가정하고, 특징점을 추출하여 Codebook을 생성한 후 LLC 기법을 이용해 이미지를 코딩함
- 다중 클래스(Multiclass) SVM을 사용하여 이미지를 학습하고 자세를 판단함
- 다중 카메라 상황임을 이용하여 각 카메라에서 사람의 자세를 추정한 후 classification score를 이용한 majority vote로 결과를 보정
o Webcam 데이터셋
- 행동 : 서기, 앉기, 손들기, 손흔들기, 엎드리기
- 평가 척도 : (올바르게 인식된 프레임 수) / (총 프레임 수)
- 행동 인식률 : 98.13 % 달성 (목표 98%)
o S/W
- 다중 카메라 행동 인식 알고리즘
12. 3D 얼굴 인식 컴포넌트 성능개선 및 최적화
ㅇ 표정변화를 포함하는 입력에서의 모델링 알고리즘 성능 향상
- 기존의 3차원 모델링 방법은 비디오 스트림에서 무표정 얼굴을 가정함.
- RGBD 영상에서 변형(deformation) 정도를 정량화한 후에, 표정이 있는 3차원 입력 데이터를 무표정 데이터로 변환하여 정합하는 기술 개발.
- Blendshape 모형을 이용하여, 3차원 얼굴모양의 변형을 측정.
- 추정된 Blendshape 계수를 이용, 변형이 포함된 원데이터를 무표정 데이터로 변형시킴.
- 입력 RGBD 비디오에서, 표정을 정규화 함으로서, 표정변화에 강인하게 3차원 얼굴모델링 가능.
o 성능평가
- 단위모듈 별 성능평가 (표정변화를 포함한 영상에 대한 모델링 성능 비교)
- 정성적, 정량적 분석을 통해 제안하는 방법이 월등히 뛰어난 품질의 삼차원 모델을 제공함을 확인.
[모듈테스트 결과: USC에서 구성한 소규모 데이터 베이스를 (30 video segments, 10명의 피험자) 이용한 분석에서, 제안 방법을 이용하는 경우, 매칭성능이 현저하게 향상됨을 확인 (참고: 실험에서 비교한 기존 방법은, 무표정 30명 DB에 대하여, 100% rank 1 인식성능을 보였음 – 4차년도 결과)].
ㅇ 딥러닝을 이용한 삼차원 1:N 식별 알고리즘 구현
- 최초로 3차원 얼굴인식에 딥러닝 방법 적용.
- 딥러닝의 주요 제약점 (딥네트웍의 훈련에 대량의 레이블 데이터가 필요)을 해결하기 위한 삼차원 데이터 augmentation 기법 개발.
- 삼차원 입력자료에 대해서, 통계적인 모델을 이용한 표정 변화 기법을 적용하여 많은 수의 다양한 데이터를 생성.
- 표정변화에 추가하여, 자세변화, 오클루전 등을 고려한 데이터를 생성.
- Augmentation 기법으로 생성된 데이터를 이용하여, 2차원 인식에 사용되었던 DCNN (Deep Convolutional Neural Networks) 을 기반으로 트랜스퍼 러닝을 수행.
- 표준화된 데이터베이스에 대해서 실험을 수행한 결과, 수작업으로 고안된 특징 추출을 사용하는 종래의 방법들에 비하여, 매우 뛰어난 인식성능을 보임.
- 인식에 특징벡터만을 사용하기 때문에, 대량의 데이터베이스에 대하여 고속의 1:N 식별이 가능
(입력데이터 전처리에 평균 3.16초 소요, 매칭에 0.09초/특징벡터 소요)
[딥러닝 학습을 위해 생성된 augmented data의 사례]
[표준 데이터베이스 (Bosphorus DB)에 대한 인식실험 결과: CMC (좌), ROC (우). 99.2% rank 1 accuracy, 현재까지 보고된 가장 높은 성능]
(목표 성능 98%)
[표준 데이터베이스 (BU-3DFE DB)에 대한 인식실험 결과: CMC (좌), ROC (우). 95.0% rank 1 accuracy – 표정변화, 가려짐 등을 포함한 데이터]
o S/W
- IRIS 3D face modeling S/W 2016(표정변화에 강인한 모델링)
- IRIS 3D face identification S/W
o 논문
- "Accurate 3D face modeling and recognition from RGB-D stream in the presence of large pose changes." In Image Processing (ICIP), 2016 IEEE International Conference on, pp. 3011-3015. IEEE, 2016.
- “Expression Invariant 3D Face Modeling from an RGB-D Video”, ICPR 2016.
13. 음향신호 기반 상황인식 기술 고도화
o 4차년도에 구축한 상황인식 시스템을 기반으로 pre-training 등의 고도화 기법을 적용해 성능 향상
o 성능평가
- 상황 식별률: 95.27%
- 목표 성능: 95.00%
o I-vector와 DNN을 이용한 상황인식 시스템 구현
o 아래의 시스템에서 발생할 수 있는 over-fitting 문제를 해결하기 위해 DNN이 음향 특징을 pre-training 할 수 있도록 고도화
o 상황인식 기술 고도화와 관련된 연구의 목표 성능을 조기 만족시켜 추가적으로 유치원 환경에서 발생할 수 있는 이상 상황을 검출할 수 있는 기술개발
- 유치원에서 발생할 수 있는 아이울음 소리, 유리깨지는 소리 등을 분석해 이상 상황을 검출
- 이상 상황 검출 기술 개발 및 울음 소리와 유리소리를 삽입한 유치원 음성에 적용한 결과
o 일반적인 유치원 환경에서 수집한 음성에 이상 상황 음성과 단순 잡음을 임의로 삽입한 뒤, 이상 상황 음성을 검출하는 성능평가 결과
- 정밀도(precision): 73.56%
- 재현율(recall): 78.07%
- f1 score: 0.73
o 실시간 상황인식 데모 프로그램
14. 화자인식 기술 고도화
o 노인 화자와 어린이 화자를 대상으로하는 화자인증 시스템 고도화
o 기존의 화자인증 시스템(i-vector PLDA)을 DNN으로 완전히 대체하는 end-to-end DNN 구조를 제안
- 기존 I-vector PLDA 시스템의 주요 프로세스들을 DNN을 사용해서 수행
- 화자인증에 최적화된 특징 추출 및 강화, scoring 가능
o 어린이 화자의 3초 평가 발성을 대상으로 성능 평가 (EER 기준 화자인증 오류율)
- I-vector PLDA (baseline): 2.02%
- 제안한 end-to-end DNN: 1.97%
- 목표 성능: 5% 이하
o 제안한 end-to-end DNN 구조의 개요
15. 서버당 카메라 처리대수
o 인지센서네트워크 환경에서의 테스트 시나리오 구동시의 서버당 카메라 처리 대수 확인
o 총 8대의 IP카메라를 설치하여, PSN 데모를 위해 동시에 입력가능하며, 실시간으로 인식됨을 확인하였음
(출처 : Ⅰ. 해당 연도 추진 현황 3p)
목차 Contents
- 표지 ... 1연차보고서 ... 2Ⅰ. 해당 연도 추진 현황 ... 3 Ⅰ-1. 기술개발 추진 일정 ... 3 Ⅰ-2. 해당 연도 추진 실적 ... 5Ⅱ. 기술개발결과 ... 32 Ⅱ-1. 논문 성과 ... 32 Ⅱ-2. 특허 출원 및 등록 성과 ... 36 Ⅱ-3. 표준화 성과 ... 36 Ⅱ-4. 시제품 성과 ... 36 Ⅱ-5. 기술 성과 ... 38 Ⅱ-6. 기타 성과 ... 39Ⅲ. 결론 및 차년도 계획 ... 40Ⅳ. 기업 재무건전성 현황 ... 44Ⅴ. 자체보안관리진단표 ... 44Ⅶ. 유형적 발생품(연구시설, 연구장비 등) 구입 및 관리 현황 ... 45끝페이지 ... 45
※ AI-Helper는 부적절한 답변을 할 수 있습니다.