본 연구는 한국인 아동 화자의 영어 발화와 원어민 아동 화자, 한국인 성인 화자, 원어민 성인 화자의 음향적 특성을 각각 분석하고 비교하여 한국인 아동의 영어 음성 인식에 가용한 데이터 후보를 탐색하고, 비원어민 아동 화자의 음성 인식에서의 주요한 문제인 데이터의 부족을 극복하는 방법을 모색하고자 한다. 자동 음성 인식 모델의 성능 향상이 비약적으로 일어났음에도, 비원어민 아동 화자의 특수성과 데이터 수집의 한계 때문에 비원어민 아동 음성 인식은 여전히 충분한 성능을 보이기 어렵다. 이를 극복하기 위한 방안으로 원어민 성인, 원어민 아동, 그리고 한국인 성인 데이터가 한국인 아동 음성인식 성능 향상에 기여할 것이라는 가설을 세웠다. 한국인 성인과 한국인 아동은 음향 특징 상에서 유사한 L1 ...
본 연구는 한국인 아동 화자의 영어 발화와 원어민 아동 화자, 한국인 성인 화자, 원어민 성인 화자의 음향적 특성을 각각 분석하고 비교하여 한국인 아동의 영어 음성 인식에 가용한 데이터 후보를 탐색하고, 비원어민 아동 화자의 음성 인식에서의 주요한 문제인 데이터의 부족을 극복하는 방법을 모색하고자 한다. 자동 음성 인식 모델의 성능 향상이 비약적으로 일어났음에도, 비원어민 아동 화자의 특수성과 데이터 수집의 한계 때문에 비원어민 아동 음성 인식은 여전히 충분한 성능을 보이기 어렵다. 이를 극복하기 위한 방안으로 원어민 성인, 원어민 아동, 그리고 한국인 성인 데이터가 한국인 아동 음성인식 성능 향상에 기여할 것이라는 가설을 세웠다. 한국인 성인과 한국인 아동은 음향 특징 상에서 유사한 L1 간섭 현상을 보일 것이고, 한국인 아동과 원어민 아동은 또한 아동 발달기의 물리적 특성으로 인한 음향적 특성을 공유할 것이라는 가정을 확인하고자 한국인 아동, 원어민 아동, 한국인 성인, 원어민 성인의 데이터를 각각 분석하여 비교하였다. 발화 속도의 지표와 모음 음소 발화의 특성을 알 수 있는 지표를 선별하여 분석하였다. 그 결과 가설과 같이 한국인 아동은 원어민 아동, 한국인 성인과 유사한 조음 경향성을 보임을 확인하였다. 분석 결과에 입각하여, 두 데이터베이스에 한국인 아동 음성 인식 성능을 강화할 수 있는 정보가 포함되었다고 판단하였다. 이를 확인하기 위해 해당 데이터를 대상으로 음향 모델을 훈련하였다. 결과적으로 원어민 성인 데이터만으로 훈련한 모델과 비교하였을 때 큰 성능 개선을 보여주었으나, 본 연구의 결론을 뒷받침하기 위해서는 추가 실험이 시행되어야 할 것이다.
본 연구는 한국인 아동 화자의 영어 발화와 원어민 아동 화자, 한국인 성인 화자, 원어민 성인 화자의 음향적 특성을 각각 분석하고 비교하여 한국인 아동의 영어 음성 인식에 가용한 데이터 후보를 탐색하고, 비원어민 아동 화자의 음성 인식에서의 주요한 문제인 데이터의 부족을 극복하는 방법을 모색하고자 한다. 자동 음성 인식 모델의 성능 향상이 비약적으로 일어났음에도, 비원어민 아동 화자의 특수성과 데이터 수집의 한계 때문에 비원어민 아동 음성 인식은 여전히 충분한 성능을 보이기 어렵다. 이를 극복하기 위한 방안으로 원어민 성인, 원어민 아동, 그리고 한국인 성인 데이터가 한국인 아동 음성인식 성능 향상에 기여할 것이라는 가설을 세웠다. 한국인 성인과 한국인 아동은 음향 특징 상에서 유사한 L1 간섭 현상을 보일 것이고, 한국인 아동과 원어민 아동은 또한 아동 발달기의 물리적 특성으로 인한 음향적 특성을 공유할 것이라는 가정을 확인하고자 한국인 아동, 원어민 아동, 한국인 성인, 원어민 성인의 데이터를 각각 분석하여 비교하였다. 발화 속도의 지표와 모음 음소 발화의 특성을 알 수 있는 지표를 선별하여 분석하였다. 그 결과 가설과 같이 한국인 아동은 원어민 아동, 한국인 성인과 유사한 조음 경향성을 보임을 확인하였다. 분석 결과에 입각하여, 두 데이터베이스에 한국인 아동 음성 인식 성능을 강화할 수 있는 정보가 포함되었다고 판단하였다. 이를 확인하기 위해 해당 데이터를 대상으로 음향 모델을 훈련하였다. 결과적으로 원어민 성인 데이터만으로 훈련한 모델과 비교하였을 때 큰 성능 개선을 보여주었으나, 본 연구의 결론을 뒷받침하기 위해서는 추가 실험이 시행되어야 할 것이다.
This study aims to examine the possibility of utilizing multiple datasets for improving the recognition accuracy of Korean children's English speech. Since the lack of L2 child speech data, the ASR performance of L2 child speech has been substantially lower than the accuracy of native adult speech. ...
This study aims to examine the possibility of utilizing multiple datasets for improving the recognition accuracy of Korean children's English speech. Since the lack of L2 child speech data, the ASR performance of L2 child speech has been substantially lower than the accuracy of native adult speech. The amount of the train data is critical for ASR performance. If domain-specific data is not sufficient, adding data that contains similar characteristics can improve the ASR model. We hypothesized that training an ASR model with native adult, native child and Korean child data may help improve the recognition accuracy of Korean child speech. We firstly analyzed Korean child, native child, Korean adult, and native adult data to test our two assumptions: (1) the native child and the Korean child data have common acoustic features that is distinguished from adult speech, and (2) the Korean child and the Korean adult data share L1 influence that is evident on the spectral features and distinguished from native speakers. The speed measurements such as the rate of speech and articulation rate, and the vowel space area were compared among the data groups. The result showed that the children share formant ranges and slower pace compared to adults, and Korean speakers have a common tendency in pronouncing vowels that is distinguished from native speakers. We concluded that native child and Korean adult speech data has acoustic information that is helpful for recognizing Korean child speech. Based on the analysis result, an ASR model trained with Korean child, native child, Korean adult, and native adult data. The result model showed improved performance compared to the model trained with native adult speech data. Though the improvement was significant (18.45% in word error rate on the clean test-set), the further experiment that can determine the contribution of each group should be conducted.
This study aims to examine the possibility of utilizing multiple datasets for improving the recognition accuracy of Korean children's English speech. Since the lack of L2 child speech data, the ASR performance of L2 child speech has been substantially lower than the accuracy of native adult speech. The amount of the train data is critical for ASR performance. If domain-specific data is not sufficient, adding data that contains similar characteristics can improve the ASR model. We hypothesized that training an ASR model with native adult, native child and Korean child data may help improve the recognition accuracy of Korean child speech. We firstly analyzed Korean child, native child, Korean adult, and native adult data to test our two assumptions: (1) the native child and the Korean child data have common acoustic features that is distinguished from adult speech, and (2) the Korean child and the Korean adult data share L1 influence that is evident on the spectral features and distinguished from native speakers. The speed measurements such as the rate of speech and articulation rate, and the vowel space area were compared among the data groups. The result showed that the children share formant ranges and slower pace compared to adults, and Korean speakers have a common tendency in pronouncing vowels that is distinguished from native speakers. We concluded that native child and Korean adult speech data has acoustic information that is helpful for recognizing Korean child speech. Based on the analysis result, an ASR model trained with Korean child, native child, Korean adult, and native adult data. The result model showed improved performance compared to the model trained with native adult speech data. Though the improvement was significant (18.45% in word error rate on the clean test-set), the further experiment that can determine the contribution of each group should be conducted.
주제어
#Computer Assisted Language Learning Automatic Speech Recognition
학위논문 정보
저자
김서현
학위수여기관
Graduate School, Korea Univeristy
학위구분
국내박사
학과
영어영문학과
지도교수
남호성
발행연도
2021
총페이지
vii, 52장
키워드
Computer Assisted Language Learning Automatic Speech Recognition
※ AI-Helper는 부적절한 답변을 할 수 있습니다.