인공지능(AI)과 음성인식 기술의 발달로 사용자 컴퓨팅 환경에 있어GUI(graphic user interface)에 이어 VUI(voice-user interface)가 등장하였지만, 아직까지 유아영어학습자와 AI 음성인식 시스템간의 언어적 상호작용을 바탕으로 ...
인공지능(AI)과 음성인식 기술의 발달로 사용자 컴퓨팅 환경에 있어GUI(graphic user interface)에 이어 VUI(voice-user interface)가 등장하였지만, 아직까지 유아영어학습자와 AI 음성인식 시스템간의 언어적 상호작용을 바탕으로 제2언어 학습 방안에 대한 연구는 미비한 상황이다. 이에 본 연구는 유아를 대상으로 AI 음성인식 시스템을 활용한 유아영어학습 사례연구를 실시하였다. EFL 환경에서 6~7세 유아 영어학습자는 AI 음성인식 시스템과 어떻게 목표언어로 상호작용을 하는가를 살펴보기 위하여 언어적 상호작용의 피드백 양상과 유아의 의사소통의지(WTC)의 발현을 관찰하였으며, 유아와 AI 음성인식 시스템 간의 언어적 이해조율 장애 해소를 위한 교사의 개입과 역할에 관하여 연구하였다. 연구에 참여한 유아들은 6~7세의 남아 2명과 여아 3명으로 총 8주 간에 걸쳐 각 개인별 8차시씩 연구 수업을 실시하였다. 교사가 목표문장 말하기를 지도한 후 그 문장으로 상호작용을 시도해 보는 방식으로 수업을 진행하였다. 이 과정을 통하여 수업 녹화 동영상 27편(790분) 분량의 전사 자료, 학부모 면담자료, 인터뷰 녹음자료 3개(115분)와 관찰일지 36편을 수집하였다. 수업녹화 전사자료는 연구자가 고안한 ‘AI 상호작용 코드’(AIIC : artficial intelligence interaction code)를 활용하여 재정리하고 분석하였다. 설문조사, 학부모 면담과 관찰일지 자료를 통해 개별 참여자들의 경험과 교실 밖 특이점도 보충하였다. 본 연구의 결과는 다음과 같다. 첫째, 유아영어학습자는 AI 음성인식 시스템과의 언어적인 상호작용을 통해 단어나열형 커뮤니케이션 시도를 문장구성형으로 개선하였다. 피드백의 결과가 없는 단어중심 발화시도는 수업 차시를 더해가며 자연스럽게 소거되었다. 둘째, AI 음성인식 시스템이 주는 피드백의 양상은 유아영어학습자의 목표문장 발화에 따른 AI 음성인식 시스템의 피드백을 yes/no로 구분지어 파악해보니, 내향적인 학습자의 경우 적은 발화시도 횟수에도 불구하고 ‘정확한 발음’으로 높은 인식률을 보인다는 점을 확인하였다. 셋째, AI 음성인식 시스템과의 상호작용을 활용한 수업은 유아영어학습자들의 의사소통의지(WTC)에 영향을 주었다. 대다수 참여자들은 수업의 후반부로 갈수록 좀 더 적극적인 의사소통 의지를 발현하였다. 넷째, 유아영어학습자와 AI 음성인식 시스템 간의 언어능력 수준의 조율과 의사소통 장애 해결을 위하여 의미조율자로서 교사의 개입이 필요하다. 결론적으로 AI 음성인식 시스템은 목표언어의 원어민을 대상으로 기획ㆍ출시된 제품으로 아직까지는 해당언어 수준이 미흡한 비원어민이 사용하기에는 제한이 따른다. 제2언어 습득을 목적으로 활용한다면 교사의 보조역할을 수행하는 단계이다. 현재 완성형에 가까운 음성인식 기술을 바탕으로 온전한 언어 학습형 AI 음성인식 시스템을 개발한다면 비영어권에 거주하고 있는 외국어 학습자들에게 부족한 발화 기회를 늘릴 수 있는 유용한 학습도구로 활용할 것을 기대해 본다.
인공지능(AI)과 음성인식 기술의 발달로 사용자 컴퓨팅 환경에 있어GUI(graphic user interface)에 이어 VUI(voice-user interface)가 등장하였지만, 아직까지 유아영어학습자와 AI 음성인식 시스템간의 언어적 상호작용을 바탕으로 제2언어 학습 방안에 대한 연구는 미비한 상황이다. 이에 본 연구는 유아를 대상으로 AI 음성인식 시스템을 활용한 유아영어학습 사례연구를 실시하였다. EFL 환경에서 6~7세 유아 영어학습자는 AI 음성인식 시스템과 어떻게 목표언어로 상호작용을 하는가를 살펴보기 위하여 언어적 상호작용의 피드백 양상과 유아의 의사소통의지(WTC)의 발현을 관찰하였으며, 유아와 AI 음성인식 시스템 간의 언어적 이해조율 장애 해소를 위한 교사의 개입과 역할에 관하여 연구하였다. 연구에 참여한 유아들은 6~7세의 남아 2명과 여아 3명으로 총 8주 간에 걸쳐 각 개인별 8차시씩 연구 수업을 실시하였다. 교사가 목표문장 말하기를 지도한 후 그 문장으로 상호작용을 시도해 보는 방식으로 수업을 진행하였다. 이 과정을 통하여 수업 녹화 동영상 27편(790분) 분량의 전사 자료, 학부모 면담자료, 인터뷰 녹음자료 3개(115분)와 관찰일지 36편을 수집하였다. 수업녹화 전사자료는 연구자가 고안한 ‘AI 상호작용 코드’(AIIC : artficial intelligence interaction code)를 활용하여 재정리하고 분석하였다. 설문조사, 학부모 면담과 관찰일지 자료를 통해 개별 참여자들의 경험과 교실 밖 특이점도 보충하였다. 본 연구의 결과는 다음과 같다. 첫째, 유아영어학습자는 AI 음성인식 시스템과의 언어적인 상호작용을 통해 단어나열형 커뮤니케이션 시도를 문장구성형으로 개선하였다. 피드백의 결과가 없는 단어중심 발화시도는 수업 차시를 더해가며 자연스럽게 소거되었다. 둘째, AI 음성인식 시스템이 주는 피드백의 양상은 유아영어학습자의 목표문장 발화에 따른 AI 음성인식 시스템의 피드백을 yes/no로 구분지어 파악해보니, 내향적인 학습자의 경우 적은 발화시도 횟수에도 불구하고 ‘정확한 발음’으로 높은 인식률을 보인다는 점을 확인하였다. 셋째, AI 음성인식 시스템과의 상호작용을 활용한 수업은 유아영어학습자들의 의사소통의지(WTC)에 영향을 주었다. 대다수 참여자들은 수업의 후반부로 갈수록 좀 더 적극적인 의사소통 의지를 발현하였다. 넷째, 유아영어학습자와 AI 음성인식 시스템 간의 언어능력 수준의 조율과 의사소통 장애 해결을 위하여 의미조율자로서 교사의 개입이 필요하다. 결론적으로 AI 음성인식 시스템은 목표언어의 원어민을 대상으로 기획ㆍ출시된 제품으로 아직까지는 해당언어 수준이 미흡한 비원어민이 사용하기에는 제한이 따른다. 제2언어 습득을 목적으로 활용한다면 교사의 보조역할을 수행하는 단계이다. 현재 완성형에 가까운 음성인식 기술을 바탕으로 온전한 언어 학습형 AI 음성인식 시스템을 개발한다면 비영어권에 거주하고 있는 외국어 학습자들에게 부족한 발화 기회를 늘릴 수 있는 유용한 학습도구로 활용할 것을 기대해 본다.
Although VUI (voice-user interface) has emerged in the user's computing environment following GUI (Graphic User Interface) with the development of artificial intelligence (AI) and voice recognition technology, there are not many researches on the second language learning method based on the linguist...
Although VUI (voice-user interface) has emerged in the user's computing environment following GUI (Graphic User Interface) with the development of artificial intelligence (AI) and voice recognition technology, there are not many researches on the second language learning method based on the linguistic interactions between early childhood English learners and AI voice recognition systems. Accordingly, this study conducted a case study of early childhood English learning using AI voice recognition system. In order to identify how the 6 to 7-year-old English learners make interactions with AI voice recognition system in target language in the EFL environment, this study observed the feedback patterns of verbal interaction and the expression of WTC in children. Also, this study investigated the intervention and role of teachers in solving the problem of linguistic understanding between children and the AI voice recognition system. The subjects who were 6 to 7 years old were given 8 classes per person for 8 weeks. The class was performed; the teacher taught how to speak target sentence and then tried to interact with the sentence. Through this process, we collected 27 episodes (790 minutes) of transcripts, parents' interview materials, 3 interview voice records (115 minutes), and 36 journals. The scripts of recorded classes were rearranged and analyzed using AIIC (artificial intelligence interaction code) developed by the researcher. Surveys, parent interviews, and observational journal data were used to supplement the experiences of individual participants and specialties out of classes. The results of this study are as follows. First, early childhood English learners improved their word enumerating communication trials to sentence structured type communication through linguistic interactions with AI voice recognition system. Word-centered utterance attempts without feedback results were naturally removed as more classes were performed. Second, when feedbacks of the AI voice recognition system were classified as yes or no according to the target sentence utterance of the early childhood English learners, the aspect of the feedback provided by the AI voice recognition system shows that the intrinsic learners have a high recognition rate with 'correct pronunciation' in spite of the small number of utterance attempts. Third, the class using interactions with AI voice recognition system influenced the WTC of English learners. The majority of participants expressed more willingness to communicate in the later part of the classes. Fourth, teachers' intervention is needed as a meaningful coordinator to adjust language ability level and communication disorder between early childhood English learners and AI voice recognition system. In conclusion, as the AI voice recognition system is designed and launched for native speakers of target language, there are limits for non-native speakers whose language proficiency is insufficient to use the system. If you use it for the purpose of acquiring a second language, it may perform the assistant role of a teacher in the class. If a complete language-learning AI voice recognition system based on the near-perfect voice recognition technology is developed, it can be used as a useful learning tool for foreign language learners who live in non-English speaking countries.
Although VUI (voice-user interface) has emerged in the user's computing environment following GUI (Graphic User Interface) with the development of artificial intelligence (AI) and voice recognition technology, there are not many researches on the second language learning method based on the linguistic interactions between early childhood English learners and AI voice recognition systems. Accordingly, this study conducted a case study of early childhood English learning using AI voice recognition system. In order to identify how the 6 to 7-year-old English learners make interactions with AI voice recognition system in target language in the EFL environment, this study observed the feedback patterns of verbal interaction and the expression of WTC in children. Also, this study investigated the intervention and role of teachers in solving the problem of linguistic understanding between children and the AI voice recognition system. The subjects who were 6 to 7 years old were given 8 classes per person for 8 weeks. The class was performed; the teacher taught how to speak target sentence and then tried to interact with the sentence. Through this process, we collected 27 episodes (790 minutes) of transcripts, parents' interview materials, 3 interview voice records (115 minutes), and 36 journals. The scripts of recorded classes were rearranged and analyzed using AIIC (artificial intelligence interaction code) developed by the researcher. Surveys, parent interviews, and observational journal data were used to supplement the experiences of individual participants and specialties out of classes. The results of this study are as follows. First, early childhood English learners improved their word enumerating communication trials to sentence structured type communication through linguistic interactions with AI voice recognition system. Word-centered utterance attempts without feedback results were naturally removed as more classes were performed. Second, when feedbacks of the AI voice recognition system were classified as yes or no according to the target sentence utterance of the early childhood English learners, the aspect of the feedback provided by the AI voice recognition system shows that the intrinsic learners have a high recognition rate with 'correct pronunciation' in spite of the small number of utterance attempts. Third, the class using interactions with AI voice recognition system influenced the WTC of English learners. The majority of participants expressed more willingness to communicate in the later part of the classes. Fourth, teachers' intervention is needed as a meaningful coordinator to adjust language ability level and communication disorder between early childhood English learners and AI voice recognition system. In conclusion, as the AI voice recognition system is designed and launched for native speakers of target language, there are limits for non-native speakers whose language proficiency is insufficient to use the system. If you use it for the purpose of acquiring a second language, it may perform the assistant role of a teacher in the class. If a complete language-learning AI voice recognition system based on the near-perfect voice recognition technology is developed, it can be used as a useful learning tool for foreign language learners who live in non-English speaking countries.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.