강의의 목표는 학습자가 강의 내용에 대해 충분한 이해를 하도록 하는 것이다. 이를 위해서는 교수자는 학습자가 자신이 가르치고 있는 내용에 대해 잘 이해를 하고 있는 지를 파악하는 것이 필수적이다. 현장형 혹은 실시간 강의에서는 강의를 진행하며 교수자가 학습자의 행동 및 자세를 직접 관찰하거나, 강의 내용에 대한 이해를 했는 지에 관해 질문하는 방법을 이용할 수 있다. 하지만, 온라인 강의 플랫폼을 활용한 녹화형 강의의 경우 교수자와 학습자의 시공간적인 차이가 존재하여 기존의 방법을 활용하는 것에 제한이 발생한다. 본 논문에서는 웨어러블 ...
강의의 목표는 학습자가 강의 내용에 대해 충분한 이해를 하도록 하는 것이다. 이를 위해서는 교수자는 학습자가 자신이 가르치고 있는 내용에 대해 잘 이해를 하고 있는 지를 파악하는 것이 필수적이다. 현장형 혹은 실시간 강의에서는 강의를 진행하며 교수자가 학습자의 행동 및 자세를 직접 관찰하거나, 강의 내용에 대한 이해를 했는 지에 관해 질문하는 방법을 이용할 수 있다. 하지만, 온라인 강의 플랫폼을 활용한 녹화형 강의의 경우 교수자와 학습자의 시공간적인 차이가 존재하여 기존의 방법을 활용하는 것에 제한이 발생한다. 본 논문에서는 웨어러블 IMU센서를 이용하여 온라인 강의를 듣는 학습자의 이해도를 파악하는 시스템을 제안한 다. 제안하는 시스템은 1) IMU센서가 결합된 이어버드 형태의 디바이스를 사용하여 학습자의 행동 및 자세를 인식하고 2)인식된 행동 및 자세로 부터 추출된 행동 및 자세의 특징을 기반으로 학습자의 이해도를 분류한다. 학습자의 행동 및 자세를 인식하는 모델은 글로벌 모델로서 F1 스코어 0.8의 성능을 보이는 것을 확인하였으며, 이해도 분류 모델은 개인화된모델로서 F1 스코어 0.83의 성능을 보임을 확인하였다.
강의의 목표는 학습자가 강의 내용에 대해 충분한 이해를 하도록 하는 것이다. 이를 위해서는 교수자는 학습자가 자신이 가르치고 있는 내용에 대해 잘 이해를 하고 있는 지를 파악하는 것이 필수적이다. 현장형 혹은 실시간 강의에서는 강의를 진행하며 교수자가 학습자의 행동 및 자세를 직접 관찰하거나, 강의 내용에 대한 이해를 했는 지에 관해 질문하는 방법을 이용할 수 있다. 하지만, 온라인 강의 플랫폼을 활용한 녹화형 강의의 경우 교수자와 학습자의 시공간적인 차이가 존재하여 기존의 방법을 활용하는 것에 제한이 발생한다. 본 논문에서는 웨어러블 IMU센서를 이용하여 온라인 강의를 듣는 학습자의 이해도를 파악하는 시스템을 제안한 다. 제안하는 시스템은 1) IMU센서가 결합된 이어버드 형태의 디바이스를 사용하여 학습자의 행동 및 자세를 인식하고 2)인식된 행동 및 자세로 부터 추출된 행동 및 자세의 특징을 기반으로 학습자의 이해도를 분류한다. 학습자의 행동 및 자세를 인식하는 모델은 글로벌 모델로서 F1 스코어 0.8의 성능을 보이는 것을 확인하였으며, 이해도 분류 모델은 개인화된모델로서 F1 스코어 0.83의 성능을 보임을 확인하였다.
The goal of the lecture is to make learners fully understand the content of the lecture. To do this, the instructor needs to determine whether the learner has a good understanding of what he or she is teaching. In the on-site or real-time lecture, the instructor can directly observe the learner's ge...
The goal of the lecture is to make learners fully understand the content of the lecture. To do this, the instructor needs to determine whether the learner has a good understanding of what he or she is teaching. In the on-site or real-time lecture, the instructor can directly observe the learner's gesture and posture during the lecture, or use a question about whether they have understood the contents of the lecture. However, in the case of recorded lectures using the online lecture platform, there is a temporal and spatial difference between the instructor and the learner, which limits the use of existing methods. In this paper, we propose a system to analyze online learners' understanding of online lectures using a wearable IMU sensor. The proposed system 1) recognizes the learner's gesture and posture using an earbud-type device combined with an IMU sensor, and 2) classifies the learner's understanding based on the features of the gesture and posture extracted from the recognized gesture and posture. Our evaluation shows that a global learner's gesture and posture recognition model achieves F1-score of 0.8, and a personalized understanding classification model achieves F1-score of 0.83.
The goal of the lecture is to make learners fully understand the content of the lecture. To do this, the instructor needs to determine whether the learner has a good understanding of what he or she is teaching. In the on-site or real-time lecture, the instructor can directly observe the learner's gesture and posture during the lecture, or use a question about whether they have understood the contents of the lecture. However, in the case of recorded lectures using the online lecture platform, there is a temporal and spatial difference between the instructor and the learner, which limits the use of existing methods. In this paper, we propose a system to analyze online learners' understanding of online lectures using a wearable IMU sensor. The proposed system 1) recognizes the learner's gesture and posture using an earbud-type device combined with an IMU sensor, and 2) classifies the learner's understanding based on the features of the gesture and posture extracted from the recognized gesture and posture. Our evaluation shows that a global learner's gesture and posture recognition model achieves F1-score of 0.8, and a personalized understanding classification model achieves F1-score of 0.83.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.