오늘날 감정 표현이 서툰 영유아가 처한 극도의 스트레스 상태를 자동적으로 파악하는 것은 영유아의 안전을 위협하며 지속적으로 발생하는 위험 상황의 실시간적인 인지를 위해 반드시 필요한 기술이다. 따라서 본 논문에서는 생체신호를 활용하여 영유아의 스트레스 상태를 분류하기 위한 기계학습 기반의 모델과 생체신호 수집용 스마트 밴드 및 모니터링용 모바일 어플리케이션을 제안한다. 구체적으로 본 연구에서는 영유아의 감정을 나타내는 주요한 요인이 되는 음성 및 심박 데이터의 조합을 활용하여 기존에 널리 알려진 데이터 마이닝 기법을 통해 영유아의 스트레스 상태 패턴을 학습하고 예측한다. 본 연구를 통해 생체신호를 활용하여 영유아의 스트레스 상태 식별을 자동화할 수 있는 가능성을 확인하였으며 나아가서 궁극적으로 영유아의 위험 상황 예방에 활용될 수 있을 것으로 기대된다.
오늘날 감정 표현이 서툰 영유아가 처한 극도의 스트레스 상태를 자동적으로 파악하는 것은 영유아의 안전을 위협하며 지속적으로 발생하는 위험 상황의 실시간적인 인지를 위해 반드시 필요한 기술이다. 따라서 본 논문에서는 생체신호를 활용하여 영유아의 스트레스 상태를 분류하기 위한 기계학습 기반의 모델과 생체신호 수집용 스마트 밴드 및 모니터링용 모바일 어플리케이션을 제안한다. 구체적으로 본 연구에서는 영유아의 감정을 나타내는 주요한 요인이 되는 음성 및 심박 데이터의 조합을 활용하여 기존에 널리 알려진 데이터 마이닝 기법을 통해 영유아의 스트레스 상태 패턴을 학습하고 예측한다. 본 연구를 통해 생체신호를 활용하여 영유아의 스트레스 상태 식별을 자동화할 수 있는 가능성을 확인하였으며 나아가서 궁극적으로 영유아의 위험 상황 예방에 활용될 수 있을 것으로 기대된다.
Recently, identification of the extremely stressed condition of children is an essential skill for real-time recognition of a dangerous situation because incidents of children have been dramatically increased. In this paper, therefore, we present a model based on machine learning techniques for stre...
Recently, identification of the extremely stressed condition of children is an essential skill for real-time recognition of a dangerous situation because incidents of children have been dramatically increased. In this paper, therefore, we present a model based on machine learning techniques for stress status identification of a child by using bio-signals such as voice and heart rate that are major factors for presenting a child's emotion. In addition, a smart band for collecting such bio-signals and a mobile application for monitoring child's stress status are also suggested. Specifically, the proposed method utilizes stress patterns of children that are obtained in advance for the purpose of training stress status identification model. Then, the model is used to predict the current stress status for a child and is designed based on conventional machine learning algorithms. The experiment results conducted by using a real-world dataset showed that the possibility of automated detection of a child's stress status with a satisfactory level of accuracy. Furthermore, the research results are expected to be used for preventing child's dangerous situations.
Recently, identification of the extremely stressed condition of children is an essential skill for real-time recognition of a dangerous situation because incidents of children have been dramatically increased. In this paper, therefore, we present a model based on machine learning techniques for stress status identification of a child by using bio-signals such as voice and heart rate that are major factors for presenting a child's emotion. In addition, a smart band for collecting such bio-signals and a mobile application for monitoring child's stress status are also suggested. Specifically, the proposed method utilizes stress patterns of children that are obtained in advance for the purpose of training stress status identification model. Then, the model is used to predict the current stress status for a child and is designed based on conventional machine learning algorithms. The experiment results conducted by using a real-world dataset showed that the possibility of automated detection of a child's stress status with a satisfactory level of accuracy. Furthermore, the research results are expected to be used for preventing child's dangerous situations.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
따라서 본 논문에서는 음성 데이터와 심박 데이터의 조합을 활용하여 영유아 스트레스 상태 식별 모델을 제안한다. 영유아의 웃음 및 울음소리와 같은 음성 데이터는 감정 표현이 서툰 영유아의 스트레스 상태를 인지할 수 있는 중요한 요인이 된다[9, 23, 28].
또한 가속도계, 자이로스코프 센서 등 영유아의 움직임을 감지할 수 있는 생체 센서를 추가하여 구제척인 영유아의 행동 패턴을 분석하고 보다 정교한 영유아의 스트레스 상태식별 모델을 수립하고자 한다.
본 논문에서는 생체신호를 활용하여 영유아의 스트레스 상태를 식별하는 모델을 제안하였다. 감정 표현이 서툰 영유아의 경우 위험 상황이 사후에 밝혀지며 문제가 가중되기 때문에, 실시간적으로 영유아의 스트레스 상태를 파악하여 위험 상황을 인지하기 위한 방법론을 고안하였다.
이를 통해 보호자는 영유아의 위험 상황을 즉각적으로 인지하고 빠르게 대처할 수 있을 것이다. 본 논문의 연구 결과는 두 생체신호의 조합을 활용한 영유아 스트레스 상태식별 모델 및 제안 프레임워크가 실제 영유아의 위험 상황에 적용될 수 있는 가능성을 시사한다. 추후 어린이집 및 보호자의 협조를 통해 영유아를 대상으로 한 실험 환경이 조성된다면 실제상황에서 모델을 검증할 수 있을 것으로 기대된다.
본 논문에서는 생체신호를 활용하여 영유아의 스트레스 상태를 식별하는 모델을 제안하였다. 감정 표현이 서툰 영유아의 경우 위험 상황이 사후에 밝혀지며 문제가 가중되기 때문에, 실시간적으로 영유아의 스트레스 상태를 파악하여 위험 상황을 인지하기 위한 방법론을 고안하였다. 생체신호로서 영유아의 감정을 나타낼 수 있는 음성 데이터와 심박 데이터를 활용하였으며, 기계학습 기반의 모델을 생성하여 영유아의 스트레스 상태를 식별하였다.
이 모델들은 대표적인 분류 알고리즘으로서 멀티모달 데이터를 학습한 사용자 예측, 문서의 자동 분류 등에서 널리 활용되고 있다[6, 12, 26]. 구체적으로 분류 모델을 이용하여 음성 데이터와 심박 데이터를 토대로 식별 모델을 생성한 후, 새로운 데이터를 입력받으면 영유아의 스트레스 상태 여부를 분류한다.
구체적으로 음성 데이터는 10초 동안의 기록으로 다양한 소리 및 음향효과를 포함하는 공개된 데이터[3]를 이용하여 ‘Stress’ 상태를 표현하는 데이터로써 울음소리를, ‘Non-Stress’ 상태를 표현하는 데이터로써 웃음소리, 대화소리, 비명소리, 박수 소리 및 생활 잡음을 구성하였다.
심박 데이터는 일반 피실험자 6명을 대상으로 일주일동안 일상 생활에서의 데이터를 수집한 후 설문조사를 통해 피실험자가 스트레스 상태에 있을 때와 비스트레스 상태에 있을 때의 심박 수를 분류하였다. 그 후, 수집한 음성 데이터를 듣고 각 음성과 적합한 상태일 때의 심박수 값을 피실험자들의 심박수 값과 비교하여 전문가의 견해에 따라 형성하였다.
나아가서 영유아의 생체신호를 수집 한 후 스트레스 상태를 식별하고 그 결과를 모니터링할 수 있는 시스템을 제안한다. 제안된 시스템은 다음과 같이 세 가지 구성 요소를 포함한다.
첫 번째로 영유아의 생체신호를 수집하기 위하여 음성 및 심박 센서를 탑재한 스마트 밴드를 개발한다. 두 번째로 수집된 생체신호는 본 논문에서 제안하는 영유아 스트레스 상태식별 모델에 의해 계산되어 스트레스 상태를 식별한다. 마지막으로 식별된 결과를 실시간으로 모니터링할 수 있는 모바일 어플리케이션을 개발한다.
제안 모델은 음성 및 심박 데이터의 조합을 사용하였을 때 가장 우수한 성능을 나타내었다. 또한 스마트 밴드를 통해 생체신호를 수집하고 제안 모델을 통해 식별된 영유아의 스트레스 상태를 실시간으로 모바일 어플리케이션에 전송하는 프레임워크를 제안하였다. 이를 통해 보호자는 영유아의 위험 상황을 즉각적으로 인지하고 빠르게 대처할 수 있을 것이다.
구체적으로 음성 데이터는 10초 동안의 기록으로 다양한 소리 및 음향효과를 포함하는 공개된 데이터[3]를 이용하여 ‘Stress’ 상태를 표현하는 데이터로써 울음소리를, ‘Non-Stress’ 상태를 표현하는 데이터로써 웃음소리, 대화소리, 비명소리, 박수 소리 및 생활 잡음을 구성하였다. 또한 음성 데이터 추출 시 설정은 기존연구들을 참고하여 표본 추출 비율(Sampling Rate) 16kHz에서 윈도우의 사이즈는 32ms로 설정하며 데이터의 손실을 최소화하기 위하여윈도우를 겹치는 오버래핑(Overlapping)을 66%로 설정하여 진행했다[17].
또한 음성 데이터만을 사용한 데이터 집합과 음성 데이터와 심박 데이터를 함께 사용한 데이터 집합의 비교 실험을 통하여 두 생체 데이터 조합의 실효성을 검증한다. 실험 결과, 음성 데이터와 심박 데이터를 함께 사용한 데이터 집합에서 SVM 모델이 약 89%의 정확도로 가장 높은 모델 성능을 보였으며, 이를 통해 영유아의 스트레스 상태식별을 자동화할 수 있는 가능성을 확인하였다.
두 번째로 수집된 생체신호는 본 논문에서 제안하는 영유아 스트레스 상태식별 모델에 의해 계산되어 스트레스 상태를 식별한다. 마지막으로 식별된 결과를 실시간으로 모니터링할 수 있는 모바일 어플리케이션을 개발한다. 제안된 시스템을 통하여 보호자는 영유아의 문제 상황을 실시간으로 인지하고 대처할 수 있다.
본 논문에서는 S와 만으로 분류할 수 없는 데이터의 노이즈를 감안하여 판별 경계에 여유를 둔 소프트 마진 방식을 사용한다.
본 논문에서는 기존 연구들이 가지는 한계점을 고려하여 영유아에게 적합한 음성 및 심박 데이터의 조합을 사용한다. 또한, 두 가지의 생체신호를 활용한 영유아의 스트레스 상태식별 모델을 통해 영유아의 위험 상황을 감지할 수 있는 연구를 제안한다.
본 연구에서는 총 N개의 인스턴스(Instance), T = { V1, V2, V3, ⋯, VN}, 를 사용하며 T의 원소는 독립 동일 분포(Independent Identical Distribution)를 가진다. 각 인스턴스는 한 개의 심박데이터와 M개의 음성 데이터로 구성되며 그 중 i번째 인스턴스는 입력벡터 Vi = {vi0, vi1, ⋯, viM}, i = 1, 2, ⋯, N로 표현된다.
본 장에서는 영유아 스트레스 상태식별 모델을 제안한다. 제3.
감정 표현이 서툰 영유아의 경우 위험 상황이 사후에 밝혀지며 문제가 가중되기 때문에, 실시간적으로 영유아의 스트레스 상태를 파악하여 위험 상황을 인지하기 위한 방법론을 고안하였다. 생체신호로서 영유아의 감정을 나타낼 수 있는 음성 데이터와 심박 데이터를 활용하였으며, 기계학습 기반의 모델을 생성하여 영유아의 스트레스 상태를 식별하였다.
심박 데이터는 일반 피실험자 6명을 대상으로 일주일동안 일상 생활에서의 데이터를 수집한 후 설문조사를 통해 피실험자가 스트레스 상태에 있을 때와 비스트레스 상태에 있을 때의 심박 수를 분류하였다. 그 후, 수집한 음성 데이터를 듣고 각 음성과 적합한 상태일 때의 심박수 값을 피실험자들의 심박수 값과 비교하여 전문가의 견해에 따라 형성하였다.
제안된 모델의 성능을 평가하기 위한 지표로써는 데이터의 불균형을 고려하여 일반 정확도(Accuracy)와 균형된 정확도(Balanced Accuracy)를 함께 사용하였다. 균형된 정확도는 불균형한 데이터 집합에서의 편향된 분류를 감지할 수 있으며 균형적인 데이터 집합을 가질 때 대수적으로 일반 정확도와 같은 값을 갖는다[5].
제안된 시스템은 다음과 같이 세 가지 구성 요소를 포함한다. 첫 번째로 영유아의 생체신호를 수집하기 위하여 음성 및 심박 센서를 탑재한 스마트 밴드를 개발한다. 두 번째로 수집된 생체신호는 본 논문에서 제안하는 영유아 스트레스 상태식별 모델에 의해 계산되어 스트레스 상태를 식별한다.
학습 데이터와 실험 데이터의 비율은 9:1로 10겹 교차 검증(10-folds cross validation)을 실시하여 모든 데이터가 실험에 쓰일 수 있도록 하였다.
대상 데이터
데이터 집합 입력벡터의 수는 Dataset EH와 Dataset IH 모두 총 496개이며 상태 S로 구분되는 입력벡터 수는 124개, 로 구분되는 입력벡터 수는 372개로 구성되어 있다.
실험 데이터가 모델에 적용되면 영유아의 상태는 ‘Stress’ 또는 ‘Non-Stress’로 식별된다. 또한 실험 데이터는 영유아 A(Child A)가 착용한 웨어러블 디바이스인 스마트 밴드로부터 음성과 심박 신호의 입력 데이터를 수집한 후 전처리 과정을 거쳐 이용된다.
본 논문에서 제안하는 영유아 스트레스 상태식별 모델 검증을 위한 실험 데이터로는 [Table 3]과 같이 두 가지의 데이터 집합(Dataset)을 구성하였다.
본 논문에서는 소리 특징 값의 추출을 위하여 공개된 소리특징추출기 라이브러리를 사용하였다[20]. [Table 2]는 McKay의 연구에서 사용되는 소리특징추출기 라이브러리를 통해서 추출된 대표적인 값들의 특징을 나타낸다[19].
이론/모형
본 연구에서는 대표적인 기계학습 분류모델인 NB, DT, SVM을 적용하여 영유아의 스트레스 상태를 식별한다.
연속적인 값을 지니는 심박 및 음성 데이터는 감독 이산화(Supervised Discretization)를 거쳐 활용하였다[8]. 또한, 집합 Uj의 원소가 독립을 가정하기 때문에 P(vi0, vi1, ⋯, viM|Ci)는 i′ = 1, 2, ⋯, N, j= 0, 1, ⋯, M으로 다시 나타낼 수 있다.
영유아 스트레스 상태 식별을 위해서는 기계학습의 의사결정나무(DT, Decision Tree), 서포트벡터머신(SVM, Support Vector Machine), 나이브베이즈(NB, Naive Bayes) 모델을 활용한다. 이 모델들은 대표적인 분류 알고리즘으로서 멀티모달 데이터를 학습한 사용자 예측, 문서의 자동 분류 등에서 널리 활용되고 있다[6, 12, 26].
성능/효과
Dataset IH에서 SVM 모델의 일반 정확도는 DT 모델과 NB 모델 대비 약 0.9%, 39.31%의 향상률을 보였으며, 균형된 정확도는 각각 1.96%, 25.8%의 향상률을 보였다. SVM 모델의 향상률은 NB 모델에 대비하여 눈에 띄는 향상률을 보여준다.
실험 결과, 세 가지 분류모델은 Dataset IH를 사용하였을 경우 모두 Dataset EH 대비 더 나은 성능을 보여준다. SVM 모델의 경우 일반정확도와 균형된 정확도에서 각각 약 46%,104%로 가장 높은 정확도 향상률을 보였다. 특히 균형된 정확도를 사용하였을 때 크게 향상되는 것을 확인할 수 있으며 이는 Dataset EH에서 발생한 불균형 데이터 집합으로 인한 오류를 음성 및 심박 데이터의 조합을 통해 개선하였음을 의미한다.
이는 DT 모델과 SVM 모델이 Dataset IH에서 모두 높은 확률로 영유아의 스트레스 상태를 분류하였기 때문이다. 그러나 Dataset EH에서 DT 모델이 SVM 모델보다 더 좋은 성능을 보였던 것을 감안하였을 때, Dataset IH에서 SVM 모델이 DT 모델보다 높은 결과를 가져온 것은 음성 및 심박 데이터 조합이 SVM 모델에서 보다 강력한 성능을 낼 수 있는 것으로 판단된다.
다음으로 세 가지 분류모델의 성능을 비교하기 위하여 Dataset IH에서 가장 좋은 성능을 보인 SVM 모델을 다른 모델과 비교하였을 때의 일반 정확도 및 균형된 정확도의 향상률(Improvements)을 확인하였다. 정확도 향상률은식 (10)과 같이 계산된다.
반면 Dataset IH에서 TP는 DT 모델과 SVM 모델에서 각각 89개, 93개로 Dataset EH의 TP에 비하여 크게 증가하는 것을 확인할 수 있다. 이는 곧 심박 데이터가 DT 모델에서 상위 결정노드에 위치하여 성능을 향상시켰으며, SVM 모델 또한 더 정교한 판별경계를 가질 수 있음을 보여준다.
반면, NB 모델은 두 데이터 집합에서 모두 정확도 약 60% 대의 현저히 낮은 결과를 보였다. 이는 본 실험에서 사용된 데이터 집합이 입력벡터 속성의 개수에 비하여 적은 입력 벡터의 수를 가지기 때문에 다음과 같은 한계점을 지닌 것으로 분석된다.
[Figure 6]은 두 데이터 집합 대비 일반 정확도와 균형잡힌 정확도의 향상률을 나타낸다. 실험 결과, 세 가지 분류모델은 Dataset IH를 사용하였을 경우 모두 Dataset EH 대비 더 나은 성능을 보여준다. SVM 모델의 경우 일반정확도와 균형된 정확도에서 각각 약 46%,104%로 가장 높은 정확도 향상률을 보였다.
[Table 5]는 각 데이터 집합에 따른 분류모델의 민감도, 특이도, 일반 정확도, 균형된 정확도를 보여준다. 실험 결과, 세 가지 분류모델의 일반 정확도와 균형된 정확도 평균은 Dataset EH에서 각각 65.52%와 52.47%를 나타냈으며 Dataset IH에서 80.64%와 78.23%를 나타냈다.
또한 음성 데이터만을 사용한 데이터 집합과 음성 데이터와 심박 데이터를 함께 사용한 데이터 집합의 비교 실험을 통하여 두 생체 데이터 조합의 실효성을 검증한다. 실험 결과, 음성 데이터와 심박 데이터를 함께 사용한 데이터 집합에서 SVM 모델이 약 89%의 정확도로 가장 높은 모델 성능을 보였으며, 이를 통해 영유아의 스트레스 상태식별을 자동화할 수 있는 가능성을 확인하였다.
이는 본 실험에서 사용된 데이터 집합이 입력벡터 속성의 개수에 비하여 적은 입력 벡터의 수를 가지기 때문에 다음과 같은 한계점을 지닌 것으로 분석된다. 실험 결과, 인스턴스 각 속성의 확률 값이 대체로 0에 근사하였고 이에 연속적인 곱으로 입력벡터가 상태에 속할 확률이 0에 수렴하였다. 따라서 조건부 확률 식에 로그 변환 도입이 필요할 것으로 판단된다.
실험 결과를 통하여 음성 데이터만 사용하였을 때보다 음성 및 심박 데이터의 조합을 사용하였을 때 모델이 더 좋은 성능을 보이는 것을 검증하였다. 즉, 음성 데이터만으로 영유아의 스트레스 상태를 식별하기에는 한계가 존재하여 보조적인 수단이 필요하며 심박 데이터를 추가한 음성 및 심박 데이터의 조합이 그 한계를 절충하여 성능 개선을 보인 것으로 분석된다.
제안 모델은 음성 및 심박 데이터의 조합을 사용하였을 때 가장 우수한 성능을 나타내었다. 또한 스마트 밴드를 통해 생체신호를 수집하고 제안 모델을 통해 식별된 영유아의 스트레스 상태를 실시간으로 모바일 어플리케이션에 전송하는 프레임워크를 제안하였다.
마지막으로 식별된 결과를 실시간으로 모니터링할 수 있는 모바일 어플리케이션을 개발한다. 제안된 시스템을 통하여 보호자는 영유아의 문제 상황을 실시간으로 인지하고 대처할 수 있다.
이는 곧 심박 데이터가 DT 모델에서 상위 결정노드에 위치하여 성능을 향상시켰으며, SVM 모델 또한 더 정교한 판별경계를 가질 수 있음을 보여준다. 즉, Dataset IH에서 TP의 증가가 모델 정확도 향상에 영향을 끼쳤으며 이는 곧 음성 데이터와 심박 데이터의 조합이 영유아의 스트레스 상태를 식별하기에 적합함을 의미한다.
SVM 모델의 경우 일반정확도와 균형된 정확도에서 각각 약 46%,104%로 가장 높은 정확도 향상률을 보였다. 특히 균형된 정확도를 사용하였을 때 크게 향상되는 것을 확인할 수 있으며 이는 Dataset EH에서 발생한 불균형 데이터 집합으로 인한 오류를 음성 및 심박 데이터의 조합을 통해 개선하였음을 의미한다.
후속연구
본 논문에서는 기존 연구들이 가지는 한계점을 고려하여 영유아에게 적합한 음성 및 심박 데이터의 조합을 사용한다. 또한, 두 가지의 생체신호를 활용한 영유아의 스트레스 상태식별 모델을 통해 영유아의 위험 상황을 감지할 수 있는 연구를 제안한다.
본 논문의 연구 결과는 두 생체신호의 조합을 활용한 영유아 스트레스 상태식별 모델 및 제안 프레임워크가 실제 영유아의 위험 상황에 적용될 수 있는 가능성을 시사한다. 추후 어린이집 및 보호자의 협조를 통해 영유아를 대상으로 한 실험 환경이 조성된다면 실제상황에서 모델을 검증할 수 있을 것으로 기대된다.
이는 본 논문에서 의 예외적인 상황을 가정하기 위해 데이터의 상태 값을 편향적으로 구성하여 불균형이 생겼기 때문으로 해석된다. 특히 Dataset EH의 DT 모델 결과의 경우 유사한 변수 정보량을 가지는 변수들 중 큰 값을 갖는 하나의 변수만으로 가지를 전개하는 규칙(Rule) 기반 모델의 한계인 것으로 판단된다.
질의응답
핵심어
질문
논문에서 추출한 답변
영유아의 울음소리는 무엇의 주요한 요인이 되는가?
한편, 영유아의 울음소리는 영유아의 감정을 나타내는 주요한 요인이 된다[28]. Abou-Abbas et al.
피부전도도는 움직임이 많은 상황에서 정확한 데이터를 얻기 힘든 이유는 무엇인가?
[31] 은 심박 데이터와 함께 피부전도도 및 가속도계(Accelemeter) 데이터를 사용하여 물리적 활동에서의 스트레스를 식별하였다. 그러나 피부전도도는 다른 생체신호보다 움직임에 민감하기 때문에 움직임이 많은 상황에서 정확한 데이터를 얻기 힘들다.
본 논문에서 음성 데이터와 심박 데이터의 조합을 활용하여 스트레스 상태 식별 모델을 제안하는 배경은 무엇인가?
[14]은 학습능력을 요구하는 시험을 실시하여 실험환경을 조성한 후, 스트레스 상태를 식별하였다. 그러나 기존 연구들은 사후적인 상황 식별을 고려하고 있으며 언어 및 인지 능력이 충분히 발달하지 않은 영유아에게 적합한 요인들을 복합적으로 고려하지 않았다는 한계를 지닌다.
참고문헌 (32)
Abou-Abbas, L., Alaie, H. F., and Tadj, C., "Automatic Detection of the Expiratory and Inspiratory Phases in Newborn Cry Signals," Biomedical Signal Processing and Control, Vol. 19, pp. 35-43, 2015.
Asyali, M. H., "Discrimination Power of Long-term Heart Rate Variability Measures," Engineering in Medicine and Biology Society, Vol. 1, pp. 200-203, 2003.
AudioMicro, [URL] http://www.audiomicro.com.
Bakker, J., Pechenizkiy, M., and Sidorova, N., "What's Your Current Stress Level? Detection of Stress Patterns from GSR Sensor Data," Proceedings of the IEEE International Conference on Data Mining Workshop, pp. 573-580, 2011.
Brodersen, K. H., Ong, C. S., Stephan, K. E., and Buhmann, J. M., "The balanced accuracy and its posterior distribution," Proceedings of the 20th International Conference on Pateern Recognition IEEE Computer Society, pp. 3121-3124, 2010.
Choi, Y., Park, K., Kim, S., and Park, J., "A Two-Phase On-Device Analysis for Gender Prediction of Mobile Users Using Discriminative and Popular Wordsets," The Journal of Society for e-Business Studies, Vol. 21, No. 1, pp. 65-77, 2016.
Eckstein, A. and Pavlos P. P., "Assessment of Advanced Windowing Techniques for Digital Particle Image Velocimetry," Measurement Science and Technology, Vol. 20, No. 7, 2009.
Fayyad, U. and Irani, K., "Multi-Interval Discrtization of Continuous-Valued Attributes for Classification Learning," Proceedings of the International Joint Conference on Uncertainty in AI, pp. 1022-1027, 1993.
Frodi, A. M. and Lamb, M. E., "Child abusers' responses to infant smiles and cries," Child development, pp. 238-241, 1980.
Healey, J. A. and Picard, R. W., "Detecting Stress During Real-World Driving Tasks Using Physiological Sensors," IEEE Transactions on intelligent transportation systems, Vol. 6, No. 2, pp. 156-166, 2005.
Jung, Y. and Yoon, Y. I., "Monitoring Senior Wellness Status Using Multimodal Biosensors," Proceedings of the 2016 International Conference on Big Data and Smart Computing (BigComp), pp. 435- 438, 2016.
Kim, Y., Choi, Y., Kim, S., Park, K., and Park, J., "A Study on Method for User Gender Prediction Using Multi-Modal Smart Device Log Data," The Journal of Society for e-Business Studies, Vol. 21, No. 1, pp. 147-163, 2016.
Koo, C., Kim, H.-W., and Joun, Y. H., "A Study on the Explorative or Exploitive Use of Smartphone: Focusing on IS Continuance and Habit Theory," The Journal of Society for e-Business Studies, Vol. 16, No. 3, pp. 67-91, 2011.
Kurniawan, H., Maslov, A. V., and Pechenizkiy, M., "Stress Detection from Speech and Galvanic Skin Response Signals," Proceedings of the 26th IEEE International Symposium on Computer-Based Medical Systems, pp. 209-214, 2013.
Seo, J. S., "Through Monitoring Solution Child Abuse and Children's Rights at Child Care Center," Convergence Security Journal, Vol. 13, No. 2, pp. 55-66, 2013.
Lee, K.-S., Park, J.-A., and Shin, Y.-J., "An Investigation into Mothers' Experience and Perception of Child Abuse at Day Care Centers and Need for Counseling," The Korean Journal of Woman Psychology, Vol. 20, No. 3, pp. 301-327, 2015.
Liu, Z., Wang, Y., and Chen, T., "Audio feature extraction and analysis for scene segmentation and classification," Journal of VLSI signal processing systems for signal, image and video technology, Vol. 20, No. 1-2, pp. 61-79, 1998.
Lyons, R., "Understanding Digital Signal Processing," Prentice Hall, 2001.
MaKay, C., "Automatic Music Classification with jMIR," PhD thesis, McGill University, Canada, 2010.
Mcennis, D., McKay, C., Fujinaga, I., and Depalle, P., "jAudio: A Feature Extraction Library," Proceedings of the International Conference on Music Information Retrieval, pp. 600-603, 2005.
Melillo, P., Bracale, M., and Pecchia, L., "Nonlinear Heart Rate Variability features for Real-life Stress Detection. Case Study: Students Under Stress Due to University Examination," Biomedical engineering online, Vo1. 10, No. 1, p. 96, 2011.
Rho, M., Kim, J., and Lee, J., "An Exploratory Study on Smart-Phone and Service Convergence," The Journal of Society for e-Business Studies, Vol. 15, No. 4, pp. 59-77, 2010.
Roh, J.-H., Kim, H.-J., and Chang, J.-Y., "Improving Hypertext Classification Systems through WordNet-based Feature Abstraction," The Journal of Society for e-Business Studies, Vol. 18, No. 2, pp. 95-110, 2013.
Rosales-Perez, A., Reyes-Garcia, C. A., Gonzalez, J. A., Reyes-Galaviz, O. F., Escalante, H. J., and Orlandi, S., "Classifying Infant Cry Patterns by the Genetic Selection of a Fuzzy Model," Biomedical Signal Processing and Control, Vol. 17, pp. 38-46, 2015.
Ruvolo, P. and Movellan, J., "Automatic Cry Detection in Early Childhood Education Settings," Proceedings of the IEEE International Conference on Development and Learning, Vol. 7, pp. 204-208, 2008.
Setz, C., Arnrich, B., Schumm, J., La Marca, R., Troster, G., and Ehlert, U., "Discriminating Stress from Cognitive Load Using a Wearable EDA Device," IEEE Transactions on information technology in biomedicine, Vol. 14, No. 2, pp. 410-417, 2010.
Sharma, N. and Gedeon, T., "Objective measures, sensors and computational techniques for stress recognition and classification: A survey," Computer methods and programs in biomedicine, Vol. 108, pp. 1287-1301, 2012.
Sun, F. T., Kuo, C., Cheng, H. T., Buthpitiya, S., Collins, P., and Griss, M., "Activityaware Mental Stress Detection Using Physiological sensors," Proceedings of the International Conference on Mobile Computing, Applications, and Services, pp. 211-230, 2010.
Womennews, "인천서 또 어린이집 폭행...한 달 새 3건 발생 '충격'," [URL] http://www.womennews.co.kr/news/view.asp?n um79850.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.