최근 핵가족화, 개인화 등과 같은 사회구조 변화로 개인 및 사회적 문제가 대두되고 있으며, 부정적 감정 증폭으로 인해 다양한 문제의 원인이 되기도 한다. 과거에 심리적 안정감을 주는 가족 구성원의 부재는 현대인의 감정적 어려움의 대표적인 원인으로 꼽을 수 있다. 이러한 개인 및 사회적 문제를 일상생활에서 사용자와 교감하는 컴패니언 로봇의 공감 인터랙션을 통해 해결하고자 한다. 본 연구에서는 감성 로봇 프로토타입 제작을 통해 정교한 공감 인터랙션 디자인을 하였으며, 실험을 통해 연구를 진행하였다. 그 결과로 감성 로봇의 공감 인터랙션에 얼굴 인터랙션이 크게 영향을 미치며, 부정 감성에서 인터랙션이 로봇의 공감도를 높이는 것을 확인할 수 있었다. 결과적으로 본 연구는 감성 로봇을 제작하여 더욱 정교한 인터랙션을 구현하였다는 점과, 실험 결과를 바탕으로 로봇의 공감 인터랙션 디자인 가이드라인을 제시하였다는 점에서 이론적 및 실용적 의의가 있다.
최근 핵가족화, 개인화 등과 같은 사회구조 변화로 개인 및 사회적 문제가 대두되고 있으며, 부정적 감정 증폭으로 인해 다양한 문제의 원인이 되기도 한다. 과거에 심리적 안정감을 주는 가족 구성원의 부재는 현대인의 감정적 어려움의 대표적인 원인으로 꼽을 수 있다. 이러한 개인 및 사회적 문제를 일상생활에서 사용자와 교감하는 컴패니언 로봇의 공감 인터랙션을 통해 해결하고자 한다. 본 연구에서는 감성 로봇 프로토타입 제작을 통해 정교한 공감 인터랙션 디자인을 하였으며, 실험을 통해 연구를 진행하였다. 그 결과로 감성 로봇의 공감 인터랙션에 얼굴 인터랙션이 크게 영향을 미치며, 부정 감성에서 인터랙션이 로봇의 공감도를 높이는 것을 확인할 수 있었다. 결과적으로 본 연구는 감성 로봇을 제작하여 더욱 정교한 인터랙션을 구현하였다는 점과, 실험 결과를 바탕으로 로봇의 공감 인터랙션 디자인 가이드라인을 제시하였다는 점에서 이론적 및 실용적 의의가 있다.
Recent changes in social structure, such as nuclear family and personalization, are leading to personal and social problems, which may cause various problems due to negative emotional amplification. The absence of a family member who gives a sense of psychological stability in the past can be consid...
Recent changes in social structure, such as nuclear family and personalization, are leading to personal and social problems, which may cause various problems due to negative emotional amplification. The absence of a family member who gives a sense of psychological stability in the past can be considered as a representative cause of the emotional difficulties of modern people. This personal and social problem is solved through the empathic interaction of the companion robot communication with users in daily life. In this study, we developed sophisticated empathic interaction design through prototyping of emotional robots. As a result, it was confirmed that the face interaction greatly affects the emotional interaction of the emotional robot and the interaction of the robot improves the emotional sense of the robot. This study has the theoretical and practical significance in that the emotional robot is made more sophisticated interaction and the guideline of the sympathetic interaction design is presented based on the experimental results.
Recent changes in social structure, such as nuclear family and personalization, are leading to personal and social problems, which may cause various problems due to negative emotional amplification. The absence of a family member who gives a sense of psychological stability in the past can be considered as a representative cause of the emotional difficulties of modern people. This personal and social problem is solved through the empathic interaction of the companion robot communication with users in daily life. In this study, we developed sophisticated empathic interaction design through prototyping of emotional robots. As a result, it was confirmed that the face interaction greatly affects the emotional interaction of the emotional robot and the interaction of the robot improves the emotional sense of the robot. This study has the theoretical and practical significance in that the emotional robot is made more sophisticated interaction and the guideline of the sympathetic interaction design is presented based on the experimental results.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
단기적이기보다 장기적인 형태를 취하며, 개인에게 감정적 웰빙을 형성하는데 긍정적 영향을 미친다[14]. 따라서, 본 연구에서는 컴패니언십에 대한 감정적 웰빙에 주목하며 감성 로봇의 공감 인터랙션을 통해 현대인들의 사회적 문제를 해결하고자 한다.
본 연구는 사용자의 감정에 따른 로봇의 공감 인터랙션 효과 검정을 위해, 로봇을 직접 제작하여 실험을 진행하였다. 얼굴표정 표현이 가능하며 얼굴의 움직임을 통해 눈을 맞추거나 고개를 움직일 수 있는 로봇으로 제작하였으며, 사용자의 친근감을 높이기 위해 동물 형태의 외형으로 디자인되어졌다.
본 연구는 이러한 한계점들을 가지고 있음에도 불구하고, 감성 로봇이 현대인들에게 감정적으로 도움을 줄 수 있는 방법과 그 효과에 대해 중요한 가치와 의의를 지닌다. 감성 로봇을 사용하는 사용자들이 표출하는 여러 가지 감성들에 대해서 적합한 피드백 조합을 찾는 시도를 했다는 점과, 여기서 언급하는 적합한 피드백이 단순히 로봇의 표정에만 국한되는 것이 아니라 물리적인 동작까지 고려되었다는 점이 바로 그것이다.
본 연구를 통해 감성 로봇의 인터랙션의 단일 효과 및 감정과 성별에 따른 인터랙션 효과를 알아보고자 하였다. 감성 로봇의 인터랙션을 위하여 핵심 인터랙션 요소를 도출하고, 얼굴 표정과 움직임이 있는 로봇을 프로토타입으로 제작하여 실험을 진행하였다.
본 연구에서는 로봇의 인터랙션과 사용자의 감정 상태에 따른 사람의 공감 정도를 알아보기 위해 혼합 설계 실험을 실시하였다. 본 연구에서 로봇의 기능에 대한 사용자의 공감을 검정하기 위해서 로봇 인터랙션의 단일 효과를 보고자 하였으며, 독립변수는 인터랙션 종류와 사용자의 감정 상태이다.
사람의 감정 상태에 따른 로봇의 다양한 상호작용을 통해 로봇에 대한 컴패니언십을 보고자 하였다. 컴패니언로봇의 핵심요소 항목인 공감도(Empathy), 위로도(Comfort), 신뢰도(Trust), 친밀도(Intimacy), 사회적 실재감(Social Presence) 그리고 사용 의도(Intention to Use)를 추가적으로 분석하여 감성 로봇의 인터랙션이 컴패니언십에 미치는 영향을 보고자 하였다[23][24].
사람의 감정 상태에 따른 로봇의 다양한 상호작용을 통해 로봇에 대한 컴패니언십을 보고자 하였다. 컴패니언로봇의 핵심요소 항목인 공감도(Empathy), 위로도(Comfort), 신뢰도(Trust), 친밀도(Intimacy), 사회적 실재감(Social Presence) 그리고 사용 의도(Intention to Use)를 추가적으로 분석하여 감성 로봇의 인터랙션이 컴패니언십에 미치는 영향을 보고자 하였다[23][24]. 종속변인을 측정하기 위해 사용한 평가 척도는 총 25문항으로, 7점 리커트 척도로 평가하였다.
제안 방법
피험자는 준비된 영상을 약 2~3분간 시청하여 긍정, 부정의 감정적 점화를 일으키는 상황을 가지도록 하였으며, 각 영상 사이에는 감정을 중립화시키기 위한 명상 영상을 제시하여 자극 간 감정적 점화의 영향을 최소화 하였다. 각 자극 사이에 해당 자극에 대하여 설문을 진행하였으며, 사후 인터뷰를 약 15분간 실시하여 추가 분석을 실시하였다.
본 연구를 통해 감성 로봇의 인터랙션의 단일 효과 및 감정과 성별에 따른 인터랙션 효과를 알아보고자 하였다. 감성 로봇의 인터랙션을 위하여 핵심 인터랙션 요소를 도출하고, 얼굴 표정과 움직임이 있는 로봇을 프로토타입으로 제작하여 실험을 진행하였다. 사용자의 감정 상태에 따른 각각 인터랙션의 단일효과를 확인하기 위하여, 영상 자극을 통하여 감정적 점화를 유발하였으며, 효과적인 감정적 점화 상태에서 동시에 로봇의 인터랙션을 경험하도록 하였다.
참가자에게 제시되는 자극 영상은 파일럿 테스트를 통해 감정적 점화 효과를 검정하여 제시되어졌다. 감정 영상 자극은 Russell의 감정차원 모델에 기반하여 축을 기준으로 크게 4가지 감정(Happy, Sad, Angry, Calm)으로 분류되었으며, 크게 긍정(Positive),부정(Negative) 2가지의 자극으로 분류되어졌다.
사용자의 표정 변화를 통해 실시간으로 감정을 예측을 하기 위해 OpenCV와 Dlib 라이브러리를 사용하였다. 감정별로 분류된 얼굴 표정 DB의 사진 속 얼굴 각각의 랜드 마크를 Support Vector Machine(SVM)으로 학습하여 사용자의 얼굴과 실시간으로 비교하였으며, 화남(anger), 경멸(contempt), 역겨움(disgust), 두려움(fear), 행복(happy), 슬픔(sadness), 놀람(surprise)과 중립(neutral)의 총 7가지의 감정을 예측할 수 있었다[20]. 또한 인식된 얼굴의 중앙점 이동에 따른 모터 제어를 통해, 사용자의 얼굴을 따라 얼굴을 움직여 정면으로 마주보고 눈을 맞출 수 있었다.
두 번째 독립변인은 감정 상태로 긍정과 부정의 두 가지 변형을 가진다. 개인의 감정 상태에 따른 인터랙션 종류가 로봇과의 상호작용에 미치는 영향을 보기 위하여 독립 변인으로 두었으며, PANAS Scale (Measures of Positive and Negative Affect)과 SAM(The Self-Assessment Manikin)을 통해 측정하였다[21][22].
본 연구에서 로봇의 기능에 대한 사용자의 공감을 검정하기 위해서 로봇 인터랙션의 단일 효과를 보고자 하였으며, 독립변수는 인터랙션 종류와 사용자의 감정 상태이다. 기존 연구에서 공감을 이끌어내는 가장 대표적인 비언어적 인터랙션인 얼굴 눈맞춤(Eye Gazing), 표정 피드백(Facial Feedback), 머리 움직임(Head Gesture)의 총 3레벨로 크게 구분하여 피험자간 설계로 진행되었다.
첫 번째, 적절한 타이밍에 사용자에게 표정 반응을 보여줄 수 있도록 특정 키 값을 입력하여, 앞서 디자인한 캐릭터의 네 가지 감정 표현 동영상을 화면에 보여주도록 하였다. 두 번째, 적절한 타이밍에 사용자에게 움직임을 나타내어주기 위하여, 특정 키 값을 입력하여 고개의 방향을 바꾸거나 특정한 움직임을 보일 수 있도록 하였다.
긍정적 눈 맞춤의 경우 눈을 맞추며 피험자의 주의를 탐지하고 따라가면서 영상을 같이 시청하는 공동 관심(Joint Attention)이며, 부정적 눈 맞춤의 경우 눈을 피하고 아래쪽을 보면서 시선을 피하는 시선회피(Gaze Aversion)이다. 두 조건 모두 로봇의 표정은 중립 표정으로 동일하며, 로봇의 움직임을 통하여 자극을 제시하였다.
감성 로봇은 Wizard of OZ 방식으로 원격 조종되었다. 또한, 영상 자료를 시청하는 동안 효과적인 감정 상태를 유발하기 위하여 음향 장치를 헤드폰으로 지원하였으며, 실험 영상과 실험 자극은 모니터로 제시되었다.
머리 움직임 조건의 통계적 차이가 나타나지 않아 성별에 따른 단일 인터랙션을 추가 분석을 실시하였다. 그 결과, 남자는 끄덕임 인터랙션에서 위로감(z=-1.
본 시행은 인터랙션 종류와 감정 상태에 따라 구분되어졌으며, 해당 실험 조건의 모든 자극은 각 한 번씩 제시하였다. 피험자 내에서 처치의 제시 순서를 다르게 하여 순서 효과를 통제하였다.
본 연구에서는 로봇의 인터랙션과 사용자의 감정 상태에 따른 사람의 공감 정도를 알아보기 위해 혼합 설계 실험을 실시하였다. 본 연구에서 로봇의 기능에 대한 사용자의 공감을 검정하기 위해서 로봇 인터랙션의 단일 효과를 보고자 하였으며, 독립변수는 인터랙션 종류와 사용자의 감정 상태이다. 기존 연구에서 공감을 이끌어내는 가장 대표적인 비언어적 인터랙션인 얼굴 눈맞춤(Eye Gazing), 표정 피드백(Facial Feedback), 머리 움직임(Head Gesture)의 총 3레벨로 크게 구분하여 피험자간 설계로 진행되었다.
본 연구에서는 로봇의 감정 표현과 움직임 표현을 위해 Raspberry Pi 3.5 inch LCD모듈을 사용하여 얼굴 표정을 나타내었다. 로봇의 움직임을 표현하기 위하여 로봇 머리의 무게와 움직임 각도를 고려하여 MG-996R 모터를 사용하였다.
감성 로봇의 인터랙션을 위하여 핵심 인터랙션 요소를 도출하고, 얼굴 표정과 움직임이 있는 로봇을 프로토타입으로 제작하여 실험을 진행하였다. 사용자의 감정 상태에 따른 각각 인터랙션의 단일효과를 확인하기 위하여, 영상 자극을 통하여 감정적 점화를 유발하였으며, 효과적인 감정적 점화 상태에서 동시에 로봇의 인터랙션을 경험하도록 하였다.
사용자의 표정 변화를 통해 실시간으로 감정을 예측을 하기 위해 OpenCV와 Dlib 라이브러리를 사용하였다. 감정별로 분류된 얼굴 표정 DB의 사진 속 얼굴 각각의 랜드 마크를 Support Vector Machine(SVM)으로 학습하여 사용자의 얼굴과 실시간으로 비교하였으며, 화남(anger), 경멸(contempt), 역겨움(disgust), 두려움(fear), 행복(happy), 슬픔(sadness), 놀람(surprise)과 중립(neutral)의 총 7가지의 감정을 예측할 수 있었다[20].
실험 자극을 위해 피험자의 모니터는 원격으로 제어되었으며, 감정적 점화(Affective Priming)를 위한 자극 영상이 제시되었다. 이 때, 로봇이 참가자의 중심 시야에 들어올 수 있도록 모니터 오른쪽 하단에 위치함으로써 영상 자극과 동시에 실시간으로 로봇과 인터랙션 할 수 있도록 하였다.
앞서 제작한 알고리즘의 정확도와 미묘한 감정에의 실질적 적용의 어려움으로 Wizard of OZ로 진행하기 위한 제어 프로그램을 추가적으로 제작하였다. 제어 프로그램의 기능은 크게 2가지이다.
본 연구는 사용자의 감정에 따른 로봇의 공감 인터랙션 효과 검정을 위해, 로봇을 직접 제작하여 실험을 진행하였다. 얼굴표정 표현이 가능하며 얼굴의 움직임을 통해 눈을 맞추거나 고개를 움직일 수 있는 로봇으로 제작하였으며, 사용자의 친근감을 높이기 위해 동물 형태의 외형으로 디자인되어졌다.
실험 자극을 위해 피험자의 모니터는 원격으로 제어되었으며, 감정적 점화(Affective Priming)를 위한 자극 영상이 제시되었다. 이 때, 로봇이 참가자의 중심 시야에 들어올 수 있도록 모니터 오른쪽 하단에 위치함으로써 영상 자극과 동시에 실시간으로 로봇과 인터랙션 할 수 있도록 하였다. 감성 로봇은 Wizard of OZ 방식으로 원격 조종되었다.
이 중 감정적 점화를 통한 긍정, 부정의 감정 상태는 참가자의 특성에 따른 차이가 클 가능성이 높다고 판단하여 피험자 간설계를 하였으며, 각 조건은 모두 무선화하여 실험을 진행하였다.
본 연구는 연세대학교 경영대학 내 인간행동 실험실에서 이루어졌다. 인간행동 실험실은 관찰창을 사이에 두고 두 개의 방으로 구성되어있으며, 피험자는 한쪽 방에서 준비된 실험 안내자료와 영상 자료를 보며 실험을 진행하였으며 반대쪽 방에서는 실험자가 피험자를 관찰하며 실험을 진행하였다.
컴패니언로봇의 핵심요소 항목인 공감도(Empathy), 위로도(Comfort), 신뢰도(Trust), 친밀도(Intimacy), 사회적 실재감(Social Presence) 그리고 사용 의도(Intention to Use)를 추가적으로 분석하여 감성 로봇의 인터랙션이 컴패니언십에 미치는 영향을 보고자 하였다[23][24]. 종속변인을 측정하기 위해 사용한 평가 척도는 총 25문항으로, 7점 리커트 척도로 평가하였다.
참가자에게 제시되는 자극 영상은 파일럿 테스트를 통해 감정적 점화 효과를 검정하여 제시되어졌다. 감정 영상 자극은 Russell의 감정차원 모델에 기반하여 축을 기준으로 크게 4가지 감정(Happy, Sad, Angry, Calm)으로 분류되었으며, 크게 긍정(Positive),부정(Negative) 2가지의 자극으로 분류되어졌다.
첫 번째, 적절한 타이밍에 사용자에게 표정 반응을 보여줄 수 있도록 특정 키 값을 입력하여, 앞서 디자인한 캐릭터의 네 가지 감정 표현 동영상을 화면에 보여주도록 하였다. 두 번째, 적절한 타이밍에 사용자에게 움직임을 나타내어주기 위하여, 특정 키 값을 입력하여 고개의 방향을 바꾸거나 특정한 움직임을 보일 수 있도록 하였다.
측정된 데이터가 정규성을 따르지 않았기 때문에 비모수 검정을 수행하였다. 사용자의 감정 상태에 따라 인터랙션의 단일효과를 보기 위해 각 인터랙션 별 Wilcoxon 검정을 실시하였다.
본 시행은 인터랙션 종류와 감정 상태에 따라 구분되어졌으며, 해당 실험 조건의 모든 자극은 각 한 번씩 제시하였다. 피험자 내에서 처치의 제시 순서를 다르게 하여 순서 효과를 통제하였다. 피험자는 준비된 영상을 약 2~3분간 시청하여 긍정, 부정의 감정적 점화를 일으키는 상황을 가지도록 하였으며, 각 영상 사이에는 감정을 중립화시키기 위한 명상 영상을 제시하여 자극 간 감정적 점화의 영향을 최소화 하였다.
피험자 내에서 처치의 제시 순서를 다르게 하여 순서 효과를 통제하였다. 피험자는 준비된 영상을 약 2~3분간 시청하여 긍정, 부정의 감정적 점화를 일으키는 상황을 가지도록 하였으며, 각 영상 사이에는 감정을 중립화시키기 위한 명상 영상을 제시하여 자극 간 감정적 점화의 영향을 최소화 하였다. 각 자극 사이에 해당 자극에 대하여 설문을 진행하였으며, 사후 인터뷰를 약 15분간 실시하여 추가 분석을 실시하였다.
대상 데이터
모터의 축은 총 세 방향으로, 각각 방향의 목적은 사용자의 얼굴 방향에 따라 인터랙션하기 위해 x, y, z축의 움직임을 위해 디자인되어졌다. PCA9685모터 제어 모듈을 사용하여 세 축의 다중 모터를 제어하였다.
지속적인 움직임을 보임으로써 사용자로 하여금 자연스럽게 느껴지도록 하였다. 감정 표정 동영상은 각각 5초 내외로 480x320 크기로 제작하였다.
이러한 로봇의 긍정적인 효과 및 사용자가 보다 친근하게 접근할 수 있도록 동물 형태의 외형으로 디자인하였으며, 사람들에게 친숙한 고양이의 외형으로 채택하였다. 로봇의 디자인은 가로, 세로, 몸통 길이가 각각 140mm, 140mm, 150mm의 크기로 3d 프린팅으로 제작되어졌다.
로봇의 얼굴은 외형에 맞는 고양이의 모습을 하고 있으며, 고양이 모습의 얼굴로 위에 나눈 4가지 종류의 감정을 표현할 수 있도록 각각의 표정을 디자인하였다. 감성 로봇의 그래픽 디자인은 자연스러운 표정 표현을 위해 동영상 형태로 제작되었으며.
5 inch LCD모듈을 사용하여 얼굴 표정을 나타내었다. 로봇의 움직임을 표현하기 위하여 로봇 머리의 무게와 움직임 각도를 고려하여 MG-996R 모터를 사용하였다. 모터의 축은 총 세 방향으로, 각각 방향의 목적은 사용자의 얼굴 방향에 따라 인터랙션하기 위해 x, y, z축의 움직임을 위해 디자인되어졌다.
본 연구는 연세대학교 경영대학 내 인간행동 실험실에서 이루어졌다. 인간행동 실험실은 관찰창을 사이에 두고 두 개의 방으로 구성되어있으며, 피험자는 한쪽 방에서 준비된 실험 안내자료와 영상 자료를 보며 실험을 진행하였으며 반대쪽 방에서는 실험자가 피험자를 관찰하며 실험을 진행하였다.
본 연구에 참여한 피험자는 영화 감상을 통하여 감정을 가질 수 있으며, 시력과 청력에 이상이 없는 모든 사람을 대상으로 하였다. 실험은 파일럿과 본 실험으로 구분되어졌으며, 본 실험에는 총 40명(남자 18명, 여자 22명)이 참가하였으며, 총 3개의 집단으로 각각 무선 할당되었다.
본 연구에 참여한 피험자는 영화 감상을 통하여 감정을 가질 수 있으며, 시력과 청력에 이상이 없는 모든 사람을 대상으로 하였다. 실험은 파일럿과 본 실험으로 구분되어졌으며, 본 실험에는 총 40명(남자 18명, 여자 22명)이 참가하였으며, 총 3개의 집단으로 각각 무선 할당되었다. 기존 감정 관련 연구 모델에서 성별은 감정에 따라 큰 차이가 있었기 때문에, 성별을 최대한 같은 비율로 유지하도록 하였다.
키 값을 입력하여 표정 또는 움직임을 제어하는 기능을 위해 OpenCV 라이브러리를 사용하였으며, 고개의 움직임을 위해 Adafruit_PCA9685 라이브러리로 모터를 PWM 제어하였다.
데이터처리
측정된 데이터가 정규성을 따르지 않았기 때문에 비모수 검정을 수행하였다. 사용자의 감정 상태에 따라 인터랙션의 단일효과를 보기 위해 각 인터랙션 별 Wilcoxon 검정을 실시하였다.
이론/모형
이 때, 로봇이 참가자의 중심 시야에 들어올 수 있도록 모니터 오른쪽 하단에 위치함으로써 영상 자극과 동시에 실시간으로 로봇과 인터랙션 할 수 있도록 하였다. 감성 로봇은 Wizard of OZ 방식으로 원격 조종되었다. 또한, 영상 자료를 시청하는 동안 효과적인 감정 상태를 유발하기 위하여 음향 장치를 헤드폰으로 지원하였으며, 실험 영상과 실험 자극은 모니터로 제시되었다.
감성 로봇의 핵심 기능인 사용자의 감성을 파악하기 위한 알고리즘을 개발하였으며, 사용자의 표정 변화를 예측하기 위해 얼굴의 근육의 변화 및 조합에 따라 표정을 묘사하는 방법인 FACS(Facial Action Coding System)를 활용하였다[19].
성능/효과
그 결과, 남자는 끄덕임 인터랙션에서 위로감(z=-1.84, p<.1)을, 여자는 갸우뚱 인터랙션에서 공감도(z=-2.03,p<.05)와 위로감(z=-1.83,p<.1)의 통계적 유의미한 차이를 확인할 수 있었다.
그 결과, 얼굴 피드백 인터랙션은 전반적으로 통계적으로 유의미한 차이를 발견할 수 있었다. 또한, 눈 맞춤 조건에서는 부정적인 감정에서 높은 친밀도(Intimacy)를 느끼는 것을 알 수 있었다.
또한 전반적으로 부정 감성에서 감성 로봇의 인터랙션이 긍정 감성보다 효과적인 것으로 보아, 부정 감성에서 로봇의 인터랙션이 사용자에게 중요한 인터랙션 요소로 작용하는 것을 알 수 있었다.
그 결과, 얼굴 피드백 인터랙션은 전반적으로 통계적으로 유의미한 차이를 발견할 수 있었다. 또한, 눈 맞춤 조건에서는 부정적인 감정에서 높은 친밀도(Intimacy)를 느끼는 것을 알 수 있었다. 마지막으로 머리 움직임 조건에서는 통계적으로 유의미한 차이를 발견할 수 없었다.
05)이다. 분석 결과를 바탕으로, 긍정 감성에서의 얼굴 표정 피드백의 긍정적 효과를 확인할 수 있었다.
눈 맞춤 인터랙션의 분석 결과로 친밀도 감정에 따라 전반적으로 통계적 차이를 관찰할 수 없었다. 분석 결과를 바탕으로, 앞의 두 가지 인터랙션과는 반대로 긍정 정서에서 인터랙션의 긍정적인 효과의 패턴을 확인할 수 있었다.
05)를 제외한 감정에 따라 전반적으로 통계적 차이를 관찰할 수 없었다. 분석 결과를 바탕으로, 전반적으로 부정 정서에서 눈 맞춤의 긍정적 효과를 확인할 수 있었다.
이러한 결과를 통해, 얼굴 피드백과 눈 맞춤 인터랙션은 성별에 따라 같은 패턴을 보였으나, 반면 머리 움직임 인터랙션의경우 성별에 따라 통계적으로 극명한 결과를 보이는 것을 알 수 있었다.
긍정적 위로의 경우 Russell(1980)의 감정차원 모델의 정서가(Valence) 축을 기준으로 오른쪽의 긍정적 정서의 행복함(Happy)과 평온함(Calm)의 표정 자극을 제시하였다. 표정 자극은 감정 자극 영상의 맥락에 맞게 반복적으로 제시되었으며, 평균 20초 당 1회 제시되었다.
후속연구
얼굴을 통해 자신의 감정을 표현하는 부분에 있어서, 동양인들은 서양인들에 비해 표정의 변화가 크지 않고 미세하다는 특성을 가지고 있다. 따라서 피험자를 관찰하는 과정에서 기분변화를 감지하는 것 이외에 사후 인터뷰를 통해 피험자의 감정 변화에 대한 근거를 뒷받침하였지만, 추후 연구에는 사후 인터뷰 방식보다 감정 변화를 즉각적이면서 정확하게 감지할 수 있는 더 효율적인 방안을 고안하는 것이 필요하다.
따라서, 본 연구의 감성로봇 사용자 경험 실험을 통하여 감성로봇이 감정적으로 어려움을 겪고 있는 현대인들에게 도움을 줄 수 있도록 로봇의 공감 인터랙션 디자인의 주요 가이드라인을 제시함으로써 향후 감성 로봇 개발에 효율적으로 활용될 수 있을 것이다.
본 연구의 한계점은 다수 존재하는데, 먼저 감성 로봇 실험을 진행하는 과정 동안에 피험자의 감정변화 추이를 확인하기 위한 목적으로 스마트 워치를 사용하여 심박수를 수집하였으나, 장비 기능의 한계로 인해 피험자의 실시간 심박수 분석이 어려웠다. 한층 더 정확한 데이터 분석을 위해 추후 진행될 연구에서는 데이터 측정 장비를 도입하여 피험자의 신체 데이터를 실시간으로 수집할 필요가 있으며, 이러한 장비를 통해 수집된 데이터를 바탕으로 감성로봇 실험 결과를 더욱 정교하게 뒷받침할 수 있을 것으로 사료된다.
본 연구의 한계점은 다수 존재하는데, 먼저 감성 로봇 실험을 진행하는 과정 동안에 피험자의 감정변화 추이를 확인하기 위한 목적으로 스마트 워치를 사용하여 심박수를 수집하였으나, 장비 기능의 한계로 인해 피험자의 실시간 심박수 분석이 어려웠다. 한층 더 정확한 데이터 분석을 위해 추후 진행될 연구에서는 데이터 측정 장비를 도입하여 피험자의 신체 데이터를 실시간으로 수집할 필요가 있으며, 이러한 장비를 통해 수집된 데이터를 바탕으로 감성로봇 실험 결과를 더욱 정교하게 뒷받침할 수 있을 것으로 사료된다.
질의응답
핵심어
질문
논문에서 추출한 답변
공감과 감정적 편안함을 이끌어내는 요소에는 어떤것이 있는가?
공감과 감정적 편안함을 이끌어내는 요소로 위로가 있다. 위로는 사전적인 의미로는 따뜻한 말이나 행동으로 괴로움을 덜어주거나 슬픔을 달래주는 행위를 뜻하며, 고통을 가진 사람들이 그 고통을 극복할 수 있도록 도움을 주는 인간들의 모든 행동, 고통의 공유 그리고 공감 등을 말한다.
공감이란?
공감은 타인의 입장이 되어서 마음이나 감정 또는 처지를 공유하고 이해하는 것을 말한다. 공감은 다른 사람을 걱정하는 마음과 동시에 그 사람의 고통을 덜어주기 위한 욕망에 의해 특정되는 인간의 감정적인 반응이다[7][8].
감정 과잉의 시대가 더욱 두드러지게 된 사회 구조적 변화는?
특히, 이러한 변화는 1인 가구의 증가로 더욱 두드러지게 나타나고 있으며, 이 경우에는 심리 및 감정 불안정을 완화해줄 수 있는 가족 구성원과 같은 대상의 부재로 감정적 어려움을 겪고 있다. 직장 또는 외부활동을 제외하면 1인 가구의 사회 형태에서 타인과 사회적 관계 맺음의 제한적인 점을 고려하였을 때, 현대인들의 감정적 소통 문제를 해결하기 위해 개인의 동반자와 같은 역할을 할 수 있는 감성 로봇의 컴패니언십에 관해 살펴볼 필요가 있다.
참고문헌 (24)
Breazeal, C., & Brooks, R. "Robot emotion: A functional perspective", Who needs emotions, 271-310. 2005.
Burgoon, J. K. Nonverbal signals. In M. L. Knapp, &G. R. Miller (Eds.), Handbook of interpersonal communication. Thousand Oaks, CA: Sage. 229-285. 1994.
Ge, S. S. Social robotics: Integrating advances in engineering and computer science". In The 4th annual international conference organized by Electrical Engineering / Electronics, Computer, Telecommunication and Information Technology. 2007.
Leslie, K. R., Johnson-Frey, S. H., &Grafton, S. T. "Functional imaging of face and hand imitation: towards a motor theory of empathy". Neuroimage, 21(2), 601-607. 2004.
Stel, M., van den Heuvel, C., &Smeets, R. C. "Facial feedback mechanisms in autistic spectrum disorders". Journal of autism and developmental disorders, 38(7), 1250-1258. 2008.
Stel, M., &Vonk, R. "Mimicry in social interaction: Benefits for mimickers, mimickees, and their interaction". British Journal of Psychology, 101(2),311-323. 2010.
YONG, Y. Facial expression recognition and tracking based on distributed locally linear embedding and expression motion energy, Ph.D. Singapore National University, 2007
김수완, &신동희. "Eye Tracker 를 활용한 페이스북상에서 공감 정도가 사용자 시선에 미치는 영향". Journal of Digital Contents Society, 15(3), 387-393. 2014.
Burleson, B. R.,& Goldsmith, D. . How the comforting process works: Alleviating emotional distress through conversationally induced reappraisals. Handbook of communication and emotion: Research, theory, applications, and contexts,245-280. 1998.
Winstead, B. A.,Derlega, V. J., Lewis, R. J., Sanchez-Hucles, J., & Clarke, E. Friendship, social interaction, and coping with stress. Communication Research, 19(2), 193-211.1992.
Liu, C., Ishi, C.T., Ishiguro, H., & Hagita, N. "Generation of nodding, head tilting and eye gazing for human-robot dialogue interaction". In Human-Robot Interaction (HRI), 2012 7th ACM/IEEE International Conference on (pp.285-292). IEEE. 2012, March.
Yamazaki, A., Yamazaki,K., Kuno, Y., Burdelski, M., Kawashima, M., & Kuzuoka, H. "Precision timing in human-robot interaction: coordination of head movement andutterance". In Proceedings of the SIGCHI Conference on Human Factors inComputing Systems (pp. 131-140). ACM. 2008, April.
Susanne Biundo, Daniel Huller, Pascal Bercher. Special Issue on Companion Technologies. KI- Kunstliche Intelligenz, 30, 1. 5-9. DOI: 10.1007/s13218-015-0421-9. 2016.
Bromell, L., &Cagney, K. A. Companionship in the neighborhood context: Older adults' living arrangements and perceptions of social cohesion. Research on aging, 36(2), 228-243. 2014.
Cabibihan, J.,Javed, H., Jr., M. A., Aljunied, S. M. "Why robots? A survey on the roles and benefits of social robots in the therapy of children with autism". International Journal of Social Robotics, 5(4), 593-618. 2014.
Wada, K., & Shibata, T. "Robot therapy in a care house-results of case studies". In Robot and Human Interactive Communication, ROMAN 2006 .The 15th IEEE International Symposium on. pp. 581-586. IEEE. 2006, September.
Posner, J., Russell, J. A., &Peterson, B. S. "The circumplex model of affect: An integrative approach to affective neuroscience, cognitive development, and psycho-pathology". Development and psychopathology, 17(3), 715-734. 2005.
Lucey, P., Cohn, J.F., Kanade, T., Saragih, J., Ambadar, Z., &Matthews, I. "The extended cohn-kanade dataset (ck+): A complete dataset for action unit andemotion-specified expression". In Computer Vision and Pattern Recognition Workshops (CVPRW), 2010 IEEE Computer Society Conference on (pp. 94-101). IEEE. 2010, June.
Watson, D., Clark,L. A., &Tellegen, A. "Development and validation of brief measuresof positive and negative affect: the PANAS scales". Journal of personality and social psychology, 54(6), 1063. 1988.
Bradley, M. M., &Lang, P. J. "Measuring emotion: the self-assessment manikin and the semantic differential". Journal of behavior therapy and experimental psychiatry, 25(1), 49-59. 1994.
Heerink, M., Krose, B., Evers, V., &Wielinga, B. J. "The influence of social presence on acceptance of a companion robot by older people". Journal of Physical Agents, 2(2), 33-40. 2008
Pearson, R. E. "Support: Exploration of a basic dimension of informal help and counseling". Journal of Counseling & Development, 61(2), 83-87. 1982.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.