효과적인 로봇 행동 생성을 위한 선형의 정서-표정 공간 내 감정 경계의 결정 -비선형의 제스처 동기화를 위한 정서, 표정 공간의 영역 결정 The Emotional Boundary Decision in a Linear Affect-Expression Space for Effective Robot Behavior Generation원문보기
미래에는 로봇이 사람의 감정 상태를 이해하거나 적절하게 자신의 행동을 표현하는 기능은 중요해 질 것이다. 사람간의 교류에서 메세지의 93%가 행동 표현에 있으며, 바디 랭귀지는 감정의 양을 표현하므로 행동 표현은 중요한 감정 표현 수단이다. 최근의 로봇들은 얼굴, 제스처, LED, 소리 등의 복합적 방법을 이용하여 사람과 교류하고 있지만 포즈는 위치와 방위, 얼굴이나 제스처는 속도, 말이나 색 풍은 시간에 대한 정보가 필요하기 때문에 하나의 모델로 통합하거나 동기화 시키기 어렵다. 한편 작은 세기의 감정에서, 얼굴은 쉽게 표현이 가능하지만 제스처는 표현이 힘들다. 또한 기존의 감정 경계는 같은 형태와 크기를 가지거나, HHI 분야에 국한되어 연구되어 왔다. 본 논문에서는 정서 공간에서 감정의 경계를 어떻게 정의할 것이며, 복합적 표현 방법을 시스템적으로 어떻게 동기화할 수 있을지를 제안한다.
미래에는 로봇이 사람의 감정 상태를 이해하거나 적절하게 자신의 행동을 표현하는 기능은 중요해 질 것이다. 사람간의 교류에서 메세지의 93%가 행동 표현에 있으며, 바디 랭귀지는 감정의 양을 표현하므로 행동 표현은 중요한 감정 표현 수단이다. 최근의 로봇들은 얼굴, 제스처, LED, 소리 등의 복합적 방법을 이용하여 사람과 교류하고 있지만 포즈는 위치와 방위, 얼굴이나 제스처는 속도, 말이나 색 풍은 시간에 대한 정보가 필요하기 때문에 하나의 모델로 통합하거나 동기화 시키기 어렵다. 한편 작은 세기의 감정에서, 얼굴은 쉽게 표현이 가능하지만 제스처는 표현이 힘들다. 또한 기존의 감정 경계는 같은 형태와 크기를 가지거나, HHI 분야에 국한되어 연구되어 왔다. 본 논문에서는 정서 공간에서 감정의 경계를 어떻게 정의할 것이며, 복합적 표현 방법을 시스템적으로 어떻게 동기화할 수 있을지를 제안한다.
In the near future, robots should be able to understand human's emotional states and exhibit appropriate behaviors accordingly. In Human-Human Interaction, the 93% consist of the speaker's nonverbal communicative behavior. Bodily movements provide information of the quantity of emotion. Latest perso...
In the near future, robots should be able to understand human's emotional states and exhibit appropriate behaviors accordingly. In Human-Human Interaction, the 93% consist of the speaker's nonverbal communicative behavior. Bodily movements provide information of the quantity of emotion. Latest personal robots can interact with human using multi-modality such as facial expression, gesture, LED, sound, sensors and so on. However, a posture needs a position and an orientation only and in facial expression or gesture, movements are involved. Verbal, vocal, musical, color expressions need time information. Because synchronization among multi-modalities is a key problem, emotion expression needs a systematic approach. On the other hand, at low intensity of surprise, the face could be expressed but the gesture could not be expressed because a gesture is not linear. It is need to decide the emotional boundaries for effective robot behavior generation and synchronization with another expressible method. If it is so, how can we define emotional boundaries? And how can multi-modality be synchronized each other?
In the near future, robots should be able to understand human's emotional states and exhibit appropriate behaviors accordingly. In Human-Human Interaction, the 93% consist of the speaker's nonverbal communicative behavior. Bodily movements provide information of the quantity of emotion. Latest personal robots can interact with human using multi-modality such as facial expression, gesture, LED, sound, sensors and so on. However, a posture needs a position and an orientation only and in facial expression or gesture, movements are involved. Verbal, vocal, musical, color expressions need time information. Because synchronization among multi-modalities is a key problem, emotion expression needs a systematic approach. On the other hand, at low intensity of surprise, the face could be expressed but the gesture could not be expressed because a gesture is not linear. It is need to decide the emotional boundaries for effective robot behavior generation and synchronization with another expressible method. If it is so, how can we define emotional boundaries? And how can multi-modality be synchronized each other?
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 논문에서는 선형의 정서-표정 모델을 비선형의 행동표현에 적용시킬 수 있도록 감정의 경계를 제안한다. 얼굴표정 로봇 돌도리 를 바탕으로 6차원의 표정 공간에서 다각형의 감정 경계를 제안하였고, 3차원의 정서 공간에서 8。% 의 인식률을 가지는 점까지의 유클리드 놈 최소값을 이용한 구 형태의 경계를 제안하였다.
본 논문은 로봇이 인간과 원활하고 효율적으로 감정 교류를 할 수 있도록 제안된 선형의 동적 정서-표정 모델에서 감정의 경계를 결정하고, 이를 바탕으로 얼굴 표정과 함께 행동 표현의 동기화를 목적으로 한다. 표정 공간에서 80% 인식률을 가지는 감정의 경계를 결정한 다음, 정서-표정 모델을 이용하여 표정 공간의 경계를 정서 공간의 경계를 제안한다.
가설 설정
이를 이용하여 역으로 정서 공간을 정의한 후 선형 사상 관계가 있음을 증명하였다 [3, 4]., 돌 도리'에서는 기본 6가지 표정이 정서 공간의 기저가 될 수 있다고 가정하였다. '돌도리' 의 6가지 기본 컨트롤 포인트는 눈썹, 안쪽 눈꺼풀, 바깥쪽 눈꺼풀, 윗입술, 아랫입술, 입 꼬리다.
하지만 각 감정의 경계를 정하기 위해서는 만들어진 표정이 1。。% 인식된다고 가정하지 않으면 경계를 결정하지 못하는 근본적인 문제가 생기게 된다. 따라서 가장 왼쪽에 보이는 표정은 100% 그 감정의 표정으로 인지된다고 가정한다면 설문 응답자가 표시한 영역까지는 해당 감정이라고 생각할 수 있다. [그림 4],
제안 방법
8。% 의 인식률을 가지는 점까지의 유클리드 놈 최소값을 이용한 구 형태의 경계를 제안하였다. 제안된 감정의 경계를 이용하여 선형화가 가능한 감정 표현과 비선형의 특성을 가진 행동표현을 동기화할 수 있는 시스템적 방법을 제안하였다.
방법을 사용하여 전체 표정 공간의 90% 이상을 확장할 수 있는 정서 공간의 기저 개수를 3개로 선택하였다. '돌 도리'의경우에는 3차원 정서 공간의 기저로 화남, 놀람, 슬픔을 표현할 수 있는 정서가 결정되었다.
모든 경우를 생각할 수 있다. 설문 조사는 한 화면에 순차적으로 감정이 변하는 이미지 7장을 2 줄로 배열해두고, 왼쪽에서 오른쪽으로 감정이 변화할 때 어느 부분까지 왼쪽 감정 같은지에 대해 경계를 만들라고 하였다. 여기에서 하나의 가정이 필요하다.
이 설문 조사는 총 26명에게 실시되었고, 응답자들은 20~30대 연령의 학생으로, 파일 형태로 설문지를 제시하면 결과 파일을 되돌려 주는 형식으로 진행되었다. 설문지에는 한 페이지에 이미지 14장을 배치하였고, 설문 응답자의 기본정보에 대한 질문 페이지를 포함하여 총 22장의 페이지를 보여주었다.
얼굴표정 로봇 돌도리 를 바탕으로 6차원의 표정 공간에서 다각형의 감정 경계를 제안하였고, 3차원의 정서 공간에서 8。% 의 인식률을 가지는 점까지의 유클리드 놈 최소값을 이용한 구 형태의 경계를 제안하였다. 제안된 감정의 경계를 이용하여 선형화가 가능한 감정 표현과 비선형의 특성을 가진 행동표현을 동기화할 수 있는 시스템적 방법을 제안하였다.
표현의 동기화를 목적으로 한다. 표정 공간에서 80% 인식률을 가지는 감정의 경계를 결정한 다음, 정서-표정 모델을 이용하여 표정 공간의 경계를 정서 공간의 경계를 제안한다.
대상 데이터
설문지에는 한 페이지에 이미지 14장을 배치하였고, 설문 응답자의 기본정보에 대한 질문 페이지를 포함하여 총 22장의 페이지를 보여주었다. 설문 응답에 걸리는 시간은 평균 10분이었다.
성능/효과
또한 80%의 인식률과 60%의 인식률을 표시해보면 기하학적 거리의 경계모양과 일치하지 않음을 알 수 있다. 이것은 인식률의 변화량이 감정마다 다르기 때문이다.
후속연구
초기 로봇은 산업용으로 단지 주어진 목표만을 수행하기 위한 머니플레이터로 여겨졌으나, 기술이 발전함에 따라 로봇은 인간의 생활 속에서 편의를 제공하고 인간과 교류하기 위한 동반자로 여겨지고 있다. 또한 로봇은 인간과의 정보 교류뿐만 아니라 감정의 교류를 통해 인간에게 좀 더 친숙하게 다가갈 수 있을 것이다. 로봇이 사회적 로봇(Social Robot)으로써의 기능을 수행하기 위해서 인간의 감정을 인식하고 분석하여 인간에게 감정을 표현하는 로봇과 인간간의 상호교류(HRI: Human-Robot Interaction)가 필요하다는 점은 인간간의 상호교류(HHI: Human-Human Interaction)에서 찾아볼 수 있匸]■.
아직은 선형의 정서-표정 모델이 '돌도리' 에만 적용되기 때문에 감정의 경계 또한 돌도리' 에만 적용해 보았고, 경계를 결정할 때 설문조사 인원이 적어 오차 범위가 크지만, 제안된 경계를 통해서 행동 표현의 동기화 실마리를 찾을 수 있을 것이다.
추후 연구 과제로 비선형적 행동 표현을 실제로 적용시켜경계를 검증해 보는 문제와 다른 로봇에 적용해 보는 문제가 남아있다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.