본 동작포착 및 매핑 기반의 인간-로봇상호작용 플랫폼을 제안한다. 사람의 동작을 포착하고 포착된 동작에서 운동을 계획하고 기기를 작동하게 하는 포착, 처리, 실행을 수행하는 플랫폼의 설계, 운용 및 구현 과정을 소개한다. 제안된 플랫폼의 구현 사례로 신뢰성과 성능이 뛰어난 Kinect 기반 포착기, 처리기에 구현된 상호작용 사이버 아바타 로봇과 처리기를 통한 물리 로봇 제어가 기술되었다. 제안된 플랫폼과 구현 사례는 동작포착 및 매핑 기반의 새로운 기기 제어 작동 방식의 실현 방법으로 기대된다.
본 동작포착 및 매핑 기반의 인간-로봇상호작용 플랫폼을 제안한다. 사람의 동작을 포착하고 포착된 동작에서 운동을 계획하고 기기를 작동하게 하는 포착, 처리, 실행을 수행하는 플랫폼의 설계, 운용 및 구현 과정을 소개한다. 제안된 플랫폼의 구현 사례로 신뢰성과 성능이 뛰어난 Kinect 기반 포착기, 처리기에 구현된 상호작용 사이버 아바타 로봇과 처리기를 통한 물리 로봇 제어가 기술되었다. 제안된 플랫폼과 구현 사례는 동작포착 및 매핑 기반의 새로운 기기 제어 작동 방식의 실현 방법으로 기대된다.
We propose a human-robot interaction(HRI) platform based on motion capture and mapping. Platform consists of capture, processing/mapping, and action parts. A motion capture sensor, computer, and avatar and/or physical robots are selected as capture, processing/mapping, and action part(s), respective...
We propose a human-robot interaction(HRI) platform based on motion capture and mapping. Platform consists of capture, processing/mapping, and action parts. A motion capture sensor, computer, and avatar and/or physical robots are selected as capture, processing/mapping, and action part(s), respectively. Case studies-an interactive presentation and LEGO robot car are presented to show the design and implementation process of Kinect based HRI platform.
We propose a human-robot interaction(HRI) platform based on motion capture and mapping. Platform consists of capture, processing/mapping, and action parts. A motion capture sensor, computer, and avatar and/or physical robots are selected as capture, processing/mapping, and action part(s), respectively. Case studies-an interactive presentation and LEGO robot car are presented to show the design and implementation process of Kinect based HRI platform.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
제안 방법
동작포착 및 매핑 기반의 인간-로봇상호작용 플랫폼을 제안한다. 제안된 플랫폼의 구현 사례로 신뢰성과 성능이 뛰어난 Kinect 기반 포착기와 PC처리기에 구현된 윈도우 환경에서 돌아가는 프로그램의 상호작용 시연과 사이버 아바타 로봇과의 상호작용 체험 그리고 물리 로봇의 제어가 기술되었다.
마이크로소프트의 운동감지 입력장치인 Kinect[6] 기반의 동작포착 및 매핑 시스템을 제안한다. 동작포착 및 매핑(motion capture and mapping)에 기초한 인간-로봇 상호작용(Human-Robot Interaction, HRI) 플랫폼의 주요 개념을 모색하고 구성 방식을 제시하며 적용 사례를 기술한다[3,5].
마이크로소프트의 운동감지 입력장치인 Kinect[6] 기반의 동작포착 및 매핑 시스템을 제안한다. 동작포착 및 매핑(motion capture and mapping)에 기초한 인간-로봇 상호작용(Human-Robot Interaction, HRI) 플랫폼의 주요 개념을 모색하고 구성 방식을 제시하며 적용 사례를 기술한다[3,5].
Kinect는 한 사용자 당 최대 20개의 관절을 인식할 수 있다. 사례에서는 머리, 오른손, 왼손, 오른발, 왼발 다섯 가지의 관절을 사용한다. 머리, 양손, 양발의 관절을 인식하고 인식한 부위를 점으로 나타내어 그 점 사이의 거리 비교를 하여 동작한다.
LEGO Mindstorm 로봇으로 자동차를 구성하고 손을 왼쪽으로 향하면 차는 죄회전을, 손을 오른쪽으로 향하면 차는 우회전을 한다. 손을 주먹 쥐거나 펴면 차는 전진과 중지를 수행하도록 하는 네 가지의 운전 모드를 설정하였다.
Kinect 기반 인간-로봇상호작용 플랫폼을 다양한 로봇으로 실현하는 사례들이 소개되고 있다[14]. 제시하는 사례들은 매핑(mapping)부의 체계적 다양성을 위하여 PC 위도우 환경에서 돌아가는 프로그램을 상호작용으로 시연하는 응용, 영상으로 만든 아바타 로봇과의 상호작용을 체험하는 응용, 물리적 로봇인 LEGO 차의 제어 응용을 구현하였다. Kinect SDK는 Console application, WPF application, Windows Forms application 세 종류의 application 개발환경을 제공하고 언어로는 C#, Visual Basic, C++를 사용할 수 있다[2,5].
Powerpoint 각 슬라이드를 오른손을 움직여 다음 슬라이드로 이동시키고 왼손을 움직이면 이전 슬라이드로 이동시킨다. 크기를 크게 작게 조절하는 응용도 구현하여 수업 시간에 Powerpoint 시연하는데 사용하였다. 이응용은 PC의 위도우 기반 다양한 응용에 적용될 수 있다[4,5,11,12].
대상 데이터
6과 같이 작동자의 제스쳐 명령으로 물리적 로봇을 제어하는 것이다. 물리적 로봇의 예로 LEGO Mindstorm 로봇을 선택하였다.
세 번째 사례는 Fig.6과 같이 작동자의 제스쳐 명령으로 물리적 로봇을 제어하는 것이다. 물리적 로봇의 예로 LEGO Mindstorm 로봇을 선택하였다.
첫 사례는 Fig.4와 같이 기본 제스쳐 인식으로 Powerpoint를 제어하는 것이다. Kinect는 한 사용자 당 최대 20개의 관절을 인식할 수 있다.
성능/효과
동작포착 및 매핑 기반의 인간-로봇상호작용 플랫폼을 제안한다. 제안된 플랫폼의 구현 사례로 신뢰성과 성능이 뛰어난 Kinect 기반 포착기와 PC처리기에 구현된 윈도우 환경에서 돌아가는 프로그램의 상호작용 시연과 사이버 아바타 로봇과의 상호작용 체험 그리고 물리 로봇의 제어가 기술되었다. 제안된 플랫폼과 구현 사례는 동작포착 및 매핑 기반의 새로운 기기 제어 작동 방식과 상호작용의 실현 방법으로 기대된다.
후속연구
제안된 플랫폼의 구현 사례로 신뢰성과 성능이 뛰어난 Kinect 기반 포착기와 PC처리기에 구현된 윈도우 환경에서 돌아가는 프로그램의 상호작용 시연과 사이버 아바타 로봇과의 상호작용 체험 그리고 물리 로봇의 제어가 기술되었다. 제안된 플랫폼과 구현 사례는 동작포착 및 매핑 기반의 새로운 기기 제어 작동 방식과 상호작용의 실현 방법으로 기대된다.
질의응답
핵심어
질문
논문에서 추출한 답변
인체의 움직임이 보여주는 특징은 무엇인가?
인체의 움직임은 오랜 경험(evolution)에서 살아남아 최적인 본능적 지능(motion intelligence)의 모습을 보여 준다. 이러한 사람의 움직임을 로봇과 같은 기계의 운동 에 상호작용으로 조화롭게 참가시키면(intelligent interaction) 복잡한 움직임을 유연하고 쉽게 재현해 낼 수 있을 것이다[1].
인체의 움직임을 로봇과 같은 기계의 운동에 상호작용으로 참가시키면?
인체의 움직임은 오랜 경험(evolution)에서 살아남아 최적인 본능적 지능(motion intelligence)의 모습을 보여 준다. 이러한 사람의 움직임을 로봇과 같은 기계의 운동 에 상호작용으로 조화롭게 참가시키면(intelligent interaction) 복잡한 움직임을 유연하고 쉽게 재현해 낼 수 있을 것이다[1].
운동 포착 및 재현 시스템의 구성은 어떻게 되있는가?
사람의 손, 팔, 관절, 머리와 어깨 등 접촉/비접촉 움직임의 특징을 잡아서 기록하고 보여주고 재현하는 운동 포착 및 재현 시스템은 센서로 운동을 잡는 부분(motion capture), 포착된 운동 정보를 다듬어 운동을 계획하는 부분(motion map), 운동을 재현 또는 제어하는 부분 (motion mimic/control)으로 이루어진다. 시스템의 구조 는 Fig.
참고문헌 (15)
J. Yoon, "A Motion Capture and Mimic System for Intelligent Interactions", Journal of Control, Automation and Systems Engineering, pp.585-592, July 1999.
J. Yoon, "A Robot Museum "Rosieum"", Journal of the Korean Academia-Industrial Cooperation Society, pp. 1236-1240, March 2014. DOI: http://dx.doi.org/10.5762/KAIS.2014.15.3.1236
Yoon J. Mom(Korperlichkeit) and Interactive Technology, ASTA Project 1, Gallery Fusion, Mar., 9, 2000.
Webb J., Ashley J. Beginning Kinect Programming With the Microsoft Kinect Sdk, Apress:Springer-Verlag, 2012. DOI: http://dx.doi.org/10.1007/978-1-4302-4105-8
Yoon J. Kinect based HRI Platform, Pusan National University, 2012.
Wikipedia. Kinect, Available From: en.wikipedia.org/wiki/Kinect. (accessed Dec., 1, 2011)
Wikipedia. HRI, Available From: en.wikipedia.org/wiki/Human_robot_interaction. (accessed Dec., 1, 2011)
※ AI-Helper는 부적절한 답변을 할 수 있습니다.