$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

EMG 신호 기반의 웨어러블 기기를 통한 화재감지 자율 주행 로봇 제어
Autonomous Mobile Robot Control using the Wearable Devices Based on EMG Signal for detecting fire 원문보기

한국지능시스템학회 논문지 = Journal of Korean institute of intelligent systems, v.26 no.3, 2016년, pp.176 - 181  

김진우 (중앙대학교 전자전기공학부) ,  이우영 (중앙대학교 전자전기공학부) ,  유제훈 (중앙대학교 전자전기공학부) ,  심귀보 (중앙대학교 전자전기공학부)

초록
AI-Helper 아이콘AI-Helper

본 논문은 EMG(Electromyogram) 신호 기반의 웨어러블 기기를 이용하여 화재 감지 자율 주행 로봇을 제어하는 시스템을 제안하였다. 사용자의 EMG 신호를 읽어내기 위한 기기로는 Myo armband를 이용하였다. EMG 신호의 데이터를 블루투스 통신을 이용하여 컴퓨터로 전송한 후 동작을 분류하였다. 그 후 다시 블루투스를 이용하여 분류한 데이터 값을 uBrain 로봇으로 전송해 로봇이 움직일 수 있도록 구현하였다. 로봇을 조종 가능한 명령으로는 직진, 우회전, 좌회전, 정지를 구성하였다. 또한 로봇이 사용자로부터의 블루투스 신호를 받아오지 못하거나 사용자가 주행모드 변경의 명령을 내리면 로봇이 자율 주행을 하도록 하였다. 로봇이 주변을 돌아다니면서 적외선 센서로 화재를 감지하면 LED를 깜빡여 로봇 주변의 상황을 확인할 수 있도록 하였다.

Abstract AI-Helper 아이콘AI-Helper

In this paper, the autonomous mobile robot control system for detecting fire was proposed using the wearable device based on EMG(Electromyogram) signal. Myo armband is used for detecting the user's EMG signal. The gesture was classified after sending the data of EMG signal to a computer using Blueto...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 인간의 접근이 어려운 화재현장에서 불꽃을 감지하기 위하여 미로찾기 알고리즘 중 우수법을 기반으로 자율주행하며 화재를 조기에 발견하고 조치를 위한 센싱 및 알림 기능을 가진 로봇 시스템을 제안하였다. 또한 기존 화재현장 보조로봇의 한계점인 로봇을 제어할 때 양손이 자유롭지 못하다는 점과 유선으로만 조작할 수 있다는 점을 보완하는 것을 목표로 로봇 시스템을 제안하였다.
  • 이 uBrain 로봇은 다양한 센서와 디스플레이, 통신기기를 이용하여 여러 실험을 할 수 있도록 개발되었다. 본 논문에서는 uBrain의 기능 중 초음파 센서와 적외선 센서, Bluetooth를 사용하여 화재 감지 로봇을 구현하였다[13]. uBrain의 개발 환경으로는 Keil 사의 uVision 5를 사용하였다.
  • 본 논문에서는 로봇을 제어하기 위하여 사용자의 오른팔 전완근의 가장 두꺼운 부분에 Myo를 착용한 상태에서 8개의 Myo내부 EMG 센서를 통해 근전도의 raw data를 측정한다. 그리고 블루투스를 이용하여 측정한 데이터를 컴퓨터로 전송한다.
  • 본 논문에서는 사용자가 특정한 동작을 취하면 Myo가 동작을 감지하여 로봇이 정해진 움직임을 보이도록 구현하였다. 사용자가 직접 로봇을 조종하는 수동 주행 모드뿐 아니라 자율 주행 기능도 추가하여 로봇과 사용자로부터의 신호가 끊겨도 로봇이 임무를 지속적으로 수행할 수 있게 하였다.
  • 본 논문에서는 인간의 접근이 어려운 화재현장에서 불꽃을 감지하기 위하여 미로찾기 알고리즘 중 우수법을 기반으로 자율주행하며 화재를 조기에 발견하고 조치를 위한 센싱 및 알림 기능을 가진 로봇 시스템을 제안하였다. 또한 기존 화재현장 보조로봇의 한계점인 로봇을 제어할 때 양손이 자유롭지 못하다는 점과 유선으로만 조작할 수 있다는 점을 보완하는 것을 목표로 로봇 시스템을 제안하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
기존의 인터페이스 기기의 단점은? 이러한 기술을 인간과 로봇의 상호작용 (HRI, Human-Robot Interaction)이라 하는데, 기존에는 사용자가 컴퓨터 혹은 로봇을 제어하기 위해 리모컨, 조이스틱, 터치패드 등의 인터페이스 기기를 이용하였다. 하지만 기존의 인터페이스 기기는 양손을 이용하기 때문에 일의 효율성이 떨어지는 단점이 있다. 최근에는 이러한 단점을 극복하기 위해 생체신호를 이용한 HRI 기술의 연구가 활발하게 이루어지고 있다.
EEG 신호를 이용한 기술의 단점은? EEG 신호를 이용한 HRI 기술은 사람의 뇌파를 측정하여 로봇을 제어하는 것으로 현재 활발히 연구되고 있는 분야이다 [2, 3]. 하지만 EEG 신호를 이용한 기술은 뇌파의 신호가 일정하지 못하고 외부로부터의 간섭을 쉽게 받기 때문에 분석이 어렵다는 단점이 있다.
EMG 신호를 이용한 HRI 기술을 이용하는 예는 무엇인가? EMG 신호를 이용한 HRI 기술은 인터페이스 기기를 손으로 조작하지 않고 로봇을 제어할 수 있기 때문에 정찰 및 탐사의 목적으로 로봇을 조종하는데 유리하다. 예를 들면 군인이 총을 든 상태로 로봇을 조종하거나 연구자가 추운 지방에서 장갑을 끼고도 쉽게 로봇을 조종할 수 있다 [6]. 이와 같이 EMG 신호를 이용하면 양손에 자유를 가져다주고 극한의 환경에서도 손쉽게 로봇을 조종할 수 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (13)

  1. M. R. Ahsan, M. I. Ibrahimy, and O. O. Khalifa, “EMG Signal Classification for Human Computer Interaction: A Review,” European Journal of Scientific Research, Vol. 33, No. 3, pp. 480-501, 2009. 

  2. J. H. Yu, and K. B. Sim, “Robot Control based on Steady-State Visual Evoked Potential ising Arduino and Emotiv Epoc,” Journal of Korean Institute of Intelligent Systems, Vol. 25, No. 3, pp. 254-259, 2015. 

  3. K. B. Sim, H. G. Yeom, and I. Y. Lee, “EEG Signals Measurement and Analysis Method for Brain-Computer Interface,” Journal of Korean Institute of Intelligent Systems, Vol. 18, No. 5, pp. 605-610, 2008. 

  4. M. Duguleana and G. Mogan, "Using eye blinking for eogbased robot control," in Emerging Trends in Technological Innovation, 2010, pp. 343-350. 

  5. B. I. Jeon, H. C. Cho, and H. T. Jeon, “The Implementation of the Intelligent Exoskeleton Robot Arm Using ElectroMiogram(EMG) vital Signa,” Journal of Korean Institute of Intelligent Systems, Vol. 22, No. 5, pp. 533-539, 2012. 

  6. M. Sathiyanarayanan, T. Mulling, and B. Nazir, "Controlling a Robot Using a Wearable Device (MYO)," International Journal of Engineering Development and Research, Vol. 3, No. 3, 2015. 

  7. Y. S. Moon, Y. N. Seo, N. Y. Ko, S. H. Roh, and J. P. Park, “Robot Design for Fire Detection and Data Processing,” The Journal of the Korea institute of electronic communication sciences, Vol. 5, No. 1, pp. 31-36, 2010. 

  8. K. M. Jeong, J. K. Kang, G. H. Lee, S. U. Lee, Y. C. Seo, C. H. Choi, S. H. Jung, and S. H. Kim, “Development of a Robotic System for Searching Human Victims in Disasters,” Journal of Institute of Control, Robotics and Systems, Vol. 13, No. 2, pp. 114-120, 2007. 

  9. K. R. Kim, and J. T. Kim, "A Research of the Development Plan for a Highly Adaptable FSR (Fire Safety Robot) in the Scene of the Fire," Fire Science and Engineering, Vol. 24, No. 3, 2010. 

  10. J. Y. Heo, G. T. Kang, and W. C. Lee, “Navigation of an Autonomous Mobile Robot with Vision and IR Sensors Using Fuzzy Rules,” Journal of Korean Institute of Intelligent Systems, Vol. 17, No. 7, pp. 901-906, 2007. 

  11. I. K. Lee, and S. H. Kwon, “Ontology-based Control of Autonomous Robots,” Journal of Korean Institute of Intelligent Systems, Vol. 19, No. 1, pp. 69-74, 2009. 

  12. Thalmic Labs. "Myo Gesture Control Armband," Available: https://www.myo.com/techspecs, 2015, [Accessed: February 26, 2016] 

  13. Huins Inc. "uBrain," Available: http://huins.com/new/main/main.php, 1992, [Accessed: April 29, 2016] 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로