$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

시선위치 추적기법 및 3차원 위치정보 획득이 가능한 사지장애인 보조용 웨어러블 로봇 시스템
Wearable Robot System Enabling Gaze Tracking and 3D Position Acquisition for Assisting a Disabled Person with Disabled Limbs 원문보기

大韓機械學會論文集. Transactions of the Korean Society of Mechanical Engineers. A. A, v.37 no.10, 2013년, pp.1219 - 1227  

서형규 (서울과학기술대학교 기계시스템디자인공학과) ,  김준철 (서울과학기술대학교 기계시스템디자인공학과) ,  정진형 (서울과학기술대학교 기계시스템디자인공학과) ,  김동환 (서울과학기술대학교 기계시스템디자인공학과)

초록
AI-Helper 아이콘AI-Helper

눈 움직임만으로 물건을 집고자 하는 사지장애자를 위한 웨어러블 로봇을 소개한다. 이 로봇에서는 시선위치추적 알고리즘을 적용하여 파지하고자 하는 물체를 보는 동공의 움직임을 확인하여 물체의 2차원 정보를 구하고 물체까지의 깊이는 로봇 어깨위에 올려져 있는 Kinect라는 장치를 사용하여 구한다. 물체와 로봇, 그리고 카메라간의 좌표변환과 매칭을 통하여 최종 물체의 3차원 정보를 추출하고 이 정보는 로봇제어기인 DSP로 전송되어 물체를 잡을 수 있도록 제어하게 되어 궁극적으로 사용자가 물체를 정확히 잡을 수 있도록 한다.

Abstract AI-Helper 아이콘AI-Helper

A new type of wearable robot is developed for a disabled person with disabled limbs, that is, a person who cannot intentionally move his/her legs and arms. This robot can enable the disabled person to grip an object using eye movements. A gaze tracking algorithm is employed to detect pupil movements...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • Gaze tracking기법을 적용하였으며, 물체를 보는 사용자의 동공의 움직임을 정확히 측정하여 물체의 2차원 정보를 구하였다. 또한 물체 위치정보를 보다 명확히 하기 위하여 사용자가 모니터를 주시하게 하여 집고자 하는 물체를 가리키게 하였다.
  • 본 연구에서 제안하는 로봇은 몸을 움직일 수 없는 사지마비환자들이 오직 눈만을 움직일 수 있다는 점에서부터 착안하였다. 환자 즉, 사용자는 로봇 팔을 입고 눈동자를 움직여 줌으로써 사용자가 원하는 방향으로 사용자의 팔에 부착된 기구를 움직이는 것이다.
  • 본 연구에서는 사지를 사용하기 어려운 장애자를 위하여 고안된 웨어러블 로봇을 개발하였다. 사용자의 눈동자의 움직임만을 비전처리를 통하여 파지하고자 하는 물체를 정확하게 파악하고, 이를 로봇의 목표구동 명령으로 처리하여 사용자의 팔을 물체까지 움직여 물체를 집을 수 있도록 하였다.

가설 설정

  • 둘째, 센서의 오차이다. Kinect의 경우 적외선 센서처럼 깊이 값을 측정하기 때문에 매번 일정 하지 않고 빛의 조건에 따라 1mm에서 2mm정도의 오차가 발생한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
현재 알려진 Gaze Tracking 기술로는 무엇이 있습니까? Gaze Tracking은 사람의 시선을 추적하기 위한 방법이며, 사람의 심리를 연구하기 위한 방법으로 주로 사용되어왔다. 현재 알려진 Gaze Tracking 기술로는 시선의 3차원 위치를 모르는 상태에서 사용자의 머리 움직임이나 시선의 이동에 따른 상대적 방향만을 측정하는 2차원 추적기술과 모델기반의 3차원 추적 기술이 알려져 있다.(6) 2차원 추적기술의 예로는 전극을 눈 주위에 부착해 그 전위차를 이용한 EOG 방식(7)으로 눈의 신경근육을 이용하여 측정하는 방식이며, 신경근육이 약간의 움직임에도 민감하므로 오동작률이 높다.
기존의 근력 지원형 로봇을 전신마비 장애인들에게 적용하기 어려운 이유는 무엇입니까? 하지만, 보통의 장애인과 달리 몸을 전혀 움직일수 없는 전신마비 장애인들에게는 기존의 근력 지원형 웨어러블 로봇을 사용하기에는 한계가 있다. 이들은 몸의 근육을 사용할 수 없어서 근전도 신호 (EMG)를 만들어 낼 수 없다. 또한 부분적인 신체의 움직임을 이용하지 못하는 문제 역시 기존 웨어러블 로봇을 사용하기에 어려운 점이 많다. 따라서 기존의 시스템과 다른 방법으로 재활 목적을 겸비한, 스스로의 의지에 따라 자신의 신체를 움직일 수 있는 웨어러블 로봇의 개발이 필요하다.
기존에 개발되고 있는 많은 웨어 러블 로봇들의 방식이 지니는 문제점은 무엇입니까? 뿐만 아니라 기존에 개발되고 있는 많은 웨어 러블 로봇들의 방식에는 여러 가지 문제점이 발생한다. 우선, 근육에서 발생되는 생체 신호를 감지하기 위하여 OP-AMP를 이용한 신호 증폭 센서를 이용하는데 이때, 증폭 과정에서 생기는 수많은 노이즈를 처리하고 분석하데 많은 노력과 시간이 소요된다.(5) 또한 사지마비 장애인처럼 사용자에 따라 출력되는 신호의 정도가 다르기 때문에, 이를 처리 하는데 여러 어려움이 있었다. 따라서 카메라를 통한 비전방식을 이용하면 주변빛 밝기 이외에 별다른 외부 조건에 대해 제한을 받지 않고 영상처리를 통해서 밝기에 따른 노이즈 또한 처리할 수 있기 때문에 사용자의 의도대로 동작시키는데 용이한 면이 있다.
질의응답 정보가 도움이 되었나요?

참고문헌 (12)

  1. Nam, M. K., 2011, "An Analysis on the Design Development Status of Wearable Goos for Measuring the Physical Function and Position," Korean Society of Design Culture, Vol. 17, No. 2, pp. 161-171 

  2. Noritsugu, T., Daisuke, S. and TakaiwaM., 2009, "Development of Power Assist Wear Using Pneumatic Rubber Artificial Muscles," Robotics and Mechatronics, Vol. 21, No. 5, pp. 607-608 

  3. Kiguchi, K., Tanaka, T. and Fukuda, T., 2004, "Neuro-Fuzzy Control of a Robotic Exoskeleton With EMG Signals," IEEE Transactions on Fuzzy Systems, Vol. 12, No. 4, pp. 481-490 

  4. Nalto, J., Obinata, G., Nakayama, A. and Hase, K., 2007, "Development of a Wearable Robot for Assisting Carpentry Workers," ARS, Vol. 4, No. 4, pp. 431-436 

  5. Kundu,A. S., Mazumder, O. and Bhaumik, S., 2011, "Design of Wearable, Low Power, Single Supply Surface EMG Extractor Unit for Wireless Monitoring," International Conference on Nanotechnology and Biosensors IPCBEE, Vol. 25, pp. 69-74 

  6. Park, J., Kwon, Y.-M. and Shon, K., 2006, "Gaze Tracking System Using Feature Points of Pupil and Glints Center," The Korean Society of Broadcast Engineers, Vol. 11, No. 1, pp. 80-90 

  7. Barea, R., Boquete, L., Mazo, M., Lopez, E., 2002, "Wheelchair Guidance Strategies Using EOG," Journal of Intelligent and Robotic System, Vol. 34, pp. 279-299 

  8. Park, K. R., 2004, "Gaze Detection System by IR-LED based Camera," KICS, Vol.29, No. 4C, pp. 494-504 

  9. Lee, W. O., Lee, E. C., Park, K. R., Lee, H. K., Park, M., Lee, H. K. and Hong, J. W., 2009, "A Study on Controlling IPTV Interface Baced on Tracking of Face and Eye Positions," KICS, Vol. 35, No. 6, pp. 930-939 

  10. http://en.wikipedia.org/wiki/Kinect 

  11. Saeed B. Niku, 2011, Introduction to Robotics, 2nd Ed, Prentice Hall, pp. 33-132 

  12. http://blogs.msdn.com/b/msroboticsstudio/archive/ 2011/11/29/kinect-for-robotics.aspx 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로