$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 손동작 영상획득을 이용한 최소침습수술로봇 무구속 마스터 인터페이스
Non-restraint Master Interface of Minimally Invasive Surgical Robot Using Hand Motion Capture 원문보기

Journal of biomedical engineering research : the official journal of the Korean Society of Medical & Biological Engineering, v.37 no.3, 2016년, pp.105 - 111  

장익규 (구미전자정보기술원 전자의료기술연구본부)

Abstract AI-Helper 아이콘AI-Helper

Introduction: Surgical robot is the alternative instrument that substitutes the difficult and precise surgical operation; should have intuitiveness operationally to transfer natural motions. There are limitations of hand motion derived from contacting mechanical handle in the surgical robot master i...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 이 논문에서는 마스터에서 수술동작에 필요한 손동작을 적외선 카메라로 위치를 검출, 공간상 동작정보를 계산, 실시간 전달하여 슬레이브 수술도구를 제어하는 무구속 마스터 인터페이스가 가능함을 확인, 검증한다. 이를 통해 수술 수행 시 동작이 좀 더 직관적(intuitive)인 움직임을 구현할 수 있다.
  • 이 논문에서는 무구속 마스터 인터페이스의 성능을 검증하기 위해서 roll, pitch, yaw 동작을 취할 수 있는 삼각대(Manfrotto; 161MK2; Italy)를 이용하여 roll동작만 취했을 때, pitch 동작만 취했을 때, yaw 동작만 취했을 때 세 개의 동작의 자유도를 동시 측정하여 살펴보았다. Roll, pitch, yaw 동작은 나머지 px, py, pz 좌표와 Grasp을 구하기 위한 두 개의 벡터를 모두 포함하고 있는 값이므로 이 RPY 동작을 검증하면 된다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
모션 측정방법에는 어떠한 방법이 있는가? 이런 다양한 마스터 방법 중에서 모션 측정방법이 있는데, 영상을 이용한 방법, 초흠파를 이용한 방법, 자기식 모션센서를 이용한 방법 등이 있었다. 영상을 이용한 동작 분석방법[13]은 다양한 환경에 대해서 포인트의 위치가 가변적이고 연산량이 많으므로 엄격하게 실시간으로 정확한 결과를 얻기 힘들었다.
상용 수술 로봇 구조의 장점은? 상용 수술 로봇은 크게 수술을 수행하는 수술도구(Slave)부분과 수술자가 손동작을 입력하는 조종간(Master) 부분으로 나뉜다. 이러한 구조는 조종간(Master)에서 입력하는 손동작의 자유도와 수술도구(Slave) 동작의 자유도사이의 인터페이스를 연결하는 과정에서 상대적으로 크기가 큰 움직임을 작고 정밀한 수술도구 동작으로 변환해 주고 복잡한 복강경 수술 동작을 기구학적으로 직관적 움직임이 가능하게 하여 사용 시 최소 침습적 수술을 가능하게 하였다[1]. 이 방법은 Da vinci[2]와 같은 기존의 수술로봇에 적용되어 직관적 수술 수행에 크게 기여하였지만 복잡한 기계식 핸들로 구성된 조정간(Master)이 손에 접촉되어 있어 조작시 사람과 기계 간 및 링크 간 물리적 간섭[2], 기계적 특이점[3-6], 등방성[7-10] 등의 문제가 발생하여 직관적인 수술동작 수행에 제약이 있었고 마스터 인터페이스에서 자연스러운 움직임을 구현하기 위한 마스터에 대한 연구들이 여러 분야에서 이루어 졌다[6,11-14].
상용 수술 로봇은 어떻게 나누어지는가? 상용 수술 로봇은 크게 수술을 수행하는 수술도구(Slave)부분과 수술자가 손동작을 입력하는 조종간(Master) 부분으로 나뉜다. 이러한 구조는 조종간(Master)에서 입력하는 손동작의 자유도와 수술도구(Slave) 동작의 자유도사이의 인터페이스를 연결하는 과정에서 상대적으로 크기가 큰 움직임을 작고 정밀한 수술도구 동작으로 변환해 주고 복잡한 복강경 수술 동작을 기구학적으로 직관적 움직임이 가능하게 하여 사용 시 최소 침습적 수술을 가능하게 하였다[1].
질의응답 정보가 도움이 되었나요?

참고문헌 (20)

  1. Mitsuishi M., "Medical Robot and Master Slave System for Minimally Invasive Surgery," in Complex Medical Engineering, 2007. IEEE/ICME International Conference on, 2007, pp. 8-13. 

  2. Y. Komoguchi, et al., "Redundancy resolution of a 7DOF haptic interface considering colloision and singularity avoidance," in International Conference on Intelligent Robots and Systems Acropolis Convention Center, Nice, France, 2008, pp. 3513-3518. 

  3. GAV Christiansson and E. Fritz, "A novel planar 3-DOF hard-soft haptic teleoperator," in Sencond Joint EuroHaptics Conference and Symposium on Haptic Interface for Virtual Environment and Teleoperator Systems, 2007, pp. 361-366. 

  4. HW Kim, et al., "Singularity-free load distribution algorithms for a 6DOF parallel haptic device," in Proceedings of the 2004 IEEE International Conference on Robotics & Automation, New Orleans, 2004, pp. 298-304. 

  5. K Nagase and S. Katsura, "Bilateral control considering singularity based on observation of torque error," in The 11th IEEE International Workshop on Advanced Motion Control, Nagaoka, 2010, pp. 744-749. 

  6. T. Molet, et al., "A Real Time Anatomical Converter For Human Motion Capture," in In Eurographics Workshop on Computer Animation and Simulation 1996, pp.79-94. 

  7. JH Chung, et al., "Implementation of foldable 3DOF master device to handle a large glass plate," in International Conference on Intelligent Robot and Systems Louis, 2009, pp. 741-747. 

  8. LJ Socco, et al., "On the use of scaling matrices for task specific robot design," IEEE transactions on Robotics and Automation, vol. 15, pp. 958-965, 1999. 

  9. MJH Lum, et al., "Optimization of a spherical mechanism for a minimally invasive surgical robot: Theoretical and experimental approaches," IEEE transactions on Biomedical Engineering, vol. 53, pp. 1440-1445, 2006. 

  10. T Huang, et al., "Optimal kinematic design of 2 DOF parallel manipulators with well shaped workspace bounded by a specified conditioning index," IEEE transactions on Robotics and Automation, vol. 20, pp. 538-543, 2004. 

  11. A.G. Kirk, et al., "Skeletal Parameter Estimation from Optical Motion Capture Data," in CVPR 2005, 2004, pp. 782-788. 

  12. J. Borenstein and L. Feng, "Gyrodometry: A New Method for Combining Data from Gyros and Odometry in Mobile Robots," in Proceedings of the 1996 IEEE International Conference on Robotics and Automation, Minneapolis, 1996, pp. 423-428. 

  13. J. Deutscher, et al., "Articulated body motion capture by annealed particle filtering," in Computer Vision and Pattern Recognition, 2000. Proceedings. IEEE Conference on, SC, USA, 2000, pp. 126-133. 

  14. Y. Nishida and K. Kitamura, "Quick Realization of Function for Detecting Human Activity Events by Ultrasonic 3D Tag and Stereo Vision," in IEEE International Conference on Pervasive Computing and Communications, 2004, pp. 43-54. 

  15. T.L. Grigorie and D.G. Sandu, "The influences of the gyro sensors' errors on the attitude calculus," in 49th International Symposium ELMAR 2007, Zadar, 2007, p. 85. 

  16. F. Wang, et al., "Gait analysis and validation using voxel data," in 31st Annual International Conference of the IEEE EMBS, Minneapolis, Minnesota, 2009, p. 6127. 

  17. H.M. Je, et al., "Hand gesture recognition to understand musical conducting action," in IEEE International Conference on Robot & Human Interactive Communication, Jeju, Korea, 2007, p. 163. 

  18. J.E. McNamara, et al., "Motion capture of chest and abdominal markers using a flexible multi-camera motion-tracking system for correcting motion-induced artifacts in cardiac SPECT," in Nuclear science symposium conference record, 2007., Honolulu, HI, 2007, p. 4289. 

  19. W. Tian, et al., "Spatio-temporal characteristics of human gaits based on joint angle analysis," in 3rd IEEE International Conference on, Chengdu, 2010, p. 439. 

  20. S.B. Niku, "Robot kinematics: position analysis," in Introduction to robotics analysis, systems, applications, ed CA: Prentice hall, 2002, pp. 68-72. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로