$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

스테레오 비전을 이용한 마커리스 정합 : 특징점 추출 방법과 스테레오 비전의 위치에 따른 정합 정확도 평가
Markerless Image-to-Patient Registration Using Stereo Vision : Comparison of Registration Accuracy by Feature Selection Method and Location of Stereo Bision System 원문보기

Journal of the Institute of Electronics and Information Engineers = 전자공학회논문지, v.53 no.1, 2016년, pp.118 - 125  

주수빈 (성균관대학교 바이오메카트로닉스학과) ,  문정환 (성균관대학교 바이오메카트로닉스학과) ,  신기영 (한국전기연구원)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 얼굴 영역 수술용 네비게이션을 위한 스테레오 비전과 CT 영상을 이용하여 환자-영상 간 정합(Image to patient registration) 알고리즘의 성능을 평가한다. 환자 영상 간 정합은 스테레오 비전 영상의 특징점 추출과 이를 통한 3차원 좌표 계산, 3차원 좌표와 3차원 CT 영상과의 정합 과정을 거친다. 스테레오 비전 영상에서 3가지 얼굴 특징점 추출 방법과 3가지 정합 방법을 사용하여 생성될 수 있는 5가지 조합 중 정합 정확도가 가장 높은 방법을 평가한다. 또한 머리의 회전에 따라 환자 영상 간 정합의 정확도를 비교한다. 실험을 통해 머리의 회전 각도가 약 20도의 범위 내에서 Active Appearance Model과 Pseudo Inverse Matching을 사용한 정합의 정확도가 가장 높았으며, 각도가 20도 이상일 경우 Speeded Up Robust Features와 Iterative Closest Point를 사용하였을 때 정합 정확도가 높았다. 이 결과를 통해 회전각도가 20도 범위 내에서는 Active Appearance Model과 Pseudo Inverse Matching 방법을 사용하고, 20도 이상의 경우 Speeded Up Robust Features와 Iterative Closest Point를 이용하는 것이 정합의 오차를 줄일 수 있다.

Abstract AI-Helper 아이콘AI-Helper

This study evaluates the performance of image to patient registration algorithm by using stereo vision and CT image for facial region surgical navigation. For the process of image to patient registration, feature extraction and 3D coordinate calculation are conducted, and then 3D CT image to 3D coor...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 기존 수술용 네비게이션 시스템은 영상 정합의 정확도를 높이기 위해 환자 머리의 움직임을 제한시켰지만, 수술의 자유도를 높이기 위해 환자의 머리가 회전된 경우에도 CT와 환자를 정합 할 수 있는 알고리즘 개발이 필요하다. 따라서 본 연구의 목적은 다양한 얼굴 특징점 추출알고리즘을 이용하여 환자의 머리를 좌우로 0도에서 30도가량 회전시켰을 때 영상 정합의 정확도를 높일 수 있는 알고리즘을 제안하는데 있다.
  • 본 논문은 스테레오 비전의 다양한 촬영 각도에서 높은 정확도로 환자와 의료 영상을 정합시킬 수 있는 마커리스 수술용 네비게이션 시스템을 제안한다. 기존 수술용 네비게이션 시스템은 환자의 공간 좌표를 획득하기 위해 감염문제가 있는 마커나 자기장에 의한 오차가 발생하는 자기식 장비들을 사용하였다.

가설 설정

  • 4) 서로 상응하는 포인트의 개수와 포인트 세트를 저장한다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
수술용 네비게이션 시스템을 이용한 수술의 특징은 무엇인가? 수술용 네비게이션 시스템을 이용한 수술은 환자의 CT 영상과 통합된 내시경 영상을 한 화면에서 동시에볼 수 있기 때문에 환부에 대한 관찰 및 환부의 해부학적 구조에 대한 정확한 정보를 획득할 수 있다. 이러한 수술용 네비게이션 시스템은 하드웨어적으로는 카메라 또는 자기장을 이용한 위치 정보 센싱 부분과 영상 정합을 위한 마커부분으로 나눌 수 있으며, 알고리즘 적으로는 센서 캘리브레이션 모듈, 3차원 좌표 복원 모듈, 영상 정합 모듈, 실시간 마커 트래킹 모듈 등으로 나눌수 있다.
active appearance model은 무엇인가? 또한 본 연구에서는 환자의 얼굴 전역에 고르게 분포되어있는 포인트 세트를 뽑기 위해 active appearance model (AAM)을 사용하였다. AAM은 얼굴의 형태학적인 특징을 이용하여 눈썹, 눈, 코, 입 등의 특징을 추출하는 방법으로 본 연구에서는 G. Tzimiropoulos 의 AAM DB가 사용되었다[15].
스테레오 비전으로부터 획득된 영상의 두 좌표 세트의 정합을 위해 Pseudo inverse matching (PIM) 알고리즘과 RANSAC 알고리즘을 사용할 수 있는 이유는 무엇인가? 본 논문에서는 두 포인트 세트의 정합을 위해 추가적으로 Pseudo inverse matching (PIM) 알고리즘과 RANSAC 알고리즘을 사용하였다. 두 알고리즘 또한 소스 포인트 세트와 타겟 포인트 세트 사이의 거리를 최소로 만드는 변환행렬을 계산할 수 있으며 특히 양데이터 세트 사이에 1:1로 상응하는 점을 알고 있을 경우 빠르고 정확한 매칭이 가능하다[5,17].
질의응답 정보가 도움이 되었나요?

참고문헌 (23)

  1. Seon-Tae Kim, "Medical Management of Chronic Rhinosinusitis," Korean Journal of Otorhinolaryngology, Vol. 54, no. 11, pp. 746-754, November 2011. 

  2. K. K. Min, J. H. Yoon, J. H. Jung, C. Y. Lim, I. G. Kang and S. T. Kim, "The Effect of Intensive Therapy Using Nebulized Antibiotics after Endoscpic Sinus Surgery," Korean Journal of Otorhinolaryngology, Vol. 51, no. 7, pp. 623-629, July 2008. 

  3. B. Kim, H. Lee, H. Song, T. Kim, M. Han and G. Oh, "Clinical Manifestations of Intracranial Complication Associated With Paranasal Sinus Infection," Journal of the Korean Neurological Association, Vol. 19, no. 5, pp. 457-463, 2001. 

  4. G. Strau, K. Koulechov, S. Rottger, J. Bahner, C. Trantakis, M. Hofer, W. Korb, O. Burgert, J. Meixensberger, D. Manzey, A. Dietz and T. Luth, "Evaluation of a navigation system for ENT with surgical efficiency criteria," The Laryngoscope, vol. 116, no. 4, pp. 564-572, April 2006. 

  5. M. Yin, X. Shen, Y. Hu, and X. Fang, "An Automatic Registration Method Based on Fiducial Marker for Image Guided Neurosurgery System," AsiaSim 2013. Springer Berlin Heidelberg, pp. 114-125, 2013. 

  6. 이종원, 정완균, "차세대 척추수술 로봇 기술의 현황과 전망," 대한전자공학회, 제38권, 제11호, 55-60쪽, 2011년 11월. 

  7. J. Wang, H. Suenaga, K. Hoshi, L. Yang, E. Kobayashi, I. Sakuma, and H. Liao, "Augmented reality navigation with automatic marker-free image registration using 3-D image overlay for dental surgery," Biomedical Engineering, IEEE Transactions on, Vol. 61, no. 4, pp. 1295-1304, 2014. 

  8. J. D. Lee, C. H. Huang, T. C. Huang, H. Y. Hsieh, and S. T. Lee, "Medical augment reality using a markerless registration framework," Expert Systems with Applications, Vol. 39, no. 5, pp. 5286-5294, 2012. 

  9. O. Makiese, P. Pillai, A. Salma, S. Sammet, and M. Ammirati, "Accuracy validation in a cadaver model of cranial neuronavigation using a surface autoregistration mask." Neurosurgery, Vol. 67, no. 3, ons85-ons90, 2010. 

  10. Bilsky, M. H., Bentz, B., Vitaz, T., Shah, J., & Kraus, D. "Craniofacial resection for cranial base malignancies involving the infratemporal fossa," Neurosurgery, Vol. 57, (4 Suppl), pp. 339-347, 2005. 

  11. P. Cappabianca, L. Califano, and G. Iaconetta, "Cranial, craniofacial and skull base surgery," Springer, 2010. 

  12. C. Harris, and M. Stephens, "A combined corner and edge detector," In Alvey vision conference, Vol. 15, pp. 50, August 1988. 

  13. H. Bay, T. Tuytelaars, and L. Van Gool, "Surf: Speeded up robust features," In Computer vision-ECCV 2006 (pp. 404-417). Springer Berlin Heidelberg, 2006. 

  14. Y. Pang, W. Li, Y. Yuan, and J. Pan, "Fully affine invariant SURF for image matching," Neurocomputing, Vol. 85, pp. 6-10, 2012. 

  15. G. Tzimiropoulos, and M. Pantic, "Optimization problems for fast aam fitting in-the-wild," In Computer Vision (ICCV), 2013 IEEE International Conference on (pp. 593-600), IEEE, December 2013. 

  16. B. Lee, C. Kim and R. Park, "Derivation of a Confidence Matrix for Orientation Components in the ICP Algorithm," Journal of the Korean Institute of Telematics and Electronics S. S, Vol. 35, no. 12, pp. 69-76, September 1998. 

  17. M. Staroswiecki, "Fault tolerant control: the pseudo-inverse method revisited," In 23h IFAC World Congress (No. 2), July 2005. 

  18. K. Y. Shin, and J. H. Mun, "A multi-camera calibration method using a 3-axis frame and wand," International Journal of Precision Engineering and Manufacturing, Vol. 13, no. 2, pp. 283-289, 2012. 

  19. S. Lee, Y. Han and H. Hahn, "A New Stereo Matching Method based on Reliability Space," Journal of The Institute of Electronics Engineers of Korea SP, Vol. 6, pp. 82-90, November 2010. 

  20. Melfi, R., Kondra, S., & Petrosino, A. (2013). Human activity modeling by spatio temporal textural appearance. Pattern Recognition Letters, 34(15), 1990-1994. 

  21. A. Ahmadian, A. F. Kazerooni, S. Mohagheghi, K. A. Khoiy, and M. S. Hosseini, "A region-based anatomical landmark configuration for sinus surgery using image guided navigation system: A phantom-study," Journal of Cranio-Maxillofacial Surgery, Vol. 42, no. 6, pp. 816-824, 2014. 

  22. T. Sim, H. Kwon, S. E. Oh, S. B. Joo, A. Choi, H. M. Heo, K. Kisun, and J. H. Mun, "Predicting Complete Ground Reaction Forces and Moments During Gait With Insole Plantar Pressure Information Using a Wavelet Neural Network," Journal of biomechanical engineering, Vol. 137, no. 9, 2015. 

  23. T. F. Cootes, G. V. Wheeler, K. N. Walker, and C. J. Taylor, "View-based active appearance models," Image and vision computing, Vol. 20, no. 9, pp. 657-664, 2002. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로