콘빔 CT 영상과 구강 스캔 모델 간 자동 영상 정합 방법 김지헌 소프트웨어학과 숭실대학교 대학원 치과에서 임플란트, 교정 치료, 악안면 수술 및 기타 수술 절차를 계획 하려면 컴퓨터 단층 촬영(Computed Tomography; CT) 이미지와 구강 스캔 모델 간의 영상 정합이 필수적이다. 일반적으로 ...
콘빔 CT 영상과 구강 스캔 모델 간 자동 영상 정합 방법 김지헌 소프트웨어학과 숭실대학교 대학원 치과에서 임플란트, 교정 치료, 악안면 수술 및 기타 수술 절차를 계획 하려면 컴퓨터 단층 촬영(Computed Tomography; CT) 이미지와 구강 스캔 모델 간의 영상 정합이 필수적이다. 일반적으로 멀티 모달리티 영 상 정합은 공통된 영역에 대한 파악을 통해 수행된다. 하지만 CT 영상 에 존재하는 금속물 허상(Metal Artifact)의 영향으로 인해 공통된 영역 을 파악하는 것이 어렵고, 멀티 모달리티 영상에서 영상 정합에 필요한 공통 영역과 속성을 식별하는 것은 어렵다. 또한, 스캔 모델에 존재하는 공통되지 않은 영역을 구별하는 것은 어렵기 때문에 일반적으로 사용자 의 개입이 필요하다. 최근 컨볼루션 신경망(Convolutional Neural Network; CNN)은 멀티 모달리티 영상에서 공통 영역을 추출하고 속성을 식별을 가능하게 하는 데 두각을 나타내고 있다. CT 영상에서 개별 치아를 추출하기 위해 딥 러닝을 이용한 다양한 접근 방식이 제안되었지만, 금속물 허상이 있는 치아와 결실 치아를 명확하게 구분하는 것은 여전히 중요한 과제로 남아 있다. 본 논문에서는 사용자의 개입 없이 CT 영상과 구강 스캔 모델 간의 완전 자동 영상 정합 방법을 제안한다. 이 과정에는 개별 치아에 대한 분할을 수행하여 공통 영역을 추출하고 이를 통해 등록 결과를 얻는 과 정이 포함된다. 또한, 공통 영역을 명시적으로 정의하지 않고 각 영상에 컨볼루션 신경망을 적용하여 특징을 추출하고 표현학습을 통해 특징 기 반 정합을 수행한다. 주어진 OSSTEM 데이터 세트에 대한 실험 결과, 기존 연구 방법에 비해 33.6% 향상된 정확도를 얻고 제안한 방법의 효과를 입증한다.
콘빔 CT 영상과 구강 스캔 모델 간 자동 영상 정합 방법 김지헌 소프트웨어학과 숭실대학교 대학원 치과에서 임플란트, 교정 치료, 악안면 수술 및 기타 수술 절차를 계획 하려면 컴퓨터 단층 촬영(Computed Tomography; CT) 이미지와 구강 스캔 모델 간의 영상 정합이 필수적이다. 일반적으로 멀티 모달리티 영 상 정합은 공통된 영역에 대한 파악을 통해 수행된다. 하지만 CT 영상 에 존재하는 금속물 허상(Metal Artifact)의 영향으로 인해 공통된 영역 을 파악하는 것이 어렵고, 멀티 모달리티 영상에서 영상 정합에 필요한 공통 영역과 속성을 식별하는 것은 어렵다. 또한, 스캔 모델에 존재하는 공통되지 않은 영역을 구별하는 것은 어렵기 때문에 일반적으로 사용자 의 개입이 필요하다. 최근 컨볼루션 신경망(Convolutional Neural Network; CNN)은 멀티 모달리티 영상에서 공통 영역을 추출하고 속성을 식별을 가능하게 하는 데 두각을 나타내고 있다. CT 영상에서 개별 치아를 추출하기 위해 딥 러닝을 이용한 다양한 접근 방식이 제안되었지만, 금속물 허상이 있는 치아와 결실 치아를 명확하게 구분하는 것은 여전히 중요한 과제로 남아 있다. 본 논문에서는 사용자의 개입 없이 CT 영상과 구강 스캔 모델 간의 완전 자동 영상 정합 방법을 제안한다. 이 과정에는 개별 치아에 대한 분할을 수행하여 공통 영역을 추출하고 이를 통해 등록 결과를 얻는 과 정이 포함된다. 또한, 공통 영역을 명시적으로 정의하지 않고 각 영상에 컨볼루션 신경망을 적용하여 특징을 추출하고 표현학습을 통해 특징 기 반 정합을 수행한다. 주어진 OSSTEM 데이터 세트에 대한 실험 결과, 기존 연구 방법에 비해 33.6% 향상된 정확도를 얻고 제안한 방법의 효과를 입증한다.
Image registration between Computed Tomography (CT) images and intraoral scan models is essential for planning implants, orthodontic treatment, maxillofacial surgery, and other surgical procedures in dentistry. However, it is generally challenging to identify the common regions and attributes necess...
Image registration between Computed Tomography (CT) images and intraoral scan models is essential for planning implants, orthodontic treatment, maxillofacial surgery, and other surgical procedures in dentistry. However, it is generally challenging to identify the common regions and attributes necessary for image registration across different imaging modalities, due to the influence of metal artifacts present in CT images. Additionally, distinguishing non-common regions present in scan models is difficult, typically necessitating user intervention. Recently, Convolutional Neural Networks (CNNs) have shown prominence in extracting common regions and enabling multi-modal learning. Various approaches using deep learning have been proposed to extract individual teeth from CT images, but clearly distinguishing - viii - teeth with metal artifacts and missing teeth remains a significant challenge. In this paper, we propose a method for completely automatic image registration between CT images and intraoral scan models without user intervention. This process involves performing segmentation on individual teeth to extract common regions, from which we obtain the registration result. Furthermore, without explicitly defining common regions, we apply a Convolutional Neural Network to each image to extract features and carry out feature-based registration through representation learning. Our experiments on the given OSSTEM dataset outperformed the existing approaches by 33.6% in accuracy score, demonstrating the effectiveness of our proposed method.
Image registration between Computed Tomography (CT) images and intraoral scan models is essential for planning implants, orthodontic treatment, maxillofacial surgery, and other surgical procedures in dentistry. However, it is generally challenging to identify the common regions and attributes necessary for image registration across different imaging modalities, due to the influence of metal artifacts present in CT images. Additionally, distinguishing non-common regions present in scan models is difficult, typically necessitating user intervention. Recently, Convolutional Neural Networks (CNNs) have shown prominence in extracting common regions and enabling multi-modal learning. Various approaches using deep learning have been proposed to extract individual teeth from CT images, but clearly distinguishing - viii - teeth with metal artifacts and missing teeth remains a significant challenge. In this paper, we propose a method for completely automatic image registration between CT images and intraoral scan models without user intervention. This process involves performing segmentation on individual teeth to extract common regions, from which we obtain the registration result. Furthermore, without explicitly defining common regions, we apply a Convolutional Neural Network to each image to extract features and carry out feature-based registration through representation learning. Our experiments on the given OSSTEM dataset outperformed the existing approaches by 33.6% in accuracy score, demonstrating the effectiveness of our proposed method.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.