목적: 치과 방사선 영상의 진단 자동화는 치과의사의 진단을 보조하여 업무 효율성을 향상시킬 수 있다. 진단 자동화를 위한 첫 번째 단계는 치아와 같은 정상적인 해부학 구조를 구별하는 것이다. 본 연구는 적은 수의 파노라마 영상 데이터를 이용하여 CNN (convolutional neural network)을 적용한 치아 분할 방법을 제안하고자 한다. 재료 및 방법: 총 50개의 파노라마를 무작위로 30개의 훈련 데이터, 10개의 검증 데이터 및 10개의 테스트 데이터로 나누었다. 파노라마의 개별 치아 경계선을 따라 주석을 작성하여 각 치아별로 실측 자료 (ground truth) 이미지를 저장하였다. 모델의 ...
목적: 치과 방사선 영상의 진단 자동화는 치과의사의 진단을 보조하여 업무 효율성을 향상시킬 수 있다. 진단 자동화를 위한 첫 번째 단계는 치아와 같은 정상적인 해부학 구조를 구별하는 것이다. 본 연구는 적은 수의 파노라마 영상 데이터를 이용하여 CNN (convolutional neural network)을 적용한 치아 분할 방법을 제안하고자 한다. 재료 및 방법: 총 50개의 파노라마를 무작위로 30개의 훈련 데이터, 10개의 검증 데이터 및 10개의 테스트 데이터로 나누었다. 파노라마의 개별 치아 경계선을 따라 주석을 작성하여 각 치아별로 실측 자료 (ground truth) 이미지를 저장하였다. 모델의 오버피팅을 줄이고 훈련 데이터의 수를 확대하기 위해 데이터 증대 (augmentation) 기술을 이용하였다. 사전훈련된 Mask R-CNN 모델을 미세조정하여 훈련 데이터를 교육하였다. 모델의 성능 평가를 위해 테스트 데이터를 사용하여 F1-score 및 평균 IoU (Intersection over union)값을 산출하였다. 결과: 제안된 분할 방법의 F1-score는 0.875 (정밀도: 0.858, 재현율: 0.893), IoU 값은 0.877 이었다. 치아 타입 별 평균 IoU 값은 절치는 0.900, 견치는 0.889, 소구치는 0.873, 대구치는 0.859로 각각 나타났다. 치아 분할의 시각적 평가는 모델이 예측한 분할 결과와 실측 자료(ground truth)가 거의 유사하게 나타났다. 결론: 본 연구는 작은 데이터 셋으로 트레이닝 했음에도 불구하고 미세 조정된 모델과 고품질의 실측 자료(ground truth)를 통해 매우 높은 성능을 달성할 수 있음을 확인하였다. 제안된 방법은 주석을 포함한 훈련 데이터 수가 제한되어 있는 의료 영상 분야를 비롯하여 비슷한 분할 작업이 필요한 법치의학 등 다양한 분야에서 활용될 수 있을 것이다.
목적: 치과 방사선 영상의 진단 자동화는 치과의사의 진단을 보조하여 업무 효율성을 향상시킬 수 있다. 진단 자동화를 위한 첫 번째 단계는 치아와 같은 정상적인 해부학 구조를 구별하는 것이다. 본 연구는 적은 수의 파노라마 영상 데이터를 이용하여 CNN (convolutional neural network)을 적용한 치아 분할 방법을 제안하고자 한다. 재료 및 방법: 총 50개의 파노라마를 무작위로 30개의 훈련 데이터, 10개의 검증 데이터 및 10개의 테스트 데이터로 나누었다. 파노라마의 개별 치아 경계선을 따라 주석을 작성하여 각 치아별로 실측 자료 (ground truth) 이미지를 저장하였다. 모델의 오버피팅을 줄이고 훈련 데이터의 수를 확대하기 위해 데이터 증대 (augmentation) 기술을 이용하였다. 사전훈련된 Mask R-CNN 모델을 미세조정하여 훈련 데이터를 교육하였다. 모델의 성능 평가를 위해 테스트 데이터를 사용하여 F1-score 및 평균 IoU (Intersection over union)값을 산출하였다. 결과: 제안된 분할 방법의 F1-score는 0.875 (정밀도: 0.858, 재현율: 0.893), IoU 값은 0.877 이었다. 치아 타입 별 평균 IoU 값은 절치는 0.900, 견치는 0.889, 소구치는 0.873, 대구치는 0.859로 각각 나타났다. 치아 분할의 시각적 평가는 모델이 예측한 분할 결과와 실측 자료(ground truth)가 거의 유사하게 나타났다. 결론: 본 연구는 작은 데이터 셋으로 트레이닝 했음에도 불구하고 미세 조정된 모델과 고품질의 실측 자료(ground truth)를 통해 매우 높은 성능을 달성할 수 있음을 확인하였다. 제안된 방법은 주석을 포함한 훈련 데이터 수가 제한되어 있는 의료 영상 분야를 비롯하여 비슷한 분할 작업이 필요한 법치의학 등 다양한 분야에서 활용될 수 있을 것이다.
Objectives: The automated diagnostic tool in dental radiology can assist and increase the efficiency of dental practice. The first step to automated diagnostic is to distinguish the anatomic structure such as a tooth. In this study, we demonstrated the use of deep convolutional neural networks (CNN)...
Objectives: The automated diagnostic tool in dental radiology can assist and increase the efficiency of dental practice. The first step to automated diagnostic is to distinguish the anatomic structure such as a tooth. In this study, we demonstrated the use of deep convolutional neural networks (CNN) as for the tooth segmentation method using a training dataset of the dental panoramic radiographs. Materials and Methods: 50 panoramic radiographs were used to create randomly selected training data of 30 images, validation data of 10 images and test data of 10 images. From the dental panoramic radiographs, annotation of each tooth has manually drawn as an individual mask to generate ground truth image. For the training purposes, 30 panoramic radiographs produced 846 annotated tooth images. The fine-tuning of mask R-CNN model was conducted based on the performance of the validation dataset. The F1-score and mean IoU (Intersection of union) value was used in the performance evaluation. Results: The results of the proposed segmentation method’s F1-score were 0.875 (precision: 0.858, recall: 0.893) and mean IoU were 0.877 respectively. The mean IoU of tooth type is as shown which incisors are 0.900, canines are 0.889, premolars are 0.873, molars are 0.859. In outcome, the visual evaluation of the segmentation has shown a high resemblance to the ground truth. Conclusion: This study confirms that fine-tuned networks could achieve high performance using precisely defined annotated datasets. Also, exploring the potential of the proposed method to be applied in the medical field for diagnostic automation and forensic identification that requires similar segmentation tasks.
Objectives: The automated diagnostic tool in dental radiology can assist and increase the efficiency of dental practice. The first step to automated diagnostic is to distinguish the anatomic structure such as a tooth. In this study, we demonstrated the use of deep convolutional neural networks (CNN) as for the tooth segmentation method using a training dataset of the dental panoramic radiographs. Materials and Methods: 50 panoramic radiographs were used to create randomly selected training data of 30 images, validation data of 10 images and test data of 10 images. From the dental panoramic radiographs, annotation of each tooth has manually drawn as an individual mask to generate ground truth image. For the training purposes, 30 panoramic radiographs produced 846 annotated tooth images. The fine-tuning of mask R-CNN model was conducted based on the performance of the validation dataset. The F1-score and mean IoU (Intersection of union) value was used in the performance evaluation. Results: The results of the proposed segmentation method’s F1-score were 0.875 (precision: 0.858, recall: 0.893) and mean IoU were 0.877 respectively. The mean IoU of tooth type is as shown which incisors are 0.900, canines are 0.889, premolars are 0.873, molars are 0.859. In outcome, the visual evaluation of the segmentation has shown a high resemblance to the ground truth. Conclusion: This study confirms that fine-tuned networks could achieve high performance using precisely defined annotated datasets. Also, exploring the potential of the proposed method to be applied in the medical field for diagnostic automation and forensic identification that requires similar segmentation tasks.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.