최근 인체 다양한 장기에 대하여 진단 및 치료 계획 수립을 위한 딥 러닝 기반 다중 장기 자동 영상 분할 기술이 활발히 연구되고 있다. 특히 폐의 경우, COVID-19로 인해 폐 부위에 대한 영상 분할 연구가 광범위하게 진행되고 있으나, 간, 흉골, 기관-기관지와 같은 다른 기관의 분할은 아직 광범위하게 연구되지 않았다. 결과적으로 이러한 기관에 대한 높은 ...
최근 인체 다양한 장기에 대하여 진단 및 치료 계획 수립을 위한 딥 러닝 기반 다중 장기 자동 영상 분할 기술이 활발히 연구되고 있다. 특히 폐의 경우, COVID-19로 인해 폐 부위에 대한 영상 분할 연구가 광범위하게 진행되고 있으나, 간, 흉골, 기관-기관지와 같은 다른 기관의 분할은 아직 광범위하게 연구되지 않았다. 결과적으로 이러한 기관에 대한 높은 예측 정확도를 달성하는 것은 여전히 어려운 과제로 남아 있다. 본 논문은 U-Net프레임워크 기반 폐, 간, 흉골 및 기관-기관지의 자동 딥 러닝 영상 분할 기법을 제시한다. 딥러닝 모델은 가슴 CT영상을 4개의 장기로 분류하도록 학습하였으며, 7명 환자에 대해 총 698장의 흉부 CT 이미지가 각 장기 모델 학습에 사용되었다. 그 중 학습 데이터로 80% (총 583장), 테스트 데이터로 20% (총 115장) 가 사용되었다. 각 모델은 조기종료를 포함한 500회 학습횟수 및 배치 크기 8부터 32 그리고 1e-3 부터 5 학습률 등으로 학습하였으며 예측 정확도 개선을 위해 일부 매개 변수를 조정하였다. 모델의 성능 평가를 위해 예측 결과와 실측 마스크의 유사성을 추정하는 Dice 유사성 점수를 적용하였다. 테스트 데이터에서 모델은 다음과 같은 성능을 달성했다: 0.9482 ± 0.1903(폐), 0.8432 ± 0.4129(간), 0.8827 ± 0.3104(복장 뼈), and 0.7331 ± 0.2027(기관 및 기관지)을 달성했다. 개발된 다중 장기 영상 분할 딥 러닝 모델은 진단 보조로 활용될 수 있으며, 흉부 장기 외 다양한 인체 장기에 적용 가능성을 보였다.
최근 인체 다양한 장기에 대하여 진단 및 치료 계획 수립을 위한 딥 러닝 기반 다중 장기 자동 영상 분할 기술이 활발히 연구되고 있다. 특히 폐의 경우, COVID-19로 인해 폐 부위에 대한 영상 분할 연구가 광범위하게 진행되고 있으나, 간, 흉골, 기관-기관지와 같은 다른 기관의 분할은 아직 광범위하게 연구되지 않았다. 결과적으로 이러한 기관에 대한 높은 예측 정확도를 달성하는 것은 여전히 어려운 과제로 남아 있다. 본 논문은 U-Net 프레임워크 기반 폐, 간, 흉골 및 기관-기관지의 자동 딥 러닝 영상 분할 기법을 제시한다. 딥러닝 모델은 가슴 CT영상을 4개의 장기로 분류하도록 학습하였으며, 7명 환자에 대해 총 698장의 흉부 CT 이미지가 각 장기 모델 학습에 사용되었다. 그 중 학습 데이터로 80% (총 583장), 테스트 데이터로 20% (총 115장) 가 사용되었다. 각 모델은 조기종료를 포함한 500회 학습횟수 및 배치 크기 8부터 32 그리고 1e-3 부터 5 학습률 등으로 학습하였으며 예측 정확도 개선을 위해 일부 매개 변수를 조정하였다. 모델의 성능 평가를 위해 예측 결과와 실측 마스크의 유사성을 추정하는 Dice 유사성 점수를 적용하였다. 테스트 데이터에서 모델은 다음과 같은 성능을 달성했다: 0.9482 ± 0.1903(폐), 0.8432 ± 0.4129(간), 0.8827 ± 0.3104(복장 뼈), and 0.7331 ± 0.2027(기관 및 기관지)을 달성했다. 개발된 다중 장기 영상 분할 딥 러닝 모델은 진단 보조로 활용될 수 있으며, 흉부 장기 외 다양한 인체 장기에 적용 가능성을 보였다.
Automated deep learning segmentation of chest computed tomography (CT) images can support treatment planning and diagnosis. While segmentation studies of the lung have become increasingly popular due to COVID-19. Segmentation of other organs such as the liver, sternum, and trachea-bronchus is not ye...
Automated deep learning segmentation of chest computed tomography (CT) images can support treatment planning and diagnosis. While segmentation studies of the lung have become increasingly popular due to COVID-19. Segmentation of other organs such as the liver, sternum, and trachea-bronchus is not yet extensively researched. As a result, achieving high prediction accuracy for these organs remains a challenge. This study explores the potential of applying deep learning techniques for automatic segmentation of such organs using a U-net framework. Specifically, I implemented deep learning models segmenting chest CT images into four distinct organs: lung, liver, sternum, and trachea-bronchus. The four models were trained using a series of seven patients with 698 Chest CT images. The training data comprised 80% of the images, while the remaining 20% were used for testing. Each model underwent training with 500 iterations with early stopping, a batch sizes of 8 to 32, and 1e-3 to 5 of learning rates. The hyperparameters were adjusted for each model to achieve optimal performance. To evaluate the performance of the model, the Dice similarity coefficient (DSC) was utilized, which measures the similarity between the predicted findings and the ground truth masks. In the test set, the model achieved Dice coefficients of 0.9482 ± 0.1903 for lung, 0.8432 ± 0.4129 for liver, 0.8827 ± 0.3104 for sternum, and 0.7331 ± 0.2027 for trachea-bronchus. In conclusion, the deep-learning models can be utilized as diagnostic assistance tools for predicting organ locations and may also serve as a secondary reference if the technology continues to advance.
Automated deep learning segmentation of chest computed tomography (CT) images can support treatment planning and diagnosis. While segmentation studies of the lung have become increasingly popular due to COVID-19. Segmentation of other organs such as the liver, sternum, and trachea-bronchus is not yet extensively researched. As a result, achieving high prediction accuracy for these organs remains a challenge. This study explores the potential of applying deep learning techniques for automatic segmentation of such organs using a U-net framework. Specifically, I implemented deep learning models segmenting chest CT images into four distinct organs: lung, liver, sternum, and trachea-bronchus. The four models were trained using a series of seven patients with 698 Chest CT images. The training data comprised 80% of the images, while the remaining 20% were used for testing. Each model underwent training with 500 iterations with early stopping, a batch sizes of 8 to 32, and 1e-3 to 5 of learning rates. The hyperparameters were adjusted for each model to achieve optimal performance. To evaluate the performance of the model, the Dice similarity coefficient (DSC) was utilized, which measures the similarity between the predicted findings and the ground truth masks. In the test set, the model achieved Dice coefficients of 0.9482 ± 0.1903 for lung, 0.8432 ± 0.4129 for liver, 0.8827 ± 0.3104 for sternum, and 0.7331 ± 0.2027 for trachea-bronchus. In conclusion, the deep-learning models can be utilized as diagnostic assistance tools for predicting organ locations and may also serve as a secondary reference if the technology continues to advance.
주제어
#Deep Learning Multi-Organ Image Segmentation X-ray Computed Tomography (CT) 딥러닝 다중 장기 영상 분할 엑스선 단층 촬영
학위논문 정보
저자
이영준
학위수여기관
고려대학교 의용과학대학원
학위구분
국내석사
학과
의료영상공학과 의료영상공학과
지도교수
황한정
발행연도
2023
총페이지
43 p
키워드
Deep Learning Multi-Organ Image Segmentation X-ray Computed Tomography (CT) 딥러닝 다중 장기 영상 분할 엑스선 단층 촬영
※ AI-Helper는 부적절한 답변을 할 수 있습니다.