과거 의료영상을 통한 진단은 의사들의 판독으로만 이루어졌으나 컴퓨터 비전분야의 발달로 컴퓨터의 의료영상분석을 통한 진단의 정량적 측정이 가능해졌다. 이때 영상의 특성은 정량적 지표의 계산 결과에 많은 영향을 준다. CT영상의 경우 reconstruction과정에서 적용되는 파라미터들이 최종 영상의 특성과 질을 결정짓는 요소가 되는데 그 중에서도 영상의 sharp함과 smooth함 정도를 좌우하는 reconstruction kernel이 있다. CT 스캔에서 얻어진 raw데이터만 있으면 다양한 kernel로 영상을 reconstruction 하는 것은 가능하지만 reconstruction 전의 CT스캔에서 얻어진 raw데이터는 일정 시간이 지나면 기기에서 삭제되기 때문에 kernel변환을 보다 유용하고 효율적으로 수행하려면 영상기반에서 이루어져야 한다. 본 연구에서는 CT영상의 영상기반 reconstruction kernel 변환을 ...
과거 의료영상을 통한 진단은 의사들의 판독으로만 이루어졌으나 컴퓨터 비전분야의 발달로 컴퓨터의 의료영상분석을 통한 진단의 정량적 측정이 가능해졌다. 이때 영상의 특성은 정량적 지표의 계산 결과에 많은 영향을 준다. CT영상의 경우 reconstruction과정에서 적용되는 파라미터들이 최종 영상의 특성과 질을 결정짓는 요소가 되는데 그 중에서도 영상의 sharp함과 smooth함 정도를 좌우하는 reconstruction kernel이 있다. CT 스캔에서 얻어진 raw데이터만 있으면 다양한 kernel로 영상을 reconstruction 하는 것은 가능하지만 reconstruction 전의 CT스캔에서 얻어진 raw데이터는 일정 시간이 지나면 기기에서 삭제되기 때문에 kernel변환을 보다 유용하고 효율적으로 수행하려면 영상기반에서 이루어져야 한다. 본 연구에서는 CT영상의 영상기반 reconstruction kernel 변환을 딥러닝 기법을 이용하여 수행하였다. sharp한 영상에서 smooth한 영상으로 변환하거나 smooth한 영상에서 sharp한 영상으로 변환하기 위한 딥러닝 기법 적용을 위해 한번의 스캔에서 얻어진 raw데이터로부터 다양한 kernel로 reconstruction한 영상들이 학습데이터로 구성된다. 데이터는 각 학습용으로 6명, 모델의 최적화를 위한 평가용으로 2명의 데이터가 사용되었으며, 학습모델은 3x3 kernel크기의 동일한 convolution 층을 6개 쌓은 deep convolutional neural network (DCNN) 으로 구성된다. 학습모델에 변환하고자 하는 영상을 입력하여 목표영상으로의 학습이 이루어지도록 하였으며 이때 목표영상은 입력영상과 목표영상의 차영상이 되도록 하였다. 검증은 학습되지 않은 2명의 데이터로 이루어졌으며, 변환된 영상과 목표영상간의 오차를 root mean squared error (RMSE)로 정량 평가하였다. 입력영상과 목표영상간에 원래 차이가 많이 없는 B30f에서 B10f로의 변환이 평균 3.44 HU로 최소 RMSE를 나타냈고, 원래 차이가 많은 B10f에서 B70f로의 변환이 평균 84.18 HU로 최대 RMSE를 나타냈다. 그리고 최대 82.02%, 최소 30.51%의 RMSE 감소율을 보였다. 임상적 유용성을 확인하기 위해 딥러닝 기법으로 변환한 영상에서의 Emphysema index(EI) 및 Radiomics feature를 계산하여 목표영상의 결과와 비교해 보았다. EI는 30명 환자의 데이터에서 측정이 이루어졌으며, 95%의 신뢰구간에서 EI차이는 B50f에서 B30f로의 변환과 B30f에서 B50f로의 변환에서 각각 2.64~14.05(평균 8.35)0.99~3.02(평균 1.01)%, -14.05~-2.64(평균 -8.35)-3.14~5.8(평균 1.33)%로 감소되었다. Radiomics feature들은 Non Contrast, Contrast에서 계산되었으며 각각 51, 53명 환자의 데이터에서 측정이 이루어졌다. 딥러닝 변환 후 목표영상의 feature 유사도는 Non Contrast CT의 B50f에서 B30f로의 변환에서 Intensity 0.88±0.11, Texture 0.86±0.12, Wavelet 0.84±0.18, B30f에서 B50f로의 변환에서 Intensity 0.83±0.14, Texture 0.82±0.13, Wavelet 0.83±0.16를 나타냈다. 그리고 Contrast CT의 B50f에서 B30f로의 변환에서 Intensity 0.91±0.09, Texture 0.90±0.08, Wavelet 0.83±0.19, B30f에서 B50f로의 변환에서 Intensity 0.86±0.14, Texture 0.86±0.10, Wavelet 0.84±0.12를 나타냈다. 이와 같은 결과들은 본 연구 기법이 임상적 과정에서도 추후 충분히 유용하게 사용될 가능성을 제시한다. 실제 reconstruction과정을 영상기반에서 다시 재현하는 일은 파라미터를 찾는 과정이 너무나도 복잡하고, 환자마다 robust하지 않기 때문에 그 복잡한 과정은 되풀이 되어야 한다. 본 연구는 영상기반의 의료영상 변환을 딥러닝 기법을 이용하여 간단한 scheme으로 제안한다.
과거 의료영상을 통한 진단은 의사들의 판독으로만 이루어졌으나 컴퓨터 비전분야의 발달로 컴퓨터의 의료영상분석을 통한 진단의 정량적 측정이 가능해졌다. 이때 영상의 특성은 정량적 지표의 계산 결과에 많은 영향을 준다. CT영상의 경우 reconstruction과정에서 적용되는 파라미터들이 최종 영상의 특성과 질을 결정짓는 요소가 되는데 그 중에서도 영상의 sharp함과 smooth함 정도를 좌우하는 reconstruction kernel이 있다. CT 스캔에서 얻어진 raw데이터만 있으면 다양한 kernel로 영상을 reconstruction 하는 것은 가능하지만 reconstruction 전의 CT스캔에서 얻어진 raw데이터는 일정 시간이 지나면 기기에서 삭제되기 때문에 kernel변환을 보다 유용하고 효율적으로 수행하려면 영상기반에서 이루어져야 한다. 본 연구에서는 CT영상의 영상기반 reconstruction kernel 변환을 딥러닝 기법을 이용하여 수행하였다. sharp한 영상에서 smooth한 영상으로 변환하거나 smooth한 영상에서 sharp한 영상으로 변환하기 위한 딥러닝 기법 적용을 위해 한번의 스캔에서 얻어진 raw데이터로부터 다양한 kernel로 reconstruction한 영상들이 학습데이터로 구성된다. 데이터는 각 학습용으로 6명, 모델의 최적화를 위한 평가용으로 2명의 데이터가 사용되었으며, 학습모델은 3x3 kernel크기의 동일한 convolution 층을 6개 쌓은 deep convolutional neural network (DCNN) 으로 구성된다. 학습모델에 변환하고자 하는 영상을 입력하여 목표영상으로의 학습이 이루어지도록 하였으며 이때 목표영상은 입력영상과 목표영상의 차영상이 되도록 하였다. 검증은 학습되지 않은 2명의 데이터로 이루어졌으며, 변환된 영상과 목표영상간의 오차를 root mean squared error (RMSE)로 정량 평가하였다. 입력영상과 목표영상간에 원래 차이가 많이 없는 B30f에서 B10f로의 변환이 평균 3.44 HU로 최소 RMSE를 나타냈고, 원래 차이가 많은 B10f에서 B70f로의 변환이 평균 84.18 HU로 최대 RMSE를 나타냈다. 그리고 최대 82.02%, 최소 30.51%의 RMSE 감소율을 보였다. 임상적 유용성을 확인하기 위해 딥러닝 기법으로 변환한 영상에서의 Emphysema index(EI) 및 Radiomics feature를 계산하여 목표영상의 결과와 비교해 보았다. EI는 30명 환자의 데이터에서 측정이 이루어졌으며, 95%의 신뢰구간에서 EI차이는 B50f에서 B30f로의 변환과 B30f에서 B50f로의 변환에서 각각 2.64~14.05(평균 8.35)0.99~3.02(평균 1.01)%, -14.05~-2.64(평균 -8.35)-3.14~5.8(평균 1.33)%로 감소되었다. Radiomics feature들은 Non Contrast, Contrast에서 계산되었으며 각각 51, 53명 환자의 데이터에서 측정이 이루어졌다. 딥러닝 변환 후 목표영상의 feature 유사도는 Non Contrast CT의 B50f에서 B30f로의 변환에서 Intensity 0.88±0.11, Texture 0.86±0.12, Wavelet 0.84±0.18, B30f에서 B50f로의 변환에서 Intensity 0.83±0.14, Texture 0.82±0.13, Wavelet 0.83±0.16를 나타냈다. 그리고 Contrast CT의 B50f에서 B30f로의 변환에서 Intensity 0.91±0.09, Texture 0.90±0.08, Wavelet 0.83±0.19, B30f에서 B50f로의 변환에서 Intensity 0.86±0.14, Texture 0.86±0.10, Wavelet 0.84±0.12를 나타냈다. 이와 같은 결과들은 본 연구 기법이 임상적 과정에서도 추후 충분히 유용하게 사용될 가능성을 제시한다. 실제 reconstruction과정을 영상기반에서 다시 재현하는 일은 파라미터를 찾는 과정이 너무나도 복잡하고, 환자마다 robust하지 않기 때문에 그 복잡한 과정은 되풀이 되어야 한다. 본 연구는 영상기반의 의료영상 변환을 딥러닝 기법을 이용하여 간단한 scheme으로 제안한다.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.