간 초음파 검사를 통해 간에 생긴 병변의 위치를 간 구역으로 구별할 수 있다. 이는 컴퓨터단층영상이나 자기공명영상에서 보이는 병변 위치와 비교하여 간 절제술에 대한 수술 전 판단에 도움이 되며, 타 의료기관으로 환자 의뢰 시 원활한 의사소통을 할 수 있고 추적검사 때 전후 비교 관찰에 유리하다. 간 초음파 영상에서 간 구역 분류 시 Couinaud의 간 구역 분류법을 기반으로 하지만 초음파장비에 따라 나타나는 영상 화질의 차이, 검사자의 스캔방향 등에 따라 진단이 좌우되기 때문에 정확한 진단이 어렵다. 최근 ...
간 초음파 검사를 통해 간에 생긴 병변의 위치를 간 구역으로 구별할 수 있다. 이는 컴퓨터단층영상이나 자기공명영상에서 보이는 병변 위치와 비교하여 간 절제술에 대한 수술 전 판단에 도움이 되며, 타 의료기관으로 환자 의뢰 시 원활한 의사소통을 할 수 있고 추적검사 때 전후 비교 관찰에 유리하다. 간 초음파 영상에서 간 구역 분류 시 Couinaud의 간 구역 분류법을 기반으로 하지만 초음파장비에 따라 나타나는 영상 화질의 차이, 검사자의 스캔방향 등에 따라 진단이 좌우되기 때문에 정확한 진단이 어렵다. 최근 기계학습 이론의 급속한 발전으로 합성곱 신경망을 초음파 영상 분석의 개인차를 보완할 수 있는 용도로 활용하고 있으나 현재까지 간 초음파 영상에서 합성곱 신경망을 이용하여 간 구역을 분류하는 연구는 아직 부족한 상황이다. 따라서 본 연구에서는 합성곱 신경망을 이용하여 간 초음파 영상에서 간 구역을 분류해 보고자 한다. 간 초음파 영상데이터 획득을 위해 IRB 승인을 받고, 20세 이상 건강한 성인 남녀를 연구대상자로 모집하였다. 초음파장비로 연구대상자의 간 우엽을 우늑골하 스캔법으로 검사하여 500장의 간 우엽 초음파 영상을 획득하였다. 획득한 간 우엽 초음파 영상은 전하구역, 후하구역, 후상구역, 전상구역으로 나누어 Image labeling 작업을 한 후, 합성곱 신경망 모델인 U-Net, Attention U-Net, Dense U-Net에 학습하고 테스트하여 결과를 비교 분석하였다. 먼저 간 구역별 영상분할의 성능 분석결과 전하구역의 다이스 계수가 U-Net에서 0.93, Attention U-Net에서 0.93, Dense U-Net에서 0.92로 가장 높았고, 후하구역의 다이스 계수가 U-Net에서 0.88, Attention U-Net에서 0.91, Dense U-Net에서 0.89로 가장 낮았다. 다음으로 합성곱 신경망 모델별 성능 분석결과 U-Net의 다이스 계수가 0.91로 성능이 가장 낮았고, Attention U-Net의 다이스 계수 0.93, Dense U-Net의 다이스 계수 0.93으로 동등한 성능을 보였다. 마지막으로 합성곱 신경망 모델별 간 구역 영상분할 결과를 시각화해서 비교했을 때 Attention U-Net과 Dense U-Net 모델이 U-Net 모델보다 경계가 선명한 것을 확인할 수 있었다.
간 초음파 검사를 통해 간에 생긴 병변의 위치를 간 구역으로 구별할 수 있다. 이는 컴퓨터단층영상이나 자기공명영상에서 보이는 병변 위치와 비교하여 간 절제술에 대한 수술 전 판단에 도움이 되며, 타 의료기관으로 환자 의뢰 시 원활한 의사소통을 할 수 있고 추적검사 때 전후 비교 관찰에 유리하다. 간 초음파 영상에서 간 구역 분류 시 Couinaud의 간 구역 분류법을 기반으로 하지만 초음파장비에 따라 나타나는 영상 화질의 차이, 검사자의 스캔방향 등에 따라 진단이 좌우되기 때문에 정확한 진단이 어렵다. 최근 기계학습 이론의 급속한 발전으로 합성곱 신경망을 초음파 영상 분석의 개인차를 보완할 수 있는 용도로 활용하고 있으나 현재까지 간 초음파 영상에서 합성곱 신경망을 이용하여 간 구역을 분류하는 연구는 아직 부족한 상황이다. 따라서 본 연구에서는 합성곱 신경망을 이용하여 간 초음파 영상에서 간 구역을 분류해 보고자 한다. 간 초음파 영상데이터 획득을 위해 IRB 승인을 받고, 20세 이상 건강한 성인 남녀를 연구대상자로 모집하였다. 초음파장비로 연구대상자의 간 우엽을 우늑골하 스캔법으로 검사하여 500장의 간 우엽 초음파 영상을 획득하였다. 획득한 간 우엽 초음파 영상은 전하구역, 후하구역, 후상구역, 전상구역으로 나누어 Image labeling 작업을 한 후, 합성곱 신경망 모델인 U-Net, Attention U-Net, Dense U-Net에 학습하고 테스트하여 결과를 비교 분석하였다. 먼저 간 구역별 영상분할의 성능 분석결과 전하구역의 다이스 계수가 U-Net에서 0.93, Attention U-Net에서 0.93, Dense U-Net에서 0.92로 가장 높았고, 후하구역의 다이스 계수가 U-Net에서 0.88, Attention U-Net에서 0.91, Dense U-Net에서 0.89로 가장 낮았다. 다음으로 합성곱 신경망 모델별 성능 분석결과 U-Net의 다이스 계수가 0.91로 성능이 가장 낮았고, Attention U-Net의 다이스 계수 0.93, Dense U-Net의 다이스 계수 0.93으로 동등한 성능을 보였다. 마지막으로 합성곱 신경망 모델별 간 구역 영상분할 결과를 시각화해서 비교했을 때 Attention U-Net과 Dense U-Net 모델이 U-Net 모델보다 경계가 선명한 것을 확인할 수 있었다.
Ultrasonography of the liver can identify the location of liver lesions into liver segments. This compares with the location of the lesion seen on computed tomography or magnetic resonance imaging and is helpful in preoperative judgment for liver resection. In addition, it enables smooth communicati...
Ultrasonography of the liver can identify the location of liver lesions into liver segments. This compares with the location of the lesion seen on computed tomography or magnetic resonance imaging and is helpful in preoperative judgment for liver resection. In addition, it enables smooth communication when referring patients to other medical institutions and is advantageous for comparative observation before and after follow-up. Classification of liver segments in liver ultrasound images is based on the Couinaud classification of liver anatomy, but accurate diagnosis is considered difficult because the diagnosis results vary depending on the image quality of ultrasound equipment and the scan direction of the examiner. Recently, with the rapid development of machine learning theory, convolutional neural networks are being used to compensate for individual differences in ultrasound image analysis, but there is no study to classify liver segments using convolutional neural networks in liver ultrasound images. Therefore, this study tried to classify liver segments in liver ultrasound images using convolutional neural networks. In order to obtain liver ultrasound image data, IRB approval was obtained, and healthy adult men and women aged 20 years or older were recruited as study subjects. The right lobe of the liver was examined using the right subcostal scan method with an ultrasound device, and 500 ultrasound images of the right lobe of the liver were acquired. The obtained ultrasound image of the right lobe of the liver is divided into anterior inferior segment, posterior inferior segment, posterior superior segment, and anterior superior segment. After image labeling, convolutional neural network models such as U-Net, Attention U-Net, and Dense U-Net were trained and tested to compare and analyze the results. First, as a result of performance analysis of image segmentation by liver segments, dice coefficient of the anterior inferior segment were 0.93 in U-Net, 0.93 in Attention U-Net, and 0.92 in Dense U-Net, the highest among all segments, and dice coefficient of posterior inferior segment were 0.88 in U-Net, 0.91 in Attention U-Net and 0.89 in Dense U-Net, the lowest among all segments. Next, as a result of performance analysis for each convolutional neural network model, U-Net's dice coefficient was the lowest with 0.91, followed by Attention U-Net's dice coefficient of 0.93 and Dense U-Net's dice coefficient of 0.93, showing equivalent performance. Finally, by visualizing and comparing the results of liver image segmentation among convolutional neural network models, it was confirmed that the Attention U-Net and Dense U-Net models have clearer boundaries than the U-Net model.
Ultrasonography of the liver can identify the location of liver lesions into liver segments. This compares with the location of the lesion seen on computed tomography or magnetic resonance imaging and is helpful in preoperative judgment for liver resection. In addition, it enables smooth communication when referring patients to other medical institutions and is advantageous for comparative observation before and after follow-up. Classification of liver segments in liver ultrasound images is based on the Couinaud classification of liver anatomy, but accurate diagnosis is considered difficult because the diagnosis results vary depending on the image quality of ultrasound equipment and the scan direction of the examiner. Recently, with the rapid development of machine learning theory, convolutional neural networks are being used to compensate for individual differences in ultrasound image analysis, but there is no study to classify liver segments using convolutional neural networks in liver ultrasound images. Therefore, this study tried to classify liver segments in liver ultrasound images using convolutional neural networks. In order to obtain liver ultrasound image data, IRB approval was obtained, and healthy adult men and women aged 20 years or older were recruited as study subjects. The right lobe of the liver was examined using the right subcostal scan method with an ultrasound device, and 500 ultrasound images of the right lobe of the liver were acquired. The obtained ultrasound image of the right lobe of the liver is divided into anterior inferior segment, posterior inferior segment, posterior superior segment, and anterior superior segment. After image labeling, convolutional neural network models such as U-Net, Attention U-Net, and Dense U-Net were trained and tested to compare and analyze the results. First, as a result of performance analysis of image segmentation by liver segments, dice coefficient of the anterior inferior segment were 0.93 in U-Net, 0.93 in Attention U-Net, and 0.92 in Dense U-Net, the highest among all segments, and dice coefficient of posterior inferior segment were 0.88 in U-Net, 0.91 in Attention U-Net and 0.89 in Dense U-Net, the lowest among all segments. Next, as a result of performance analysis for each convolutional neural network model, U-Net's dice coefficient was the lowest with 0.91, followed by Attention U-Net's dice coefficient of 0.93 and Dense U-Net's dice coefficient of 0.93, showing equivalent performance. Finally, by visualizing and comparing the results of liver image segmentation among convolutional neural network models, it was confirmed that the Attention U-Net and Dense U-Net models have clearer boundaries than the U-Net model.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.