이종근
(Department of Information and Communication Engineering, Chung-buk National University)
,
김선진
(Department of Information and Communication Engineering, Chung-buk National University)
,
곽내정
(Department of Information and Communication Engineering, Chung-buk National University)
,
김동우
(CELLGENTEK CO. LTD)
,
안재형
(Department of Information and Communication Engineering, Chung-buk National University)
흉부 영상을 통해 진단 가능한 병변은 무기폐, 심비대, 덩어리, 기흉, 삼출 등 그 종류가 수십 가지에 이른다. 흉부 병변의 정확한 진단과 위치 및 크기를 판단하기 위해 일반적으로 전산화단층촬영(CT) 검사가 필요하지만, 전산화단층촬영은 검사 비용과 방사선 피폭 등의 단점이 있다. 따라서 본 논문에서는 흉부 병변 진단의 일차적 선별도구로서 방사선검사(X-ray) 영상에서 병변 유무 판단을 위한 딥러닝 알고리즘을 제안한다. 제안하는 알고리즘은 병변의 유무 판단에 최적화하기 위해 다양한 구성 방법들을 비교하여 설계하였다. 실험 결과, 기존 알고리즘보다 병변 유무 판단률이 약 1% 정도 향상되었다.
흉부 영상을 통해 진단 가능한 병변은 무기폐, 심비대, 덩어리, 기흉, 삼출 등 그 종류가 수십 가지에 이른다. 흉부 병변의 정확한 진단과 위치 및 크기를 판단하기 위해 일반적으로 전산화단층촬영(CT) 검사가 필요하지만, 전산화단층촬영은 검사 비용과 방사선 피폭 등의 단점이 있다. 따라서 본 논문에서는 흉부 병변 진단의 일차적 선별도구로서 방사선검사(X-ray) 영상에서 병변 유무 판단을 위한 딥러닝 알고리즘을 제안한다. 제안하는 알고리즘은 병변의 유무 판단에 최적화하기 위해 다양한 구성 방법들을 비교하여 설계하였다. 실험 결과, 기존 알고리즘보다 병변 유무 판단률이 약 1% 정도 향상되었다.
There are dozens of different types of lesions that can be diagnosed through chest X-ray images, including Atelectasis, Cardiomegaly, Mass, Pneumothorax, and Effusion. Computed tomography(CT) test is generally necessary to determine the exact diagnosis and location and size of thoracic lesions, howe...
There are dozens of different types of lesions that can be diagnosed through chest X-ray images, including Atelectasis, Cardiomegaly, Mass, Pneumothorax, and Effusion. Computed tomography(CT) test is generally necessary to determine the exact diagnosis and location and size of thoracic lesions, however computed tomography has disadvantages such as expensive cost and a lot of radiation exposure. Therefore, in this paper, we propose a deep learning algorithm for judging the presence or absence of lesions in chest X-ray images as the primary screening tool for the diagnosis of thoracic lesions. The proposed algorithm was designed by comparing various configuration methods to optimize the judgment of presence of lesions from chest X-ray. As a result, the evaluation rate of lesion presence of the proposed algorithm is about 1% better than the existing algorithm.
There are dozens of different types of lesions that can be diagnosed through chest X-ray images, including Atelectasis, Cardiomegaly, Mass, Pneumothorax, and Effusion. Computed tomography(CT) test is generally necessary to determine the exact diagnosis and location and size of thoracic lesions, however computed tomography has disadvantages such as expensive cost and a lot of radiation exposure. Therefore, in this paper, we propose a deep learning algorithm for judging the presence or absence of lesions in chest X-ray images as the primary screening tool for the diagnosis of thoracic lesions. The proposed algorithm was designed by comparing various configuration methods to optimize the judgment of presence of lesions from chest X-ray. As a result, the evaluation rate of lesion presence of the proposed algorithm is about 1% better than the existing algorithm.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
따라서 본 논문에서는 흉부 방사선검사 영상에서 병변의 유무를 판단하는 딥러닝 알고리즘을 제안한다. 제안하는 알고리즘은 19-layer 합성곱 신경망으로 병변이 없는 정상 영상과 병변이 의심되는 비정상 영상으로 분류한다.
하지만 [8], [9] 등의 문제를 해결하기 위한 별도의 기법을 사용하지 않으면 깊이에 따른 네트워크의 성능향상은 한계가 있다. 본 논문에서는 별도의 기법을 사용하지 않는 10계층부터 36계층의 네트워크를 비교하였다. 합성곱 계층의 필터 크기는 소요시간과 파라미터 수를 줄이기 위해 모두 ×으로 고정하였다.
병변 영상의 검출과 분류 알고리즘이다. 본 논문에서는 최적의 흉부 방사선검사 영상의 분류 네트워크를 찾기 위해 영상 전처리, pooling 방식, 활성화 함수, 깊이 등에 따른 성능을 비교하여 실험하였다. 제안하는 방법은 기존 영상데이터 분류 알고리즘보다 흉부 방사선검사 영상의 정상, 비정상 검출과 분류에 VGGNet보다 각각 0.
하지만 흉부 방사선검사 영상은 채널, 모양 등 일반 영상과 다른 특징을 가진다. 본 논문에서는 합성곱 신경망을 기반으로 흉부 방사선검사의 병변 유무 판단에 적합한 네트워크 모델 설계를 목적으로 한다.
본 논문에서는 흉부 방사선검사 영상에서 병변 유무 판단의 최적 네트워크 모델 설계를 위해 네트워크 깊이, pooling 방식, 활성화 함수, 사전학습 모델 등에 대해 분류 성능을 비교 분석하였다. 기본 구조는 합성곱 신경망을 사용하였고, 다음은 본 논문의 모델 설계를 위해 비교한 방법이다.
제안 방법
SVRC 2014에서 우승한 GoogLeNet[7]보다 성능이 떨어지지만 간단한 구조와 단일 네트워크에서의 좋은 성능을 바탕으로 다른 딥러닝 알고리즘보다 많이 응용되고 있다. VGGNete 네트워크의 깊이에 따른 성능을 비교한 논문으로, 합성곱 필터의 크기와 개수는 고정하고 합성 곱 계층의 개수를 늘리는 방식으로 11계층부터 19계층까지 총 6개의 깊이가 다른 네트워크를 설계하였다. VGGNet에서는 망의 깊이가 성능의 향상에 비례한다.
1을 설치하여 사용하였다. 개발 언어는 Python 3.7.3으로 구글에서 제공하는 Tensorflow 라이브러리와 Keras 라이브러리를 기반으로 설계하였다.
성능을 비교 분석하였다. 기본 구조는 합성곱 신경망을 사용하였고, 다음은 본 논문의 모델 설계를 위해 비교한 방법이다. 가장 적합한 깊이의 네트워크를 찾은 후다른 성능 비교에 모두 같은 네트워크를 사용하였다.
제안하는 알고리즘은 19-layer 합성곱 신경망으로 병변이 없는 정상 영상과 병변이 의심되는 비정상 영상으로 분류한다. 또한, 기존 딥러닝 알고리즘보다 향상된 네트워크를 설계하기 위해 네트워크 깊이, pooling 방식, 활성화 함수, 사전학습 모델 등을 비교 실험하여 설계하였다.
그러나 흉부 방사선검사 영상에서 병변을 진단하기 위한 네트워크인 Yao 등[2]은 충분한 흉부 영상이 있으면 사전학습 모델이 불필요하다고 하였다. 본 논문에 적합한 네트워크를 구성하기 위해 사전학습 모델의 여부를 비교하여 실험하였다. 표3은 사전학습 모델을 사용한 것과 사용하지 않은 네트워크 성능을 비교한 것이다.
제안하는 네트워크는 흉부 방사선검사 영상에서 정상, 병변 영상의 검출과 분류 알고리즘이다. 본 논문에서는 최적의 흉부 방사선검사 영상의 분류 네트워크를 찾기 위해 영상 전처리, pooling 방식, 활성화 함수, 깊이 등에 따른 성능을 비교하여 실험하였다.
따라서 본 논문에서는 흉부 방사선검사 영상에서 병변의 유무를 판단하는 딥러닝 알고리즘을 제안한다. 제안하는 알고리즘은 19-layer 합성곱 신경망으로 병변이 없는 정상 영상과 병변이 의심되는 비정상 영상으로 분류한다. 또한, 기존 딥러닝 알고리즘보다 향상된 네트워크를 설계하기 위해 네트워크 깊이, pooling 방식, 활성화 함수, 사전학습 모델 등을 비교 실험하여 설계하였다.
사용한다. 흉부 방사선검사 영상의 분류에 적합한지 입증하기 위해 비선형 함수인 sigmoid와 tanh, ReLU를비교하여 실험하였다. 표2는 활성화 함수에 따른 AUC 비교 결과이다.
SVRC 대부분 알고리즘에서 max pooling 방식을 사용하였고, 가장 좋은 성능을 가지는 것이 입증되었다. 흉부 방사선검사 영상의 분류에도 max pooling 방식이 적합한지 입증하기 위해 average pooling 방식과 성능을 비교하여 실험하였다. 표1은 pooling 방식에 따른 AUC 비교 결과이다.
대상 데이터
사용하였다. NIH datasete 그림5와 같이 병변 (Atelectasis, Cardiomegaly, Effusion, Infiltration, Mass, Nodule, Pneumonia, Pneumothorax, Emphysema, Fibrosis, Hernia)과 정상 영상을 포함한 총 112, 120장의 전면 흉부 방사선검사 영상으로 이루어졌다. 정상 영상과 비정상 영상은 표4와 같이 각각 60, 412장과 51, 708장으로 구성된다.
본 논문에서는 [4]가 제작한 NIH chest X-ray dataset 을 사용하였다. NIH datasete 그림5와 같이 병변 (Atelectasis, Cardiomegaly, Effusion, Infiltration, Mass, Nodule, Pneumonia, Pneumothorax, Emphysema, Fibrosis, Hernia)과 정상 영상을 포함한 총 112, 120장의 전면 흉부 방사선검사 영상으로 이루어졌다.
NIH datasete 그림5와 같이 병변 (Atelectasis, Cardiomegaly, Effusion, Infiltration, Mass, Nodule, Pneumonia, Pneumothorax, Emphysema, Fibrosis, Hernia)과 정상 영상을 포함한 총 112, 120장의 전면 흉부 방사선검사 영상으로 이루어졌다. 정상 영상과 비정상 영상은 표4와 같이 각각 60, 412장과 51, 708장으로 구성된다.
제안하는 네트워크는 그림4와 같이 19-layer 합성 곱 신경망으로, 16 convolution layer, 3 fully connected layer를 가진다. Max pooling 방식을 사용하고, 활성화 함수는 ReLU(Rectified Linear Unit)를 사용한다.
이론/모형
가진다. Max pooling 방식을 사용하고, 활성화 함수는 ReLU(Rectified Linear Unit)를 사용한다. 가중치는 사전학습 모델 가중치를 사용하여 초기화하였고, 최적화 함수로 Adam[12]을 사용한다.
Max pooling 방식을 사용하고, 활성화 함수는 ReLU(Rectified Linear Unit)를 사용한다. 가중치는 사전학습 모델 가중치를 사용하여 초기화하였고, 최적화 함수로 Adam[12]을 사용한다. 학습률은 0.
본 논문에서는 직관적인 수치를 비교하기 위해 성능평가 지표로 ROC 곡선의 면적인 AUC(Area Under ROC Curve)[11]를 사용한다. AUC는 (0, 0)에서 (1, 1)까지 ROC 곡선 아래에 있는 전체 2차원 영역을 의미하며 크기는 0.
성능/효과
Ⅱ.SVRC 대부분 알고리즘에서 max pooling 방식을 사용하였고, 가장 좋은 성능을 가지는 것이 입증되었다. 흉부 방사선검사 영상의 분류에도 max pooling 방식이 적합한지 입증하기 위해 average pooling 방식과 성능을 비교하여 실험하였다.
03 나은 성능을 보였다. 또한, 병변이 없는 경우 sigmoid보다 0.43, tanh보다 0.04 개선된 성능을 보였다.
표6은 제안하는 네트워크와 기존 네트워크의 F1-score를 비교한 것이다. 제안하는 네트워크는 기존 네트워크보다 정상의 분류에 0.006, 병변의 분류에 0.023 높은 수치를 보인다.
제안하는 네트워크는 기존 영상분류에서 좋은 성능을 보인 VGGNet-16과 ResNet-50보다 흉부 방사선검사 영상의 분류에서 나은 성능을 보인다. 그림6은 제안하는 네트워크의 training error와 validation error를 epoch 에 따라 시각화한 그래프이다.
표5는 그림7의 (a)와 (b)의 ROC 곡선 면적을 계산한 AUC이다. 제안하는 네트워크는 병변이 있는 정상 영상분류에 VGGNet-16보다 0.01 높고, ResNet-50 보다 0.07 높은 수치를 보인다. 또한, 병변이 없는 비정상 영상분류에 VGGNet-16보다 0.
본 논문에서는 최적의 흉부 방사선검사 영상의 분류 네트워크를 찾기 위해 영상 전처리, pooling 방식, 활성화 함수, 깊이 등에 따른 성능을 비교하여 실험하였다. 제안하는 방법은 기존 영상데이터 분류 알고리즘보다 흉부 방사선검사 영상의 정상, 비정상 검출과 분류에 VGGNet보다 각각 0.01, 0.01 높고, ResNet보다 각각 0.07, 0.07 높은 결과를 보였다.
표2는 활성화 함수에 따른 AUC 비교 결과이다. 활성화 함수로 ReLU를 사용했을 때 병변이 있는 경우 sigmoid보다 0.44, tanh보다 0.03 나은 성능을 보였다. 또한, 병변이 없는 경우 sigmoid보다 0.
후속연구
본 논문에서 제안하는 알고리즘이 더욱 발전하여 흉부 방사선검사 영상에서 단순히 병변 유무가 아닌 특정 병변의 판단이 가능해져 객관적인 판단 지표 역할을 수행한다면, 소요되는 불필요한 물리적 시간과 노력을 줄여 의사와 환자 모두에게 큰 도움이 될 것이다.
참고문헌 (12)
J. H. Yong, J. H. Kim, K. P. Cho, Human Anatomy and Physiology, Jeong-Dam, 1998.
L. Yao, E. Poblenz, D. Dagunts, B. Covington, D. Bernard, and K. Lyman, "Learning to diagnose from scratch by exploiting dependencies among labels," arXiv preprint arXiv:1710.10501, 2017.
B. R. Park, and D. W. Sung, "A comparative study of image quality and radiation dose with changes in tube voltage and current for a digital chest radiography," Journal of the Korean Society of Radiology, vol. 62, pp. 131-137, 2010.
X. Wang, Y. Peng, L. Lu, Z. Lu, M. Bagheri, and R. M. Summers, "ChestX-ray8: Hospital-scale chest x-ray database and benchmarks on weakly-supervised classification and localization of common thorax diseases," CVPR, 2017.
P. Rajpurkar, J. Irvin, K. Zhu, B. Yang, H. Mehta, T. Duan, A. Bagul, R. L. Ball, C. Langlotz, K. Shpanskaya, M. P. Lungren, and A. Y. Ng, "CheXNet: Radiologist-level pneumonia detection on chest x-rays with deep learning," arXiv preprint arXiv:1711.05225, 2017.
K. Simonyan, and A. Zisserman, "Very deep convolutional networks for large-scale image recognition," ICLR, 2014.
C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, "Going deeper with convolutions," CVPR, 2015.
Y. Bengio, P. Simard, and P. Frasconi, "Learning long-term dependencies with gradient descent is difficult," Institute of Electrical and Electronics Engineers Transactions on Neural Networks, vol. 5, no. 2, pp. 157-166, Mar. 1994.
X. Glorot, and Y. Bengio, "Understanding the difficulty of training deep feed-forward neural networks," in Proceeding of machine learning research, pp. 249-256, 2010.
K. He, X. Zhang, S. Ren, and J. Sun, "Deep residual learning for image recognition," CVPR, 2016.
A. P. Bradley, "The use of the area under the ROC curve in the evaluation of machine learning algorithms," Pattern Recognition, vol. 30, no. 7, pp. 1145-1159, Jul. 1997.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.