Although crack on concrete exists from its early formation, crack requires attention as it affects stiffness of structure and can lead demolition of structure as it grows. Detecting cracks on concrete is needed to take action prior to performance degradation of structure, and deep learning can be ut...
Although crack on concrete exists from its early formation, crack requires attention as it affects stiffness of structure and can lead demolition of structure as it grows. Detecting cracks on concrete is needed to take action prior to performance degradation of structure, and deep learning can be utilized for it. In this study, transfer learning, one of the deep learning techniques, was used to detect the crack, as the amount of crack's image data was limited. Pre-trained Inception-v3 was applied as a base model for the transfer learning. Web scrapping was utilized to fetch images of concrete wall with or without crack from web. In the recognition of crack, image post-process including changing size or removing color were applied. In the visualization of crack, source images divided into 30px, 50px or 100px size were used as input data, and different numbers of input data per category were applied for each case. With the results of visualized crack image, false positive and false negative errors were examined. Highest accuracy for the recognizing crack was achieved when the source images were adjusted into 224px size under gray-scale. In visualization, the result using 50 data per category under 100px interval size showed the smallest error. With regard to the false positive error, the best result was obtained using 400 data per category, and regarding to the false negative error, the case using 50 data per category showed the best result.
Although crack on concrete exists from its early formation, crack requires attention as it affects stiffness of structure and can lead demolition of structure as it grows. Detecting cracks on concrete is needed to take action prior to performance degradation of structure, and deep learning can be utilized for it. In this study, transfer learning, one of the deep learning techniques, was used to detect the crack, as the amount of crack's image data was limited. Pre-trained Inception-v3 was applied as a base model for the transfer learning. Web scrapping was utilized to fetch images of concrete wall with or without crack from web. In the recognition of crack, image post-process including changing size or removing color were applied. In the visualization of crack, source images divided into 30px, 50px or 100px size were used as input data, and different numbers of input data per category were applied for each case. With the results of visualized crack image, false positive and false negative errors were examined. Highest accuracy for the recognizing crack was achieved when the source images were adjusted into 224px size under gray-scale. In visualization, the result using 50 data per category under 100px interval size showed the smallest error. With regard to the false positive error, the best result was obtained using 400 data per category, and regarding to the false negative error, the case using 50 data per category showed the best result.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
균열 시각화는 딥러닝을 이용하여 주어진 사진에 대해 균열의 구체적인 위치를 얻는 것을 목적으로 한다. 균열이 존재하는 사진의 일정 영역에 대해 학습이 완료된 모델로 예측값을 얻으면 그 영역에 균열이 존재할 확률을 얻을 수 있으며, 그 확률이 매우 높을 경우 해당 영역에 균열이 있을 것으로 추측할 수 있다.
위에서 언급한 두 오류는 전자가 1종 오류, 후자가 2종 오류에 해당하며 각각 false positive (FP), false negative (FN)라고도 한다. 본 연구에서는 FP를 균열 음성을 양성으로 판단한 경우로, FN을 균열 양성을 음성으로 판단한 경우로 한다.
본 연구에서는 입력자료 사진의 크기 및 색 제거 여부에 따른 결과의 변화가 있을 것으로 예측하고 크기 조정 및 색 제거에 따라 결과를 비교하였다. 사진 크기의 영향에 따른 비교의 기준으로 가로 및 세로 224px를 이용하여 원본 사진을 이용했을 때와 가로 및 세로 224px로 크기 조정을 한 사진을 이용해 재학습했을 때의 예측 결과를 비교했다.
제안 방법
오류의 발생은 검정 대상이 되는 자료의 원 조사 간격과 같은 간격으로 조사하여 한 영역이 FN 또는 FP로 판단되었을 때 오류가 1회 발생한 것으로 하고 명확히 균열이 맞거나 아닌 경우를 측정했다. 30px로 학습된 모델이 예측한 시각화 자료에 대해 검정을 하는 경우 오류 검정 역시 30px 간격으로 진행하며 가로, 세로가 모두 30px인 한 영역에서 FN 또는 FP가 한 번 발생하면 1회 오류로 판단하였다. FP는 영역이 높은 확률로 균열로 판단되었지만 영역 내에 중심선이 지나지 않는 경우로, FN은 영역이 균열 판단 확률이 높지 않았으나 영역의 중심을 중심선이 지나는 경우로 하였다.
가공하지 않은 원본 입력자료와 원본 입력자료를 각각 다르게 가공한 세 종류의 입력자료를 사용하여 총 네 가지 입력 자료에 의한 균열 인식 결과를 비교하였다. Table 1의 검정 자료를 활용하여 네 가지 모델에 대해 학습한 결과는 Table 3과 같다.
이때, 원본 사진은 가로 및 세로 크기가 224px보다 작은 사진과 큰 사진이 균일하게 사용되었다. 가로, 세로가 224px인 사진을 만들기 위해 원본 사진의 중심에서 원본 사진의 가로, 세로 길이 중 최솟값 크기의 정사각형 범위 외 영역을 제거하고 사진의 가로, 세로 길이를 224px로 조정하였다. 콘크리트 사진에서 색에 따른 균열 인식의 영향을 평가하기 위해 사진에서 색을 제거한 사진을 이용했을 때와 제거하지 않은 사진을 이용해 학습했을 때의 예측 결과를 비교하였다.
오류 검정은 시각화 검정 자료의 중심선을 이용하며 시각화가 완료된 자료를 대상으로 했다. 검정 자료의 중심선은 균 열의 중심선으로 판단되는 지점을 선으로 이어 제작했다. 오류의 발생은 검정 대상이 되는 자료의 원 조사 간격과 같은 간격으로 조사하여 한 영역이 FN 또는 FP로 판단되었을 때 오류가 1회 발생한 것으로 하고 명확히 균열이 맞거나 아닌 경우를 측정했다.
균열 예측 및 시각화를 위한 입력자료는 웹 스크레이핑을 통해 수집한 사진을 이용하였다. 균열 인식 및 시각화에 여러 모델을 활용하였으며 균열 인식 및 균열 시각화 결과의 정량적인 평가를 이용하여 최적 모델을 선정하였다.
입력자료로는 웹 스크레이핑을 통해 수집한 콘크리트 균열 사진 및 균열이 없는 콘크리트 사진을 이용한다. 균열 인식을 위해서 콘크리트 사진에 크기 변경 및 색 제거를 적용하며, 이미지 프로세싱 여부에 따른 결과를 비교해 적합한 프로세싱 방법을 분석한다. 균열 시각화를 위한 확률지도 제작을 위해서는 균열 감지에서의 적합한 이미지 프로세싱이 적용된 수집자료를 일정한 크기로 나누고, 나눠진 사진의 특정 개수를 Inception-v3 모델에 입력자료로 사용하여 전이학습한다.
9 미만은 균열이 아닌 것으로 예측하였다고 판단하였다. 균열이 아닐 경우의 범위가 넓으므로 확률 범위를 단조 증가하여 예측값 0.7 이상, 0.4 이상, 0.4 이하로 세부적으로 분류하였다. 이 세부적 분류는 분석에 사용되지는 않고 예측값을 구체적으로 시각화하기 위해 사용되었으며 명확한 구분을 위해 삼원색이 사용되었다.
본 연구에서 단위 조사 영역은 정사각형으로 하여 한 변의 길이가 30px, 50px 그리고 100px일 경우에 대해 실험을 진행한다. 예측값을 얻기 위해 훈련할 모델의 입력자료는 단위 조 사 영역과 같은 크기의 사진을 이용하며 그 크기만큼 균열 인식에서 사용한 입력자료를 분할한 것을 사용한다.
본 연구에서는 콘크리트 균열 사진을 활용하여 전이학습을 위한 Inception-v3 모델을 재학습하고, 재학습된 모델을 이용하여 콘크리트 사진에서의 균열을 인식 및 시각화한다. 입력자료로는 웹 스크레이핑을 통해 수집한 콘크리트 균열 사진 및 균열이 없는 콘크리트 사진을 이용한다.
본 연구에서는 합성곱 모델인 Inception-v3 모델의 전이학습을 이용한 균열 사진에 대한 예측 및 시각화를 했으며, 균열 예측은 이미지 처리 방법에 따라, 균열 시각화는 훈련 자료 개수 및 조사 간격에 따라 결과를 나타내었다. 균열 예측 및 시각화를 위한 입력자료는 웹 스크레이핑을 통해 수집한 사진을 이용하였다.
본 연구에서는 입력자료 사진의 크기 및 색 제거 여부에 따른 결과의 변화가 있을 것으로 예측하고 크기 조정 및 색 제거에 따라 결과를 비교하였다. 사진 크기의 영향에 따른 비교의 기준으로 가로 및 세로 224px를 이용하여 원본 사진을 이용했을 때와 가로 및 세로 224px로 크기 조정을 한 사진을 이용해 재학습했을 때의 예측 결과를 비교했다. 이때, 원본 사진은 가로 및 세로 크기가 224px보다 작은 사진과 큰 사진이 균일하게 사용되었다.
콘크리트 사진에서 색에 따른 균열 인식의 영향을 평가하기 위해 사진에서 색을 제거한 사진을 이용했을 때와 제거하지 않은 사진을 이용해 학습했을 때의 예측 결과를 비교하였다. 사진에서 색을 제거하기 위한 방법으로 그레이스케일을 이용하였다. 최종적으로 원본, 그레이스케일만 적용한 사진, 가로 및 세로 224px로 크기 변경한 사진 그리고 가로 및 세로를 224px로 크기 변경하고 그레이스케일을 적용한 사진을 각각 입력자료로 사용한 총 4개의 모델을 얻었다.
이때 이용한 조사 간격은 각각 30px, 50px, 100px이며, 세 경우에서 모두 분류별 입력자료를 50개, 100개, 200개, 400 개로 다르게 적용한 모델을 이용하여 균열 시각화를 진행하였다. 시각화 결과 자료에 대해 false positive, false negative 오류를 검정하였다. 시각화 결과 50px 및 100px에서는 일부 경우를 제외하고 오류가 나타나지 않았으며, 조사 간격이 좁아질수록 FP 및 FN이 모두 증가하는 것을 확인할 수 있었다.
얻은 모델들로 각 검정 자료가 균열일 확률과 균열이 아닐 확률을 구하고 각 모델의 정확도를 이용하여 최적 모델을 선정한다. 모델의 정확도는 균열인 검정 자료는 균열일 확률, 균열이 아닌 검정 자료는 균열이 아닐 확률이다.
검정 자료의 중심선은 균 열의 중심선으로 판단되는 지점을 선으로 이어 제작했다. 오류의 발생은 검정 대상이 되는 자료의 원 조사 간격과 같은 간격으로 조사하여 한 영역이 FN 또는 FP로 판단되었을 때 오류가 1회 발생한 것으로 하고 명확히 균열이 맞거나 아닌 경우를 측정했다. 30px로 학습된 모델이 예측한 시각화 자료에 대해 검정을 하는 경우 오류 검정 역시 30px 간격으로 진행하며 가로, 세로가 모두 30px인 한 영역에서 FN 또는 FP가 한 번 발생하면 1회 오류로 판단하였다.
균열 시각화의 경우 조사 간격에 따라 입력자료를 다르게 활용하고 조사 간격과 입력자료의 크기를 같게 하여 진행하 였다. 이때 이용한 조사 간격은 각각 30px, 50px, 100px이며, 세 경우에서 모두 분류별 입력자료를 50개, 100개, 200개, 400 개로 다르게 적용한 모델을 이용하여 균열 시각화를 진행하였다. 시각화 결과 자료에 대해 false positive, false negative 오류를 검정하였다.
예측값을 얻기 위해 훈련할 모델의 입력자료는 단위 조 사 영역과 같은 크기의 사진을 이용하며 그 크기만큼 균열 인식에서 사용한 입력자료를 분할한 것을 사용한다. 이용하는 자료의 개수는 균열 탐지에서 이용한 분류별 자료 개수인 50개부터 2배씩 늘려 분류 별 50개, 100개, 200개 그리고 400 개로 총 4개의 경우를 이용해 분류별 자료 개수에 따른 결과의 정확도를 비교하였다.
웹 스크레이핑 프로그램에 특정 키워드를 이용하여 입력자료를 수집하면, 그 자료를 4가지의 단순한 이미지 가공을 거쳐 균열 인식의 학습 자료로 사용하고 이미지 가공 방법 별 한 개씩의 학습된 모델을 얻는다. 최적 모델을 선정하기 위해 얻은 모델의 예측 결과를 정답과 비교하고, 선정된 모델의 이미지 가공 방법을 균열 시각화 과정에 사용한다. 균열 시각화에서는 앞서 사용했던 입력자료를 30px, 50px, 100px 단위로 나누고, 균열인 분류와 균열이 아닌 분류에 각각 50개, 100개, 200 개, 400개를 입력자료로 사용하여 총 12개의 학습된 모델을 얻는다.
사진에서 색을 제거하기 위한 방법으로 그레이스케일을 이용하였다. 최종적으로 원본, 그레이스케일만 적용한 사진, 가로 및 세로 224px로 크기 변경한 사진 그리고 가로 및 세로를 224px로 크기 변경하고 그레이스케일을 적용한 사진을 각각 입력자료로 사용한 총 4개의 모델을 얻었다.
콘크리트 균열 자료 및 균열이 없는 콘크리트 자료를 수집하기 위해 웹 스크레이핑을 이용하였다. 웹 스크레이핑은 사람이 읽을 수 있는 자료에서 구조화된 데이터셋을 자동으로 추출하는 방법이다 (Boeing et al.
가로, 세로가 224px인 사진을 만들기 위해 원본 사진의 중심에서 원본 사진의 가로, 세로 길이 중 최솟값 크기의 정사각형 범위 외 영역을 제거하고 사진의 가로, 세로 길이를 224px로 조정하였다. 콘크리트 사진에서 색에 따른 균열 인식의 영향을 평가하기 위해 사진에서 색을 제거한 사진을 이용했을 때와 제거하지 않은 사진을 이용해 학습했을 때의 예측 결과를 비교하였다. 사진에서 색을 제거하기 위한 방법으로 그레이스케일을 이용하였다.
대상 데이터
최적 모델을 선정하기 위해 얻은 모델의 예측 결과를 정답과 비교하고, 선정된 모델의 이미지 가공 방법을 균열 시각화 과정에 사용한다. 균열 시각화에서는 앞서 사용했던 입력자료를 30px, 50px, 100px 단위로 나누고, 균열인 분류와 균열이 아닌 분류에 각각 50개, 100개, 200 개, 400개를 입력자료로 사용하여 총 12개의 학습된 모델을 얻는다. 각 모델에 의한 시각화 결과를 비교하고, 우수한 모델을 선정한다.
본 연구에서는 합성곱 모델인 Inception-v3 모델의 전이학습을 이용한 균열 사진에 대한 예측 및 시각화를 했으며, 균열 예측은 이미지 처리 방법에 따라, 균열 시각화는 훈련 자료 개수 및 조사 간격에 따라 결과를 나타내었다. 균열 예측 및 시각화를 위한 입력자료는 웹 스크레이핑을 통해 수집한 사진을 이용하였다. 균열 인식 및 시각화에 여러 모델을 활용하였으며 균열 인식 및 균열 시각화 결과의 정량적인 평가를 이용하여 최적 모델을 선정하였다.
본 연구에서는 전이학습에 Inception 모델을 개선한 모델인 Inception-v3 모델을 사용하였다. 본 모델은 ILSVRC (ImageNet Large Scale Visual Recognition Competition) 2012에서 제시된 분류 1,000개, 총 개수 120만개의 사진을 이용하여 학습된 모델이다. 이 모델의 기초가 되는 Inception 모델은 Fig.
(2018)은 웹 스크레이핑 도구인 Scrape Box를 이용하여 박락 이미지를 수집한 바 있었다. 본 연구에서는 웹 스크레이핑 기능을 수행하는 오픈소스 프로그램을 이용하여 입력자료를 수집하였다. 해당 프로그램에서는 키워드를 이용하여 웹상에서 이미지를 얻을 수 있었다.
본 연구에서 단위 조사 영역은 정사각형으로 하여 한 변의 길이가 30px, 50px 그리고 100px일 경우에 대해 실험을 진행한다. 예측값을 얻기 위해 훈련할 모델의 입력자료는 단위 조 사 영역과 같은 크기의 사진을 이용하며 그 크기만큼 균열 인식에서 사용한 입력자료를 분할한 것을 사용한다. 이용하는 자료의 개수는 균열 탐지에서 이용한 분류별 자료 개수인 50개부터 2배씩 늘려 분류 별 50개, 100개, 200개 그리고 400 개로 총 4개의 경우를 이용해 분류별 자료 개수에 따른 결과의 정확도를 비교하였다.
오류 검정은 시각화 검정 자료의 중심선을 이용하며 시각화가 완료된 자료를 대상으로 했다. 검정 자료의 중심선은 균 열의 중심선으로 판단되는 지점을 선으로 이어 제작했다.
본 연구에서는 콘크리트 균열 사진을 활용하여 전이학습을 위한 Inception-v3 모델을 재학습하고, 재학습된 모델을 이용하여 콘크리트 사진에서의 균열을 인식 및 시각화한다. 입력자료로는 웹 스크레이핑을 통해 수집한 콘크리트 균열 사진 및 균열이 없는 콘크리트 사진을 이용한다. 균열 인식을 위해서 콘크리트 사진에 크기 변경 및 색 제거를 적용하며, 이미지 프로세싱 여부에 따른 결과를 비교해 적합한 프로세싱 방법을 분석한다.
콘크리트 균열 사진의 수집에 사용한 키워드로는 ‘콘크리트 크랙’, ‘concrete wall crack’이었으며, 균열이 없는 콘크리트 사진은 ‘콘크리트’, ‘clear concrete wall’을 키워드로 사용하였고, 분류 당 100개의 사진을 수집하여 균열 여부를 확인하고 이를 입력자료로 사용하였다.
이론/모형
균열 인식을 위해서 콘크리트 사진에 크기 변경 및 색 제거를 적용하며, 이미지 프로세싱 여부에 따른 결과를 비교해 적합한 프로세싱 방법을 분석한다. 균열 시각화를 위한 확률지도 제작을 위해서는 균열 감지에서의 적합한 이미지 프로세싱이 적용된 수집자료를 일정한 크기로 나누고, 나눠진 사진의 특정 개수를 Inception-v3 모델에 입력자료로 사용하여 전이학습한다. 이때 분할된 크기와 입력된 자료 개수에 따른 확률지도 결과의 오류를 비교한다.
본 연구에서는 앞서 수집된 입력자료를 기반으로 Inception-v3 모델을 재훈련하였다. 콘크리트 균열 사진의 경우 자료 수집이 한정적이므로 수집 가능한 자료의 수가 적다.
본 연구에서는 전이학습에 Inception 모델을 개선한 모델인 Inception-v3 모델을 사용하였다. 본 모델은 ILSVRC (ImageNet Large Scale Visual Recognition Competition) 2012에서 제시된 분류 1,000개, 총 개수 120만개의 사진을 이용하여 학습된 모델이다.
성능/효과
각 오류의 발생은 Table 4, 5, 6의 사진에서 육안으로도 확인할 수 있다. 100px과 50px에서는 일부 경우를 제외하고 오류가 발생하지 않았으며 30px에서는 대부분의 결과에서 오류가 나타나, 조사 간격이 좁아질수록 오류가 많아지는 경향이 나타났다. 이는 조사 간격이 커질수록 균열이 범위 내에서 차지하는 면적이 작아지는 것으로 설명할 수 있다.
Top-1 error는 예측 확률이 가장 높은 카테고리에 정답이 아닐 확률, top-5 error는 상위 5개의 예측 결과를 나타내는 카테고리에 정답이 없을 확률을 나타낸다. Inception 모델의 초기 형태인 GoogLeNet의 top-1 error는 29%, top-5 error는 9.2%인데 비해 Inception-v3 모델의 최종 형태는 top-1 error가 21.2%, top-5 error가 5.6%를 나타냈으며 ILSVRC 2012의 다른 모델에 의한 결과에 비해서도 더 우수한 성능을 보였다 (Szegedy, 2016).
원본 자료에 가로, 세로를 224px로 크기 조정만 한 모델은 원본 입력자료 모델보다 전반적인 정확도는 높아졌으나 그 차이가 크지 않았으며, 균열이 아닌 세 자료 중 두 자료는 원본 자료를 활용했을 때보다 더 낮은 정확도를 보였다. 가로, 세로를 모두 224px로 조정하고 그레이스케일을 적용해 색을 제거한 모델은 전반적으로 정확도의 개선 효과가 있었다. 이 모델은 N2 자료에서 그레이스케일만 적용한 입력자료에 비해 정확도가 낮아졌으나, 평균 0.
균열 인식의 경우 입력자료의 이미지 처리 방식에 따라 총 네 가지 모델을 이용하였으며, 실험을 통해 크기를 조정하고 그레이스케일도 적용하여 색을 제거한 모델이 균열인 경우와 균열이 아닌 경우의 예측 정확도를 각각 0.968 이상, 0.797 이상으로 판단하여 가장 정확도가 높은 것으로 나타났다.
콘크리트 균열 사진의 경우 자료 수집이 한정적이므로 수집 가능한 자료의 수가 적다. 그러나 본 연구의 초점이 전이학습에 있고, 딥러닝 모델을 직접 설계하여 기초부터 학습시키는 것이 아닌 이미 많은 데이터를 이용하여 학습된 Inception-v3 모델을 이용하여 전이학습을 하므로 많은 데이터를 사용하지 않아도 효과적인 결과를 얻을 수 있을 것으로 분석되었다. 따라서 본 모델에 콘크리트 균열 사진으로 재훈련시키는 방법을 적용할 시 적은 입력자료에 대해서도 높은 성능을 얻을 수 있었다.
그레이스케일을 활용한 모델은 원본 입력자료 모델과 비교했을 때 두 가지 검정 자료에 대해 더 낮은 정확도를 보였으나 그 외의 검정 자료에 대해 예측의 정확도가 더 높았다. 원본 자료에 가로, 세로를 224px로 크기 조정만 한 모델은 원본 입력자료 모델보다 전반적인 정확도는 높아졌으나 그 차이가 크지 않았으며, 균열이 아닌 세 자료 중 두 자료는 원본 자료를 활용했을 때보다 더 낮은 정확도를 보였다.
그러나 본 연구의 초점이 전이학습에 있고, 딥러닝 모델을 직접 설계하여 기초부터 학습시키는 것이 아닌 이미 많은 데이터를 이용하여 학습된 Inception-v3 모델을 이용하여 전이학습을 하므로 많은 데이터를 사용하지 않아도 효과적인 결과를 얻을 수 있을 것으로 분석되었다. 따라서 본 모델에 콘크리트 균열 사진으로 재훈련시키는 방법을 적용할 시 적은 입력자료에 대해서도 높은 성능을 얻을 수 있었다.
시각화 결과 50px 및 100px에서는 일부 경우를 제외하고 오류가 나타나지 않았으며, 조사 간격이 좁아질수록 FP 및 FN이 모두 증가하는 것을 확인할 수 있었다.
원본 자료에 가로, 세로를 224px로 크기 조정만 한 모델은 원본 입력자료 모델보다 전반적인 정확도는 높아졌으나 그 차이가 크지 않았으며, 균열이 아닌 세 자료 중 두 자료는 원본 자료를 활용했을 때보다 더 낮은 정확도를 보였다.
이 세부적 분류는 분석에 사용되지는 않고 예측값을 구체적으로 시각화하기 위해 사용되었으며 명확한 구분을 위해 삼원색이 사용되었다. 최종적으로 한 사진에 대해 시각화된 확률지도를 얻을 수 있었다.
질의응답
핵심어
질문
논문에서 추출한 답변
전이학습이란 무엇인가?
딥러닝을 실용적으로 이용하기에 대부분의 경우 많은 데이터를 구할 수 없어 학습에 불리하지만, 전이학습을 통해 학습의 성능을 크게 향상하고 데이터 라벨링에 들어가는 노력을 경감할 수 있어 적은 양의 데이터로도 우수한 성능을 나타낼 수 있다 (Pan and Yang, 2010). 전이학습은 이미 학습된 모델을 기반으로 학습 과정을 반복하여 새로운 모델을 얻고, 얻은 모델을 예측에 사용하는 방법이다. 전이학습에 사용하는 모델의 예시로는 합성곱 신경망의 일종인 AlexNet, Inception-v3 모델 등이 있다.
콘크리트의 균열은 어떤 경우에 발생하는가?
콘크리트는 균열 잠재성이 있는 재료로 균열을 가지는 것이 일반적이지만, 균열의 성장으로 파괴가 일어날 수 있다. 콘크리트의 균열은 일반적으로 부재의 인장 변형률에 의해서 발생하며 (Byun et al., 2000), 콘크리트를 선형, 탄성 재료라고 가정했을 경우 콘크리트의 인장 응력이 그 인장강도를 넘어 설 때 균열이 발생한다고 가정하기도 한다 (Yoon, 1991). 콘크리트 구조물에 균열이 발생하면 구조물의 성능저하 문제가 발생하며, 구체적으로는 구조물의 미관 저하, 구조물의 이용 가능성 저하, 철근 부식 보호 실패가 일어날 수 있다 (Yoon, 1991).
전이학습에 사용하는 모델 중 GoogLeNet을 개선한 모델을 사용한 사례는 무엇인가?
Inception-v3 모델은 GoogLeNet을 개선한 것으로, 이는 한 계층에 여러 개의 필터 등을 적용하는 inception 모듈을 이용해 성능을 개선한 모델이 다. Xia et al. (2017)은 꽃 분류를 위해 Inception-v3 모델을 전이 학습하여 94∼95%의 정확도를 얻었으며, Devikar (2016) 은 개 품종 분류를 위해 Inception-v3 모델을 개 사진에 대해 재훈련하여 96%의 정확도를 얻은 바 있다.
참고문헌 (21)
Boeing, G., and P. Waddell, 2016. New insights into rental housing markets across the United States: web scraping and analyzing craiglist rental listings. Journal of Planning Education and Research 1-20. doi:10.1177/0739456X16664789.
Byun, G. J., H. W. Song, W. Choi, and S. M. Wu, 2000. Crack evaluation technique and crack repair of concrete structures. Magazine of the Korea Concrete Institute 12(6): 97-108.
Chen, G., H. Mu, D. Pommerenke, and J. L. Drewniak, 2004. Damage detection of reinforced concrete beams with novel distributed crack/strain sensors. Structural Health Monitoring 3(3): 225-243. doi:10.1177/1475921704045625.
Devikar, P., 2016. Transfer learning for image classification of various dog breeds. International Journal of Adavanced Research in Computer Engineering & Technology 5(12): 2707-2715.
Hassan, S. I., D. L. Minh, S. H. Im, G. B. Min, J. Y. Nam, and H. J. Moon, 2018. Damage detection and classification system for swer inspection using convolutional neural networks based on deep learning. Journal of the Korea Institute of Information and Communication Engineering 22(3): 451-457. doi:10.6109/JKIICE.2018.22.3.451.
Kang, H. K., and S. G. Hong, 2008. Causes and mitigation of concrete cracking. Magazine of the Korea Concrete Institute 20(5): 61-68.
Kim, W., 1995. Major causes for deterioration in concrete structures. Magazine of the Korea Conrete Institute 7(6): 14-22.
Krizhevsky, A., I. Sutskever, and G. E. Hinton, 2012. ImageNet classification with deep convolutional neural networks. Advances in Neural Information Processing Systems 1097-1105. doi:10.1145/3065386.
LeCun, Y., Y. Bengio, and G. Hinton, 2015. Deep learning. Nature 521(7553): 436-444. doi:10.1038/nature14539.
Lee, B. Y., S. T. Yi, and J. K. Kim, 2007. Surface crack evaluation method in concrete structures. Journal of the Korean Society for Nondestructive Testing 27(2): 173-182.
Lee, Y. I., B. H. Kim, and S. J. Cho, 2018. Image-based spalling detection of concrete structures using deep learning. Journal of the Korea Concrete Institue 30(1): 91-99. doi:10.4334/JKCI.2018.30.1.091.
Pan, S. J., and Q. Yang, 2010. A Survey on transfer learning. IEEE Transactions on knowledge and data engineering 22(10): 1345-1359. doi:10.1109/TKDE.2009.191.
Pour-Ghaz, M., A. M. Asce, T. Barret, T. Ley, N. Materer, A. Apblett, and J. Weiss, 2014. Wireless crack detection in concrete elements using conductive surface sensors and radio frequency identification technology. Journal of Materials in Civil Engineering 26(5): 923-929. doi: 10.1061/(ASCE)MT.1943-5533.0000891.
Simard, P. Y., D. Steinkraus, and J. C. Platt, 2003. Best practices for convolutional neural networks applied to visual document analytsis. In Proceedings of the Seventh International Conference on Document Analysis and Recognition 2: 958-962. doi:10.1109/ICDAR.2003.1227801.
Song, G., H. Gu, Y. L. Mo, T. T. C. Hsu, and H. Dhonde, 2007. Concrete structural health monitoring using embedded piezoceramic transducers. Smart Materials and Structures 16: 959-968. doi:10.1109/ICDAR.2003.1227801.
Suaris W., and V. Fernando, 1987. Detection of crack growth in concrete from ultrasonic intensity measurements. Materials and Structures 20: 214-220. doi:10.1007/BF02472738.
Szegedy, C., V. Vanhoucke, S. Ioffe, J. Shlens, and Z. Wojna, 2016. Rethinking the inception architecture for computer vision. In Proceedings of the IEEE conference on computer vision and pattern recognition 2818-2826. doi:10.1109/CVPR.2016.308.
Szegedy, C., W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, 2015. Going deeper with convolutions. The IEEE Conference on Computer Vision and Pattern Recognition 1-9. doi:10.1109/CVPR.2015.7298594.
Xia, X., C. Xu, and B. Nan, 2017. Inception-v3 for flower classification. Image, Vision and Computing, 2017 2nd International Conference on IEEE 783-787. doi:10.1109/ICIVC.2017.7984661.
Yoon, W. H., 1991. About crack of concrete structure. Magazine of the Korea Concrete Institute 3(3): 66-74.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.