$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

호모그래피 변환을 이용한 가시광 및 적외선 열화상 영상 정합
Visible Light and Infrared Thermal Image Registration Method Using Homography Transformation 원문보기

한국산업융합학회 논문집 = Journal of the Korean Society of Industry Convergence, v.24 no.6/1, 2021년, pp.707 - 713  

이상협 (경성대학교 전자공학과) ,  박장식 (경성대학교 전자공학과)

Abstract AI-Helper 아이콘AI-Helper

Symptoms of foot-and-mouth disease include fever and drooling a lot around the hoof, blisters in the mouth, poor appetite, blisters around the hoof, and blisters around the hoof. Research is underway on smart barns that remotely manage these symptoms through cameras. Visible light cameras can measur...

주제어

표/그림 (7)

AI 본문요약
AI-Helper 아이콘 AI-Helper

제안 방법

  • 구제역 선제적 대응을 위한 호모그래피 변환을 이용한 복합 카메라 정합 영상 데이터셋에 대한 심층학습 기반의 객체 검출을 제안한다. 제안하는 알고리즘은 Fig.
  • 4은 특징 기반의 영상 정합을 나타낸다. 두 입력 영상에 대해 각각 특징점 추출(Keypoint extraction)을 수행하고 이를 이용해 영상 정합을 수행한다.
  • 본 논문에서는 구제역 선제적 대응을 위해 가시광 및 적외선 열화상 복합 카메라 모듈을 사용하여 심층학습 기반 객체 검출 및 호모그래피 변환을 적용하여 가시광 영상과 적외선 열화상 영상을 정합하는 방법을 제안한다.
  • 본 논문에서는 효율적인 축사 관리를 위하여 가시광 및 열화상 복합 카메라로부터 가시광 영상과 열화상 영상을 획득하고, YOLO 딥러닝 모델을 활용하여 객체를 검출하고 영상 정합하는 방법 을 제안한다.

대상 데이터

  • 학습에 사용된 데이터는 동일한 환경에 대해 가시광과 적외선 열화상 복합 카메라 모듈로 촬영된 우축사 영상을 사용한다. 가시광 영상 및 적외선 열화상 영상 학습에 각 정지영상 1,717장과 가축객체 3,500건을 사용한다. 시험을 위해 575장의 정지영상과 가축 객체 1,500건을 사용한다.
  • 가시광 영상은 색영상(Color image)이고, 해상도는 1920×1080 화소이다
  • 가축 객체 검출 학습과 시험을 위해 데이터셋은 가시광 및 열화상 복합 카메라를 사용하는 모듈을 이용하여 주간 우축사를 촬영한 영상 데이터 셋을 구축하였다.
  • 복합 카메라 영상 데이터셋은 각 카메라 영상에 대해 42건의 동영상에서 생성된 2,173장의 정지영상에서 가축 객체 5,000건으로 구성되어 있어, 총 82건의 영상, 4,346장의 정지영상, 가축 객체 10,000건으로 구성되어 있다. 가시광 영상은 색영상(Color image)이고, 해상도는 1920×1080 화소이다.
  • 가시광 영상 및 적외선 열화상 영상 학습에 각 정지영상 1,717장과 가축객체 3,500건을 사용한다. 시험을 위해 575장의 정지영상과 가축 객체 1,500건을 사용한다.
  • 적외선 열화상 영상은 회색조 영상(Gray scale image)이고, 해상도는 640×512 화소이다.
  • 성능 비교를 위하여 단일 영상만 이용한 심층 학습 기반의 객체 검출과 복합 카메라 데이터셋의 객체 검출의 미검출 성능과 온도 측정 유무를 비교 분석한다. 학습 및 추론 그리고 영상정합 후처리 시뮬레이션은 리눅스 Ubuntu 18.04, PyTorch, CUDA 10.2, CuDNN 7.2, Caffe2, Dual Quadro P5000 GPU 환경에서 수행하였다.
  • 심층 학습 기반의 객체 검출 모델은 YOLO v4 를 사용한다. 학습에 사용된 데이터는 동일한 환경에 대해 가시광과 적외선 열화상 복합 카메라 모듈로 촬영된 우축사 영상을 사용한다. 가시광 영상 및 적외선 열화상 영상 학습에 각 정지영상 1,717장과 가축객체 3,500건을 사용한다.

데이터처리

  • 성능 비교를 위하여 단일 영상만 이용한 심층 학습 기반의 객체 검출과 복합 카메라 데이터셋의 객체 검출의 미검출 성능과 온도 측정 유무를 비교 분석한다. 학습 및 추론 그리고 영상정합 후처리 시뮬레이션은 리눅스 Ubuntu 18.
  • 심층학습 기반의 객체 검출 정확도는 기존의 단순 영상 정합과 제안하는 호모그래피 변환을 이용한 영상 정합 영상에 대해 FPPI (False Positive per Image) 0.1 기준에서의 미검출율(Miss rate) 로 측정하였고, Table 1에 표기하였다.

이론/모형

  • 객체 검출에는 2,173장의 정지영상과, 가축 객체 5,000건에 대하여 YOLO v4 모델을 사용한다. 적외선 열화상 영상만 사용하는 객체 검출에 비해 미검출율이 0.
  • 심층 학습 기반의 객체 검출 모델은 YOLO v4 를 사용한다. 학습에 사용된 데이터는 동일한 환경에 대해 가시광과 적외선 열화상 복합 카메라 모듈로 촬영된 우축사 영상을 사용한다.
  • 특징점 추출은 윤곽선을 특징점으로 하여 추출한다. 윤곽선 검출은 Canny 윤곽선 검출 기법을 통해 윤곽선을 추출한다. 두 영상의 해상도가 일치하지 않기 때문에, 해상도가 높은 가시광 영상에 대해 적외선 열화상 영상을 슬라이딩 윈도우 (Sliding Window) 기법을 통해 1화소씩 움직여 모든 픽셀에 대해 상관관계를 계산하여 상관관계 값이 가장 높은 값을 가지는 위치를 선정한다.
본문요약 정보가 도움이 되었나요?

참고문헌 (14)

  1. Zaidi, S. S. A., Ansari, M. S., Aslam, A., Kanwal, N., Asghar, M., and Lee, B., "A Survey of Modern Deep Learning based Object Detection Models," arXiv preprint arXiv:2104.11892, (2021). 

  2. Park, S.-J., Han, S.-Y., Park, S.-B., and Kim, J.-H., "A Study on the Detection Method of Lane Based on Deep Learning for Autonomous Driving," Journal of the Korean Society of Industry Convergence, vol. 23, no. 6_2, pp. 979-987, (2020). 

  3. J.-H. Lee and J.-S. Kim, "A Study on the Stability Control of Injection-molded Product Weight using Artificial Neural Network," Journal of The Korean Society of Industry Convergence, vol. 23, no. 5, pp. 773-787, Oct. 2020. 

  4. Qiao, Y., Su, D., Kong, H., Sukkarieh, S., Lomax, S., and Clark, C., "Data augmentation for deep learning based cattle segmentation in precision livestock farming," In 2020 IEEE 16th International Conference on Automation Science and Engineering, pp. 979-984. DOI: 10.1109/CASE48305.2020.9216758. (2020) 

  5. Jamal SM, Belsham GJ. "Foot-and-mouth disease: past, present and future," Vet Res, vol. 44, no. 1, pp. 116. DOI: 10.1186/1297-9716-44-116. PMID: 24308718; PMCID: PMC4028749. (2013) 

  6. W. Lee, S. Hwang and J. Kim, "Fast Detection of Disease in Livestock based on Machine Learning," The 37th conference of Korea Institute of information and communication engineering, vol. 19, no. 1, pp.294-297, (2015). 

  7. Chowdhury, S., Verma, B., Roberts, J., Corbet, N., and Swain, D., "Deep Learning Based Computer Vision Technique for Automatic Heat Detection in Cows," 2016 International Conference on Digital Image Computing: Techniques and Applications, pp. 1-6, (2016). 

  8. Lee, Y., and Shin, J., "DNN Based Multispectrum Pedestrian Detection Method Using Color and Thermal Image," Journal of Broadcast Engineering, vol. 23, no. 3, pp. 361-368, (2018). 

  9. Xudong, Z., Xi, K., Ningning, F., and Gang, L., "Automatic recognition of dairy cow mastitis from thermal images by a deep learning detector," Computers and Electronics in Agriculture, vol. 178, (2020). 

  10. Bochkovskiy, A., Wang, C. Y., and Liao, H. Y. M., "Yolov4: Optimal speed and accuracy of object detection," arXiv preprint arXiv:2004.10934, (2020). 

  11. Liu, J., Yang, S., Fang, Y., and Guo, Z., "Structure-guided image inpainting using homography transformation," IEEE Transactions on Multimedia, vol. 20, no. 12, pp. 3252-3265, (2018). 

  12. Wang, R. J., Li, X., and Ling, C. X., "Pelee: A real-time object detection system on mobile devices," arXiv preprint arXiv:1804.06882, (2018). 

  13. Borovec, J., Kybic, J., Arganda-Carreras, I., Sorokin, D. V., Bueno, G., Khvostikov, A. V., and et. al, "ANHIR: automatic non-rigid histological image registration challenge," IEEE transactions on medical imaging, vol . 39, no. 10, pp. 3042-3052, (2020). 

  14. Nguyen, T., Chen, S. W., Shivakumar, S. S., Taylor, C. J., and Kumar, V., "Unsupervised deep homography: A fast and robust homography estimation model," IEEE Robotics and Automation Letters, vol. 3, no. 3, pp. 2346-2353, (2018). 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로