$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

딥러닝 기반 영상 분석 알고리즘을 이용한 실시간 작업자 안전관리 시스템 개발
Real-time Worker Safety Management System Using Deep Learning-based Video Analysis Algorithm 원문보기

스마트미디어저널 = Smart media journal, v.9 no.3, 2020년, pp.25 - 30  

전소연 ((주)스탠스) ,  박종화 ((주)스탠스) ,  윤상병 ((주)지엔아이티) ,  김영수 (한국남부발전(주) 하동발전본부) ,  이용성 (한국남부발전(주) 하동발전본부) ,  전지혜 ((주)스탠스)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 산업 시설에서 작업자의 안전을 실시간으로 감시하는 딥러닝 기반 영상 분석 시스템을 구현하는 데 목적을 둔다. 작업자의 복장을 안전모, 안전조끼, 안전벨트 착용 여부에 따라 총 여섯 가지의 클래스로 나누고, 총 5,307개의 영상을 학습데이터로 이용하였다. 실험은 속도와 정확도가 준수한 YOLO v4를 이용하였으며, 총 645장의 영상에 대해 학습 반복 수에 따른 가중치를 적용했을 때의 mAP를 비교함으로써 수행되었다. 학습 반복 수 6,000에서의 mAP가 60.13%로 제일 높았으며, 테스트셋이 가장 많은 클래스의 AP가 가장 높음을 확인하였다. 추후 데이터셋객체 검출 모델을 최적화함으로써, 정확도와 속도를 개선할 예정이다.

Abstract AI-Helper 아이콘AI-Helper

The purpose of this paper is to implement a deep learning-based real-time video analysis algorithm that monitors safety of workers in industrial facilities. The worker's clothes were divided into six classes according to whether workers are wearing a helmet, safety vest, and safety belt, and a total...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 과도한 학습으로 인해 과적합이 발생하는지를 확인하여 학습데이터에 최적화된 가중치를 확보하고자 하였다. 또한, 구현된 시스템의 성능을 확인하기 위해, 같은 데이터셋으로 학습된 YOLO v3와 비교하였다.
  • 본 논문에서는 실시간 객체 검출 알고리즘을 이용하여 작업자의 안전 장비 착용 여부를 확인하기 위해 클래스 6개에 대한 데이터셋을 구축하였다. 그림 5는 작업자들의 안전 장비에 대한 6가지 유형을 나타낸 것이다.
  • 본 논문에서는 작업자의 안전 장비 착용 여부를 판별하기 위해 데이터셋을 구축하고, 딥러닝 객체 검출 알고리즘을 활용하여 지정한 클래스 별 정확도를 측정하였다. 제안하는 시스템은 관리자와 작업자 간 비대면 업무가 가능해진다는 점에서 강점을 갖는다.
  • 한계가 있다. 이에 본 논문은 관리자가 작업자의 안전을 실시간으로 감시할 수 있는 딥러닝 기반 영상 분석 시스템을 제안한다. 관리자는 시간적, 인적 비용을 최소화하여 작업자의 안전을 더 확실히 관리할 수 있으면서도, 관리자와 작업자 간의 비대면 업무가 가능하다는 장점을 가진다.

가설 설정

  • 그림 5는 작업자들의 안전 장비에 대한 6가지 유형을 나타낸 것이다. 여기에서 안전 조끼와 벨트를 동시에 착용한 작업자는 없다고 가정한다. 표 1은 그림 5에서 표시된 유형에 대해 설명하며, 이 중 ⑤, ⑥이 안전 장비를 착용했다고 본다.
본문요약 정보가 도움이 되었나요?

참고문헌 (20)

  1. 고용노동부, "산업재해 현황분석", 2020 

  2. J. Redmon, S. Divvala, R. Girshick, A. Farhadi, "You only look once: Unified, real-time object detection," the IEEE conference on computer vision and pattern recognition(CVPR), pp. 779-788, 2016. 

  3. Wei Liu, Dragomir Anguelov, Dumitru Erhan, Christian Szegedy, Scott Reed, Cheng-Yang Fu, Alexander CBerg, "SSD: Single shot multibox detector," the European Conference on Computer Vision(ECCV), pp. 21-37, 2016. 

  4. Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, Piotr Dollar, "Focal loss for dense object detection," the IEEE International Conference on Computer Vision(ICCV), pp. 2980-2988, 2017. 

  5. Ross Girshick, Jeff Donahue, Trevor Darrell, Jitendra Malik, "Rich feature hierarchies for accurate object detection and semantic segmentation," the IEEE Conference on Computer Vision and Pattern Recognition(CVPR), pp. 580-587, 2014. 

  6. Ross Girshick, "Fast R-CNN," the IEEE International Conference on Computer Vision (ICCV), pp. 1440-1448, 2015. 

  7. Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun, "Faster R-CNN: Towards real-time object detection with region proposal networks," Advances in Neural Information Processing Systems(NIPS), pp. 91-99, 2015. 

  8. A. Krizhevsky, I. Sutskever, G. Hinton, "Imagenet classification with deep convolutional neural networks," Advances in Neural Information Processing Systems(NIPS), 2012. 

  9. Karen Simonyan, Andrew Zisserman, "Very deep convolutional networks for large-scale image recognition," arXiv preprint arXiv:1409.1556, 2014. 

  10. C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, A. Rabinovich., "Going deeper with convolutions," CoRR, abs/1409.4842, 2014. 

  11. Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun, "Deep residual learning for image recognition," the IEEE Conference on Computer Vision and Pattern Recognition(CVPR), pp. 770-778, 2016. 

  12. Gao Huang, Zhuang Liu, Laurens Van Der Maaten, Kilian Q Weinberger, "Densely connected convolutional networks," the IEEE Conference on Computer Vision and Pattern Recognition(CVPR), pp. 4700-4708, 2017. 

  13. Andrew G Howard, Menglong Zhu, Bo Chen, Dmitry Kalenichenko, Weijun Wang, Tobias Weyand, Marco Andreetto, Hartwig Adam, "MobileNets: Efficient convolutional neural networks for mobile vision applications," arXiv preprint arXiv:1704.04861, 2017. 

  14. Xiangyu Zhang, Xinyu Zhou, Mengxiao Lin, and Jian Sun, "ShuffleNet: An extremely efficient convolutional neural network for mobile devices," the IEEE Conference on Computer Vision and Pattern Recognition(CVPR), pp. 6848-6856, 2018. 

  15. Joseph Redmon, Ali Farhadi, "YOLO9000: better, faster, stronger," the IEEE Conference on Computer Vision and Pattern Recognition(CVPR), pp. 7263-7271, 2017. 

  16. Joseph Redmon, Ali Farhadi, "YOLOv3: An incremental improvement," arXiv preprint arXiv:1804.02767, 2018. 

  17. Alexey Bochkovskiy, Chien-Yao Wang, Hong-Yuan Mark Liao, "YOLOv4: Optimal Speed and Accuracy of Object Detection," arXivpreprint arXiv:2004.10934, 2020.04. 

  18. 박선,김종원, "오픈 소스 기반의 딥러닝을 이용한 적조생물 이미지 분류," 스마트미디어저널, 제7권, 제2호, 34-39쪽, 2018년 6월 

  19. 김서정, 이재수, 김형석, "딥러닝을 이용한 양파밭의 잡초 검출 연구," 스마트미디어저널, 제7권, 제3호, 16-21쪽, 2018년 9월 

  20. 이한솔, 김영관, 홍지만, "사물인식을 위한 딥러닝모델 선정 플랫폼," 스마트미디어저널, 제8권, 제2호, 66-73쪽, 2019년 06월 

관련 콘텐츠

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로