$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

스테레오 CCTV 영상에서 딥러닝을 이용한 교통량 추정
Estimation of Traffic Volume Using Deep Learning in Stereo CCTV Image 원문보기

한국측량학회지 = Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, v.38 no.3, 2020년, pp.269 - 279  

서홍덕 (Department of Spatial Information Engineering, Namseoul University) ,  김의명 (Department of Spatial Information Engineering, Namseoul University)

초록
AI-Helper 아이콘AI-Helper

교통량 산정은 주로 교통량조사시스템, 차량검지시스템, 통행료징수시스템 등과 같은 조사 장비와 CCTV를 통한 인력 조사를 병행하고 있으나 이는 많은 인력과 비용이 발생한다. 본 연구에서는 단일 CCTV의 경우 전체 차량을 탐지하지 못하는 한계를 극복하기 위해서, 딥러닝과 스테레오 CCTV를 이용하여 교통량을 산정하는 방법을 제안하였다. 차량을 탐지하기 위한 딥러닝 모델을 학습하기 위해 COCO 데이터셋을 사용하고, 실시간으로 좌우 CCTV 영상에서 각각 차량을 탐지하였다. 그리고 나서, 각 영상에서 추출하지 못한 차량을 부등각사상변환을 이용하여 추가적으로 차량을 탐지하여 교통량 산정의 정확도를 개선하였다. 실험은 평상시 도로 환경과 안개가 발생한 기상 상황의 경우에 대해서 각각 수행하였다. 평상시 도로 환경의 경우 단일 CCTV 영상을 사용할 때보다 좌우 영상에서 각각 6.75%, 5.92%의 차량 탐지의 개선효과가 있었다. 또한, 안개가 발생한 도로 환경의 경우 좌우 영상에서 각각 10.79%, 12.88%의 차량 탐지의 개선효과가 있었다.

Abstract AI-Helper 아이콘AI-Helper

Traffic estimation mainly involves surveying equipment such as automatic vehicle classification, vehicle detection system, toll collection system, and personnel surveys through CCTV (Closed Circuit TeleVision), but this requires a lot of manpower and cost. In this study, we proposed a method of esti...

주제어

표/그림 (25)

AI 본문요약
AI-Helper 아이콘 AI-Helper

문제 정의

  • 첫째, 현재 교통량 산정은 AVC, VDS, TCS 등의 추가적인 장비 설치가 필요하며 CCTV를 통한 인력식 조사를 병행하여 교통량을 산정하고 있기 때문에, 하드웨어 설치비용과 인력 운용에 많은 비용이 소요되고 있다. 이에 본 연구에서는 스테레오 CCTV 영상과 딥러닝 기술을 접목하여 도로상의 교통량 산정을 자동화하기 위한 방안을 제시하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
CCTV의 좌우 영상에서 차량을 각각 탐지하였을 때, 진단이나 예측의 정확도에 차이가 날 수 있는 이유는 무엇인가? 그 다음으로 COCO 데이터셋을 학습한 YOLO V3를 이용 하여 CCTV의 좌우 영상에서 차량을 각각 탐지한다. 탐지된 좌우 영상은 영상의 특징이 다를 수 있기 때문에 진단이나 예측의 정확도에 차이가 날 수 있다(Park and Bae, 2019). 따라서, 좌우 영상에서 탐지한 차량의 개수가 완전히 동일하지 않을 수 있기 때문에 좌우 영상 간의 부등각사상변환 매개변수를 추정한 후, 좌우 영상에서 탐지된 차량의 좌표와 추정한 부등각사상변환 매개변수를 이용하여 각 영상에서 탐지하지 못한 차량을 탐지하여 좌우 영상의 차량 대수를 일치시킨 후 교통량을 계산한다.
COCO 데이터셋이란 무엇인가? COCO 데이터셋은 마이크로소프트에서 객체 인식의 첨단화를 목표로 만든 딥러닝을 위한 데이터셋이다(Lin et al., 2014).
교통량 산정은 어떻게 수행되는가? 국토교통부의 교통량정보제공시스템에 의하면 교통량 산정은 기본 교통량 자료가 필요하다고 판단되는 모든 구간에 대하여 광범위하게 실시하는 수시조사와 특정 지점에 자동 차종 분류 조사 장비를 설치하여 1년 365일 24시간 연속으로 통과 차량의 차종, 방향, 시간대별로 측정하는 상시조사를 수행한다(Traffic Monitoring System, 2018).
질의응답 정보가 도움이 되었나요?

참고문헌 (30)

  1. Ammour, N., Alhichri, H., Bazi, Y., Benjdira, B., Alajlan, N., and Zuair, M. (2017), Deep learning approach for car detection in UAV imagery. Remote Sensing, Vol. 9, No. 4, pp. 312-326. 

  2. Anindra, F., Soeparno, H., and Napitupulu, T. A. (2018), CCTV traffic congestion analysis at pejompongan using case based reasoning. In 2018 International Conference on Information and Communications Technology (ICOIACT), 6-7 March, Yogyakarta, Indonesia, pp. 861-865. 

  3. Barthelemy, J., Verstaevel, N., Forehead, H., and Perez, P. (2019), Edge-computing video analytics for real-time traffic monitoring in a smart city, Sensors, Vol. 19, No. 9, pp. 2048-2078. 

  4. Benjdira, B., Khursheed, T., Koubaa, A., Ammar, A., and Ouni, K. (2019), Car detection using unmanned aerial vehicles: Comparison between faster r-cnn and yolov3. In 2019 1st International Conference on Unmanned Vehicle Systems-Oman (UVS), IEEE, 5-7 February, Muscat, Oman, pp. 1-6. 

  5. Choi, I.K. and Yoo, J.S. (2017), Object detection in road environment CCTV images using deep learning. The Institute of Electronics and Information Engineers, 24-25 November, Incheon, Korea, pp. 627-629. 

  6. Du, X., Ang, M.H., and Rus, D. (2017), Car detection for autonomous vehicle: LIDAR and vision fusion approach through deep learning framework. In 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), IEEE, 24-28 September, Vancouver, Canada, pp. 749-754. 

  7. Han, S.H., Shin, Y.S., and Lee, J.Y. (2019), A study on the evaluation technique of intelligent security technology based on spatial information : multi-CCTV collaboration technology. The Journal of the Korea Academia-Industrial cooperation Society, Vol. 20, No. 7, pp. 111-118. (in Korean with English abstract) 

  8. Hong, G.S., Eom, T.J., and Kim, B.G. (2011), Development of vision-based monitering system technology for traffic analysis and surveillance. Jouranl of Information and Security, Vol. 11, No. 4, pp. 59-66. 

  9. Huh, M.H., Shin, S.Y., and Lee, Y.W. (2013), Traffic measurement : moving vehicle method using CCTV. Journal of the Korea Institute of Information and Communication Engineering, Vol. 17, No. 11, pp. 2575-2580. (in Korean with English abstract) 

  10. Jeong, D.H. and Jeong, W.T. (2019), Prediction of rolling noise based on machine learning technique using rail surface roughness data, Journal of the Korean Society for Railway, Vol. 22. No. 3, pp. 209-217. (in Korean with English abstract) 

  11. Jo, S.H., Kim, C.G., Lim, H.Y., and Shin, Y.T. (2018), A study on the traffic flow analysis method based on change detection for traffic video data. Journal of Information Technology and Architecture, Vol. 15, No. 3, pp. 373-382. (in Korean with English abstract) 

  12. Kim, J.H. and Choi, D.H. (2019), Implementation of a vehicle traffic and speed estimation system using faster R-CNN. The Journal of Korean Institute of Communications and Information Sciences, Vol. 44, No. 9, pp. 1754-1758. (in Korean with English abstract) 

  13. Kim, S.S., Jung, J.H., Kim, E.M., Yoo, H.H., and Sohn, H.G. (2008), Geocoding of low altitude UAV imagery using affine transformation model. Journal of Korean Society for Geospatial Information Science, Vol. 16, No. 4, pp. 79-87. (in Korean with English abstract) 

  14. Kim, Y.M., Lee, J.Y., Yoon, I.L., Han. T.J., and Kim, C.Y. (2018), CCTV object detection with background subtraction and convolutional neural network. The Korean Institute of Information Scientists and Engineers, Vol. 24, No. 3, pp. 151-156. (in Korean with English abstract) 

  15. Lee, G.W. and Yom, J.H. (2018), Design and implementation of web-based automatic preprocessing system of remote sensing imagery for machine learning modeling. The Journal of Korean Society for Geospatial Information Science, Vol. 26, No. 1, pp. 61-67. (in Korean with English abstract) 

  16. Lee, T.H., Kim, K.J., Yun, K.S., Kim, K.J., and Choi, D.H. (2018), A method of counting vehicle and pedestrian using deep learning based on CCTV. The Korean Institute of Intelligent Systems, Vol. 28, No. 3, pp. 219-224. (in Korean with English abstract) 

  17. Lin, T.Y., Maire, M., Belongie, S., Hays, J., Perona, P., Ramanan, D., Dollar, P., and Zitnick, C.L. (2014), Microsoft coco: Common objects in context. In European conference on computer vision, Springer, Cham, 6-12 September, Zurich, Switzerland, pp. 740-755. 

  18. Mundhenk, T. N., Konjevod, G., Sakla, W. A., and Boakye, K. (2016), A large contextual dataset for classification, detection and counting of cars with deep learning. In European conference on computer vision, Springer, Cham, 8-16 October, Amsterdam, Netherlands, pp. 785-800. 

  19. Park, G.M. and Bae, Y.C. (2019), Performance comparison of machine learning in the various kind of prediction. The Journal of the Korea Institute of Electronic Communication Sciences, Vol. 14, No. 1, pp. 169-178. (in Korean with English abstract) 

  20. Park, S.Y., Lee, J.B., Park, Y.J., and Yu, K.Y. (2009), The study on coordinate transformation for updating of digital map from construction drawing data. Journal of Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, Vol. 27, No. 2, pp. 281-288. (in Korean with English abstract) 

  21. Peppa, M.V., Bell, D., Komar, T., and Xiao, W. (2018), Urban traffic flow analysis based on deep learning car detection from CCTV image series. International Archives of the Photogrammetry, Remote Sensing & Spatial Information Sciences, Vol. 42, No. 4, pp. 499-506. 

  22. Redmon, J. and Farhadi, A. (2017), YOLO9000 : Better, faster, stronger. In Proceedings of the IEEE conference on computer vision and pattern recognition, 21-26 July, Honolulu, USA, pp. 7263-7271. 

  23. Redmon, J. and Farhadi, A. (2018), YOLO V3: An incremental improvement, arXiv preprint arXiv:1804.02767, pp. 1-6. 

  24. Redmon, J., Divvala, S., Girshick, R., and Farhadi, A. (2016), You only look once: Unified, real-time object detection. In Proceedings of the IEEE conference on computer vision and pattern recognition, 27-30 June, Las Vegas, USA, pp. 779-788. 

  25. Sirirattanapol, C., Nagai, M., Witayangkurn, A., Pravinvongvuth, S., and Ekpanyapong, M. (2019), Bangkok CCTV image through a road environment extraction system using multi-label convolutional neural network classification. ISPRS International Journal of Geo-Information, Vol. 8, No. 3, pp. 128-143. 

  26. Traffic Monitoring System. (2018), Road traffic investigation, Ministry of Land, Infrastructure and Transport, URL:http://www.road.re.kr/(last date accessed: 22 December 2019). 

  27. Tung, C., Kelleher, M.R., Schlueter, R.J., Xu, B., Lu, Y.H., Thiruvathukal, G.K., Chen, Y.K., and Lu, Y. (2019), Largescale object detection of images from network cameras in variable ambient lighting conditions. In 2019 IEEE Conference on Multimedia Information Processing and Retrieval (MIPR), IEEE, 28-30 March, California, USA, pp. 393-398. 

  28. Xu, Y., Wu, L., Xie, Z., and Chen, Z. (2018), Building extraction in very high resolution remote sensing imagery using deep learning and guided filters. Remote Sensing, Vol. 10, No. 1, pp. 144-161. 

  29. Young, T., Hazarika, D., Poria, S., and Cambria, E. (2018). Recent trends in deep learning based natural language processing. IEEE Computational IntelligenCe Magazine, Vol. 13, No. 3, pp. 55-75. 

  30. Yu, J.H., Han, Y.J., and Hahn, H.S. (2019), Improving performance of YOLO network using multi-layer overlapped windows for detecting correct position of small dense objects. Journal of The Korea Society of Computer and Information, Vol. 24, No. 3, pp. 19-27. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로