본 논문에서는 교통관제용 CCTV로부터 촬영된 영상에서 교통 상황 분석을 위해 차량의 통행량 및 통행 속도를 획득하는 방법을 제안한다. 제안하는 방법은 촬영된 영상에 역 투영 사상(IPM, Inverse Perspective Mapping) 방법을 이용하여 카메라 각도에 따른 시각적 관점에서 기인한 왜곡을 제거하고, 차선 검출 알고리즘을 통해 1) 차량 통행량, 2) 차량 통행 속도를 측정할 소정 영역을 획득한다. 소정 영역에 대하여 광류(Optical flow) 기반 모션 추정을 이용하여 차량 통행량 및 통행 속도를 획득한다. 본 논문에서 제안한 방법을 지역별 다양한 CCTV 영상인 총 106,993 프레임, 약 세 시간 길이의 영상에 적용하여 88.94%의 검출 성능을 얻을 수 있었다.
본 논문에서는 교통관제용 CCTV로부터 촬영된 영상에서 교통 상황 분석을 위해 차량의 통행량 및 통행 속도를 획득하는 방법을 제안한다. 제안하는 방법은 촬영된 영상에 역 투영 사상(IPM, Inverse Perspective Mapping) 방법을 이용하여 카메라 각도에 따른 시각적 관점에서 기인한 왜곡을 제거하고, 차선 검출 알고리즘을 통해 1) 차량 통행량, 2) 차량 통행 속도를 측정할 소정 영역을 획득한다. 소정 영역에 대하여 광류(Optical flow) 기반 모션 추정을 이용하여 차량 통행량 및 통행 속도를 획득한다. 본 논문에서 제안한 방법을 지역별 다양한 CCTV 영상인 총 106,993 프레임, 약 세 시간 길이의 영상에 적용하여 88.94%의 검출 성능을 얻을 수 있었다.
This paper proposes a vehicle counting and speed estimation method for traffic situation analysis in road CCTV videos. The proposed method removes a distortion in the images using Inverse perspective Mapping, and obtains specific region for vehicle counting and speed estimation using lane detection ...
This paper proposes a vehicle counting and speed estimation method for traffic situation analysis in road CCTV videos. The proposed method removes a distortion in the images using Inverse perspective Mapping, and obtains specific region for vehicle counting and speed estimation using lane detection algorithm. Then, we can obtain vehicle counting and speed estimation results from using optical flow at specific region. The proposed method achieves stable accuracy of 88.94% from several CCTV images by regional groups and it totally applied at 106,993 frames, about 3 hours video.
This paper proposes a vehicle counting and speed estimation method for traffic situation analysis in road CCTV videos. The proposed method removes a distortion in the images using Inverse perspective Mapping, and obtains specific region for vehicle counting and speed estimation using lane detection algorithm. Then, we can obtain vehicle counting and speed estimation results from using optical flow at specific region. The proposed method achieves stable accuracy of 88.94% from several CCTV images by regional groups and it totally applied at 106,993 frames, about 3 hours video.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
본 장에서는 도로 주변에 설치된 CCTV 영상을 분석하여 교통량과 주행속도를 추정하는 방법에 대하여 소개한다. 본 논문에서 제안하는 CCTV 영상에서 교통량을 분석하는 과정은 크게 1) 역 투영 사상(IPM, Inverse Perspective Mapping) 적용, 2) 차선 검출 알고리즘을 통한 소정 영역 획득, 3) 광류(OF, Optical Flow)기반 모션 추출, 4) 교통량 판단의 4단계 구조로 구성된다.
본 절에서는 IPM이 적용된 탑-뷰 영상에서 차선의 수량과 위치를 인식하여 차량 통행량 및 통행 속도를 측정할 소정 영역을 획득하는 방법을 소개한다.
본 절에서는 도로의 CCTV에서 촬영된 영상에서 차량 통행량 추정 방법에 대하여 소개한다. 제안하는 통행량 추정 방법은 IPM 방법이 적용된 영상에서 차량의 모션을 이용한 방법이다.
제안하는 통행량 추정 방법을 설명하기에 앞서 본 논문에서 차량의 모션을 추정하기 위해 사용한 고밀도 광류에 대해 소개한다. 먼저 광류란 이미지에서 밝기 패턴이 어떻게 이동하였는지를 나타내는 분포로, 이를 통해 지역적으로 물체들의 이동 정보를 얻을 수 있다.
본 절에서는 도로의 CCTV에서 촬영된 영상에서 차량의 통행 속도 추정 방법에 대하여 소개한다. 역 투영 사상 방법이 적용된 소정의 영역에서 Lucas-Kanade 방식의 광류를 사용하였다.
본 논문에서는 교통 상황 분석을 위해 차량 통행량과 통행 속도 추정에 대한 성능을 측정하였다. 먼저 차량 통행량에 대한 성능을 측정하기 위해 각 차선별 차량 통행량의 ground truth값과 제안하는 방법을 이용해 얻은 값의 차이를 통해 정확도를 측정하였다.
본 논문에서는 도로의 CCTV로부터 촬영된 영상에서의 교통 상황 분석을 위해 차량의 통행량 및 통행 속도를 획득하는 방법을 제안하고 실험을 통하여 그 효과를 검증하였다. 카메라 각도에 따른 시각적 관점에서 오는 왜곡을 제거하기 위해 역 투영 사상 변환(IPM, Inverse Perspective Mapping)을 이용하였고, 차량 통행량 및 통행 속도를 측정할 소정 영역을 획득하기 위해 차선 검출 알고리즘을 이용하였다.
향후 연구로는 차량이 많아 정체현상이 있는 영상에 대하여 추가적인 연구를 진행하고자 한다. 차량과 같은 장애물로 인한 차선 검출 알고리즘의 오류율을 낮추고, 정체현상으로 인해 차량의 모션이 매우 작게 나타나는 경우에서의 차량 통행량 추정의 정확도를 높이는 것이다.
제안 방법
본 논문에서는 교통 상황 분석을 위해 차량 통행량 및 통행 속도를 추정한다. 도로의 CCTV로부터 촬영된 영상에서 카메라 각도에 따른 시각적 관점에서 오는 왜곡을 제거하기 위해 역 투영 사상(IPM, Inverse Perspective Mapping)[13]방법을 이용하여 영상을 탑-뷰(Top-view) 형태로 변환한다.
탑-뷰 형태의 영상에 차선 검출 알고리즘을 적용하여 차량 통행량 및 통행속도를 측정할 소정의 영역을 획득한다. 소정의 영역에 대하여 광류를 이용하여 차량의 모션을 측정하는 방법을 제안한다. 그림 1은 본 논문이 제안하는 교통 상황 분석 방법의 전체 흐름을 보여준다.
2장에서는 기존에 연구되었던 차량 통행량 및 통행 속도 측정 방법에 대한 기존의 연구 내용들을 살펴보고, 3장에서는 IPM과 차량 통행량 및 통행 속도를 측정할 소정 영역을 획득하기 위한 차선 검출알고리즘을 소개한다. 그리고 광류 기반 모션 추정을 이용하여 소정 영역에서의 차량 통행량 및 통행 속도 추정 방법을 제안한다. 4장에서는 제안하는 방법의 성능을 평가하고 실험 결과를 살펴보고, 마지막으로 5장에서는 본 논문에서 제안한 방법에 대한 결론을 내리고 향후 연구 방향으로 결론을 맺는다.
본 논문에서는 카메라의 화각에 따른 시각적 관점의 왜곡(perspective distortion)을 제거하기 위해 IPM을 이용하여 교통량을 판단할 소정영역을탑-뷰 영상으로 변환하여 사용하였고, 차량의 모션을 측정할 소정영역을 획득하기 위해 차선 검출 알고리즘을 사용하였다. 그리고 광류기반 모션 측정 방법을 이용하여 차량의 모션을 측정하여 교통량을 판단하였다. 그 과정에 대하여 간략히 설명하자면, 먼저 사용자로부터 IPM을 적용할 소정의 영역을 입력받아 IPM을 적용한 탑-뷰 영상에 차선 검출 알고리즘을 적용한다.
검출된 차선을 이용하여 각 차선별로 교통량을 측정할 소정의 영역을 획득한다. 획득한 소정 영역에서 광류를 이용하여 차량의 모션을 측정한다. 이를 통해 획득한 차량의 통행량 및 통행 속도 정보를 이용하여 교통량을 판단하게 된다.
그림 2는 차량 상단에 탑재된 카메라에서 촬영한 입력영상에서 IPM을 적용한 결과의 예를 보여준다. 입력영상에서 도로에 해당하는 영역을 추출하기 위해, 차선이 모이게 되는 소실점을 검출하여 소실점 기준 하단 영역에 대하여IPM을 적용하였다.
본 연구에서는 기존의 차선 검출 알고리즘[13],[20]을 기반으로 그림 3과 같은 시스템을 구축하였다. 입력 영상은 그림 3(a)와 같이 3.
1절에서의 IPM이 적용된 탑-뷰 영상을 사용하였다. 변환된 탑-뷰 영상에서 차선의 후보가 되는 흰 페인트를 추출하고 그 중 수직선을 기반으로 차선을 검출한다. 차선은 좁고, 도로면보다 밝다는 특성이 있으므로 주변부에 비해 밝은 영역만 남기는 탑-햇(top-hat) 필터를 흑백영상에 적용한 뒤 임계값을 기준으로 이진화한다.
이진화 된 영상은 그림 3(b)와 같으며, 수직성분만 추출하기 용이하도록 그림 3(c)와 같이 외곽선만 남긴다. 외곽선[21] 영상에 수평모양의 구조요소(structuring element)로 침식연산, 팽창연산을 이용하여 수직선을 추출하였다. 추출된 수직선이 포함된 영상은 그림 3(d)와 같다.
본 절에서는 도로의 CCTV에서 촬영된 영상에서 차량 통행량 추정 방법에 대하여 소개한다. 제안하는 통행량 추정 방법은 IPM 방법이 적용된 영상에서 차량의 모션을 이용한 방법이다. 본 연구에서는 영상에서 모션을 추정하는 다양한 방법 중 Farneback 방식의 고밀도 광류(dense optical flow)를 사용하였다.
그림 4와 같이 모션을 측정할 픽셀은 일정 크기의 step 마다 그리드 형식으로 지정하였다. 본 연구에서는 3.2절의 차선 검출 알고리즘을 통해 획득한 소정의 영역을 차량 통과지역으로 설정하여, 그 영역 내에 발생하는 모션 측정을 통해 차량의 통과 대수를 측정하였다.
저밀도 광류이기 때문에 코너와 같은 두드러진 속성을 가진 특징점에서 모션의 방향과 크기를 측정한다. 이를 이용하여 본 연구에서는 차량의 모션 방향과 크기를 측정하였고, 통행 속도 측정을 위해 모션의 크기를 이용하였다.
각 차량별 속도를 측정하는 방법은 3.2절의 차선 검출 알고리즘을 통해 획득한 각 차선별 교통량 측정 구간에서 차량이 지나가는 동안 발생한 모션들의 크기를 이용한다. 차량의 모션은 Lucas-Kanade 방식을 이용하여 플로우의 형태로 나타나게 되는데, 본 연구에서는 한 차량에 대하여 표현된 플로우들의 평균 크기 값을 이용하였다.
속도를 계산하기 위해서 고속도로에서 차선의 점선 길이가 각 고속도로의 유형별로 규정되어 있는 것을 이용하였다. 규정된 차선의 점선 길이를 이용하여 픽셀단위의 평균 플로우의 크기를 계산하기 위해 차선의 점선 길이와 평균 플로우의 크기의 비율 관계를 이용하였다.
속도를 계산하기 위해서 고속도로에서 차선의 점선 길이가 각 고속도로의 유형별로 규정되어 있는 것을 이용하였다. 규정된 차선의 점선 길이를 이용하여 픽셀단위의 평균 플로우의 크기를 계산하기 위해 차선의 점선 길이와 평균 플로우의 크기의 비율 관계를 이용하였다. 여기에서 도로 면에서 차선의 점선 길이는 각 도로의 유형별로 규정되어있다는 특성을 이용하였다.
규정된 차선의 점선 길이를 이용하여 픽셀단위의 평균 플로우의 크기를 계산하기 위해 차선의 점선 길이와 평균 플로우의 크기의 비율 관계를 이용하였다. 여기에서 도로 면에서 차선의 점선 길이는 각 도로의 유형별로 규정되어있다는 특성을 이용하였다. 예를 들어 고속도로에서 차선의 점선 길이(dR)는 1000cm(10m)로 규정되어있다.
본 논문에서는 교통 상황 분석을 위해 차량 통행량과 통행 속도 추정에 대한 성능을 측정하였다. 먼저 차량 통행량에 대한 성능을 측정하기 위해 각 차선별 차량 통행량의 ground truth값과 제안하는 방법을 이용해 얻은 값의 차이를 통해 정확도를 측정하였다. 이를 식 (9)와 식 (10)에서나타내고 있다.
카메라 각도에 따른 시각적 관점에서 오는 왜곡을 제거하기 위해 역 투영 사상 변환(IPM, Inverse Perspective Mapping)을 이용하였고, 차량 통행량 및 통행 속도를 측정할 소정 영역을 획득하기 위해 차선 검출 알고리즘을 이용하였다. 그리고 소정 역역에서의 차량 통행량 및 통행 속도를 획득하기 위해 광류 기반 모션 추정을 이용하였다.
대상 데이터
획득한 빈의 위치는 그림 3(e)와 같고 탑-뷰에 덧그린 결과는 그림 3(f)와 같다. 검출한 차선의 수량과 위치를 바탕으로 도로의 중앙 기준 가로길이는 차선 너비의 2/3, 세로길이는 20픽셀인 소정영역을 획득하였다. 획득한 차량 통행량 및 통행 속도를 측정할 소정 영역은 그림 3(g)와 같다.
제안하는 교통량 분석 방법의 성능 평가를 위해 공개된 고속도로 CCTV 영상을 사용하였다. 본 논문의 성능 평가를 위해 사용한 테스트 셋은 도로 중간의 철탑에 설치된 카메라로 촬영되었다.
제안하는 교통량 분석 방법의 성능 평가를 위해 공개된 고속도로 CCTV 영상을 사용하였다. 본 논문의 성능 평가를 위해 사용한 테스트 셋은 도로 중간의 철탑에 설치된 카메라로 촬영되었다.
표 1은 실험을 위해 구성한 테스트 셋을 보여주고 있다. 테스트 셋 영상은 2차선, 3차선, 4차선 영상으로 구성되어있다. 각 지역별로 주간영상(Day)과 야간영상(Night)을 모두 포함하여 총 16개의 영상에 대하여 실험을 진행하였다.
테스트 셋 영상은 2차선, 3차선, 4차선 영상으로 구성되어있다. 각 지역별로 주간영상(Day)과 야간영상(Night)을 모두 포함하여 총 16개의 영상에 대하여 실험을 진행하였다. 제공받은 영상을 프레임단위로 저장하여 사용하였고, 총 106,993 프레임에 대하여 실험을 진행하였다.
각 지역별로 주간영상(Day)과 야간영상(Night)을 모두 포함하여 총 16개의 영상에 대하여 실험을 진행하였다. 제공받은 영상을 프레임단위로 저장하여 사용하였고, 총 106,993 프레임에 대하여 실험을 진행하였다. 표 2에서는 구성된 16개 영상의 테스트 셋에 대한 예시를 보여주고 있다.
데이터처리
식 (9)를 통해 구한 AE값을 이용하여 식 (10)과 같이 정확도를 계산하였다. 차량 통행 속도에 대하여는 각 차선별 평균 속도를 측정하였다.
이론/모형
본 논문에서는 교통 상황 분석을 위해 차량 통행량 및 통행 속도를 추정한다. 도로의 CCTV로부터 촬영된 영상에서 카메라 각도에 따른 시각적 관점에서 오는 왜곡을 제거하기 위해 역 투영 사상(IPM, Inverse Perspective Mapping)[13]방법을 이용하여 영상을 탑-뷰(Top-view) 형태로 변환한다. 탑-뷰 형태의 영상에 차선 검출 알고리즘을 적용하여 차량 통행량 및 통행속도를 측정할 소정의 영역을 획득한다.
도로의 CCTV로부터 촬영된 영상에서 카메라 각도에 따른 시각적 관점에서 오는 왜곡을 제거하기 위해 역 투영 사상(IPM, Inverse Perspective Mapping)[13]방법을 이용하여 영상을 탑-뷰(Top-view) 형태로 변환한다. 탑-뷰 형태의 영상에 차선 검출 알고리즘을 적용하여 차량 통행량 및 통행속도를 측정할 소정의 영역을 획득한다. 소정의 영역에 대하여 광류를 이용하여 차량의 모션을 측정하는 방법을 제안한다.
본 논문에서 제안하는 CCTV 영상에서 교통량을 분석하는 과정은 크게 1) 역 투영 사상(IPM, Inverse Perspective Mapping) 적용, 2) 차선 검출 알고리즘을 통한 소정 영역 획득, 3) 광류(OF, Optical Flow)기반 모션 추출, 4) 교통량 판단의 4단계 구조로 구성된다. 본 논문에서는 카메라의 화각에 따른 시각적 관점의 왜곡(perspective distortion)을 제거하기 위해 IPM을 이용하여 교통량을 판단할 소정영역을탑-뷰 영상으로 변환하여 사용하였고, 차량의 모션을 측정할 소정영역을 획득하기 위해 차선 검출 알고리즘을 사용하였다. 그리고 광류기반 모션 측정 방법을 이용하여 차량의 모션을 측정하여 교통량을 판단하였다.
그리고 광류기반 모션 측정 방법을 이용하여 차량의 모션을 측정하여 교통량을 판단하였다. 그 과정에 대하여 간략히 설명하자면, 먼저 사용자로부터 IPM을 적용할 소정의 영역을 입력받아 IPM을 적용한 탑-뷰 영상에 차선 검출 알고리즘을 적용한다. 검출된 차선을 이용하여 각 차선별로 교통량을 측정할 소정의 영역을 획득한다.
제안하는 통행량 추정 방법은 IPM 방법이 적용된 영상에서 차량의 모션을 이용한 방법이다. 본 연구에서는 영상에서 모션을 추정하는 다양한 방법 중 Farneback 방식의 고밀도 광류(dense optical flow)를 사용하였다.
따라서 고밀도 광류의 계산량이 더 많아 시간이 더 소비되지만 더욱 정확하게 모션을 측정할 수 있다는 장점이 있다. 본 절에서는 차량 통행량 추정을 위해 고밀도 광류 중 Farneback 방식을 사용하였다.
본 절에서는 도로의 CCTV에서 촬영된 영상에서 차량의 통행 속도 추정 방법에 대하여 소개한다. 역 투영 사상 방법이 적용된 소정의 영역에서 Lucas-Kanade 방식의 광류를 사용하였다.
앞선 3.2절에서의 방법과는 달리 차량 속도를 추정하기 위해서 저밀도 광류의 Lucas-Kanade 방식을 사용하였다. 저밀도 광류이기 때문에 코너와 같은 두드러진 속성을 가진 특징점에서 모션의 방향과 크기를 측정한다.
2절의 차선 검출 알고리즘을 통해 획득한 각 차선별 교통량 측정 구간에서 차량이 지나가는 동안 발생한 모션들의 크기를 이용한다. 차량의 모션은 Lucas-Kanade 방식을 이용하여 플로우의 형태로 나타나게 되는데, 본 연구에서는 한 차량에 대하여 표현된 플로우들의 평균 크기 값을 이용하였다.
본 논문에서는 도로의 CCTV로부터 촬영된 영상에서의 교통 상황 분석을 위해 차량의 통행량 및 통행 속도를 획득하는 방법을 제안하고 실험을 통하여 그 효과를 검증하였다. 카메라 각도에 따른 시각적 관점에서 오는 왜곡을 제거하기 위해 역 투영 사상 변환(IPM, Inverse Perspective Mapping)을 이용하였고, 차량 통행량 및 통행 속도를 측정할 소정 영역을 획득하기 위해 차선 검출 알고리즘을 이용하였다. 그리고 소정 역역에서의 차량 통행량 및 통행 속도를 획득하기 위해 광류 기반 모션 추정을 이용하였다.
성능/효과
각 지역별로 왼쪽 막대그래프는 ground truth(G), 오른쪽 막대그래프는 experimental result(C), 그리고 꺾은 선 그래프는 정확도를 나타내고 있다. 총 16개의 영상에 대하여 평균 88.94%의 안정적인 정확도의 성능을 보이고 있다.
, 광류(optical flow)에서 Lucas-kanade 방식을 사용한 방법과 제안하는 방법의 실험 결과를 비교하고 있다. 막대그래프에서 가장 왼쪽 막대그래프는 배경제거 방법, 가운데 막대그래프는 광류 방법, 가장 오른쪽 막대그래프는 제안하는 방법을 이용하였을 때의 정확도를 나타내고 있으며, 각각 평균 56.94%, 평균 63.57%, 평균 88.94%의 정확도를 확인할 수 있었다. 배경제거 방법은 조명변화에 약하기 때문에 특히 야간 영상에서 제안하는 방법을 이용하였을 때 더 높은 정확도를 확인하였다.
94%의 정확도를 확인할 수 있었다. 배경제거 방법은 조명변화에 약하기 때문에 특히 야간 영상에서 제안하는 방법을 이용하였을 때 더 높은 정확도를 확인하였다. Gimpo2 지역의 야간영상에서는 배경제거 방법에서 더 높은 정확도를 보이고 있다.
그 이유는 이 영상에서 화물 차량과 같은 큰 크기의 차량이 많아 광류가 다른 차선까지의 영역에서도 발생되었기 때문이다. 따라서 차량 한 대를 블롭화하여 인식하는 배경제거 방법이 이 영상에 대해서는 더 높은 정확도를 보였다. 광류에서 제안하는 방법인 Farneback 방식을 이용하였을 때는 소정 영역에서 발생하는 광류의 비율을 통해 차량의 통행량을 추정한 반면, Lucas-kanade 방식은 특징점에서만 광류가발생하므로 전체 소정영역에 대하여 발생하는 광류의 비율을 알 수 없다.
카메라의 시점이 차량과 가깝고, 설치 환경이 양호하며 주간 영상에 대해서만 정확한 차량 통행량 추정이 가능했던 기존의 연구에서 가장 많이 사용한 배경제거 방법과는 달리, 시점이 조금 먼 철탑에서 찍은 CCTV 영상과 주간 및 야간 영상 모두에 실험하여 높고 안정적인 성능을 얻을 수 있었다. 향후 연구로는 차량이 많아 정체현상이 있는 영상에 대하여 추가적인 연구를 진행하고자 한다.
후속연구
[19]는 역 투영 사상을 이용하여 원근 효과가 제거된 조감도 영상을 생성하는 방법을 제안하였다. 제안하는 조감도 영상을 얻기 위해서는 입력 영상의 각 픽셀들을 조감도 영상이라는 새로운 2차원 평면으로 리샘플링(resampling)하는 작업이 필요하다. 이를 위해 다음과 같은 2개의 유클리디언(Euclidean) 공간을 정의하였다.
카메라의 시점이 차량과 가깝고, 설치 환경이 양호하며 주간 영상에 대해서만 정확한 차량 통행량 추정이 가능했던 기존의 연구에서 가장 많이 사용한 배경제거 방법과는 달리, 시점이 조금 먼 철탑에서 찍은 CCTV 영상과 주간 및 야간 영상 모두에 실험하여 높고 안정적인 성능을 얻을 수 있었다. 향후 연구로는 차량이 많아 정체현상이 있는 영상에 대하여 추가적인 연구를 진행하고자 한다. 차량과 같은 장애물로 인한 차선 검출 알고리즘의 오류율을 낮추고, 정체현상으로 인해 차량의 모션이 매우 작게 나타나는 경우에서의 차량 통행량 추정의 정확도를 높이는 것이다.
질의응답
핵심어
질문
논문에서 추출한 답변
차량 통행량 측정을 위한 차량 검출 방법에는 무엇이 있는가?
차량 통행량 측정을 위한 차량 검출 방법에는 노면에 설치되는 센서를 이용한 방법과 영상 분석을 이용한 방법이 있다. 영상 분석을 이용한 대표적인 방법으로는 차영상(FD, Frame Difference), 배경제거(BS, Background Subtraction),광류(OF, Optical Flow)가 있다[4],[5],[14]-[16].
현재의 교통 상황 측정 관련 기술의 단점은 무엇인가?
이러한 ITS 기술에서 교통 상황을 분석하는 것은 도로와 주행 차량에게 유용한 정보를 제공할 수 있다. 하지만 현재의 교통 상황 측정 관련 기술은 노면에 설치된 센서를 이용하여 구간속도를 측정하는 방법을 사용하고 있어 설치 및 관리 비용이 높으며 차량 자체의 속도가 아닌 구간속도를 제공하는 단점이 있다.
차량의 수를 측정하기 위해 직접 수동으로 지나가는 차량의 수를 세는 방법의 문제점은 무엇인가?
교통량에서도 일정 시간동안 통과하는 차량의 수를 측정하기 위해 직접 수동으로 지나가는 차량의 수를 세는 방법이 있다. 이 방법은 사람에 의한 수작업으로 진행되므로 정확도는 높을 수 있으나 인력과 시간이 많이 투입되어야 하는 문제점이 있다. 따라서 현대에는 도로에 설치된 카메라에서 제공하는 영상들을 지능형 교통 시스템에 광범위하게 이용하고 있다.
참고문헌 (23)
EunJu Lee, Jae-Yeal Nam, ByoungChul Ko, "Speed-limit Sign Recognition Using Convolutional Neural Network Based on Random Forest", The Korean Institute of Broadcast and Media Engineers, pp.938-949, 2015.
Kum, Chang-Hoon, Cho, Dong-Chan, Kim, Whoi-Yul, "Development of Lane Detection System using Surrounding View Image of Vehicle", The Korean Institute of Broadcast and Media Engineers, pp.331-334, 2013.
Hyung-Sub Kang, Dong-Chan Cho and Whoi-Yul Kim, "Passing Vehicle Detection using Local Binary Pattern Histogram", The Korean Institute of Broadcast and Media Engineers, pp.261-264, 2010.
A. Tourani and A. Shahbahrami, "Vehicle Counting Method Based on Digital Image Processing Algorithms," IEEE Transactions on International Conference on Pattern Recognition and Image Analysis, pp. 1-6, 2015.
Y. Xia, X. Shi, G. Song, Q. Geng and Y. Liu, "Towards imporving quality of video-based vehicle counting method for traffic flow estimation," Signal Processing, pp. 672-681, 2016.
X. Qimin, L. Xu, W. Mingming, L. Bin and S. Xianghui, "A Methodology of Vehicle Speed Estimation Based on Optical Flow," IEEE International Conference on Service Operations and Logistics and Informaitcs, pp. 33-37, 2014.
J. Lan, J. Li, G. Hu, B. Ran, L. Wang, "Vehicle speed measurement based on gray constraint optical flow algorithm," International Journal of Light and Eletron Optics, pp. 289-295, 2014.
M.S. Shirazi and B. Morris, "A Typical Video-based Framework for Counting, Behavior and Safety Analysis at Intersections," IEEE Transactions on Intelligent Vehicles Symposium, pp. 1264-1269, 2015.
S.C. Diamantas and P. Dasgupta, "Active Vision Speed Estimation from Optical Flow," Towardss Autonomous Robotic Systems, pp. 173-184, 2014.
X. Yu, X. Gao, "Review of Vehicle State Estimation Problem under Driving Situation," Chinese Journal of Mechanical Engineering, pp. 20-33, 2009.
D.C. Luvizon, B.T. Nassu and R. Minetto, "Vehicle speed estimation by license plate detection and tracking," IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 6563-6567, 2014.
E. Patel and D. Shukla, "Comparison of Optical Flow Algorithms for Speed Determination of Moving Objects," International Journal of Computer Applications, Vol. 63, No. 5, pp. 32-37, 2013.
D. Ding, J.S. Yoo, J.K. Jung and S. Kwon, "An Urban Lane Detection Method Based on Inverse Perspective Mapping," NGCIT, Advanced Science and Technology Letters, vol. 63 pp.53-58, 2014.
S. Aslani and H. Mahdavi-Nasab, "Optical Flow Based Moving Object Detection and Tracking for Traffic Surveillance," International Journal of Electrical, Computer, Energetic, Electronic and Communication Engineering, Vol. 7, No. 9, pp. 1252-1256, 2013.
A. Glowacz, Z. Mikrut and P. Pawlik, "Video Detection Algorithm Using an Optical Flow Calculation Method," Multimedia Communications, Services and Security, Vol. 287, pp. 118-129, 2012.
H.Y. Cheng and S.H. Hsu, "Intelligent Highway Traffic Surveillance With Self-Diagnosis Abilities," IEEE Transactions on Intelligent Transportation Systems, Vol. 12, No. 4, pp. 1462-1472, 2011.
M. Mizushima, Y. Taniquchi, G. hasegawa, H. Nakano and M. Matsuoka, "Counting Pedestrians Passing through a Line in Video Sequences based on Optical Flow Extraction", Recent Advances in Circuits, Systems and Automatic Control, pp. 129-136, 2013.
K. Jo, K. Chu, K. Lee, M. Sunwoo, "Integration of Multiple Vehicle Models with IMM Filter for Vehicle Localization," IEEE Transactions on Intelligent Vehicles Symposium, pp. 746-751, 2010.
M. Bertozzi, A. Broggi and A. Fascioli, "An extension to the Inverse Perspective Mapping to handle non-flat roads," IEEE International Conference on Intelligent Vehicle, pp. 305-310, 1998.
M. Aly, "Real time Detection of Lane Markers in Urban Streets", IEEE Transactions on Intelligent Vehicles Symposium, 2008.
S. Suzuki and K. Abe, "Topological Structural Analysis of Digitized Binary Images by Border Following", Computer Vision, Graphics, and Image Processing, Vol. 30, No. 1, pp. 32-46, 1985.
L. Imsland, T.A. Johansen, T.I. Fossen, et al, "Vehicle velocity estimation using nonliear observer," Automatica, pp. 2091-2103, 2006.
R. Zhao and X. Wang, "Counting Vehicles from Semantic Rigions," IEEE Transactions on Intelligent Transportation Systems, Vol. 14, No. 2, pp. 1016-1022, 2013.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.