자율주행 시스템의 인지를 위한 딥러닝 기반 동시 분할 및 검출 방법 A Method of Simultaneous Segmentation and Detection based on Deep Learning for Perception of Autonomous Driving System원문보기
자율주행 시스템은 차량 주행 시 인간의 역할을 대치하는 인지-판단-제어의 세 가지 알고리즘으로 구성되어 있다. 각 알고리즘은 서로 밀접하게 연관되어 있으며, 안전하고 신뢰성 있는 자율주행 시스템을 위하여 신속하고 정확한 인지가 필수적이다. 본 논문에서는 빠르고 정확한 자율주행 시스템의 인지를 위하여 딥러닝 기반의 주행 가능 영역 및 차량에 대한 분할과 검출을 동시에 수행하는 방법에 대하여 제안한다. 제안하는 방법은 먼저, 네트워크의 입력을 위해 ...
자율주행 시스템은 차량 주행 시 인간의 역할을 대치하는 인지-판단-제어의 세 가지 알고리즘으로 구성되어 있다. 각 알고리즘은 서로 밀접하게 연관되어 있으며, 안전하고 신뢰성 있는 자율주행 시스템을 위하여 신속하고 정확한 인지가 필수적이다. 본 논문에서는 빠르고 정확한 자율주행 시스템의 인지를 위하여 딥러닝 기반의 주행 가능 영역 및 차량에 대한 분할과 검출을 동시에 수행하는 방법에 대하여 제안한다. 제안하는 방법은 먼저, 네트워크의 입력을 위해 3D라이다로 취득한 포인트 클라우드를 이용하여 거리, 높이, 반사 강도로 구성된 3채널의 탑 뷰 이미지를 생성한다. 또한, 카메라와 LiDAR의 데이터를 융합한 색을 가진 포인트 클라우드를 이용하여 동일한 방법으로 적, 녹, 청의 색상 정보를 포함하는 3채널의 탑 뷰 이미지를 생성한다. 다음으로, 학습을 위하여 합성곱 신경망을 이용한 동시 분할 및 검출 네트워크(SSADNet)를 설계한다. 제안하는 네트워크의 구조는 분할을 위한 가지와 검출을 위한 가지로 구성된 병렬적인 구조로 되어있으며, 직접 설계한 네트워크로 설계한 첫 번째 버전과 추론 속도 및 검출 성능을 향상을 목적으로 Vgg, ResNet, 그리고 InceptionResNet의 사전 학습된 모델을 활용한 두 번째 버전으로 구분된다. 또한, 포인트 클라우드 탑 뷰 이미지와 색을 가진 포인트 클라우드 탑 뷰 이미지를 입력으로 함께 사용하는 융합 입력 네트워크 구조를 설계한다. 학습을 위하여 자율주행 실험에서 많이 사용되는 KITTI 데이터 세트를 사용하였으며, 프론트 뷰로 제공되는 데이터를 탑 뷰 데이터 학습에 적합하도록 시점을 변환하여 사용한다. 실험을 통하여 동시 분할 및 검출 네트워크의 버전별, 백본 네트워크 종류별, 그리고 융합 입력 방법별 성능을 비교 확인하였다. SSADNet v1과 v2의 비교 실험을 통해 v1 대비 v2에서 성능을 유지하면서도 파라미터의 수를 약 81% 줄여 추론 속도를 빠르게 하였고, SSADNet v2의 백본 네트워크 종류별 비교 실험을 통해 53.9 frame/sec의 빠른 추론 속도와 mIoU@0.7이 0.818로 검출 성능을 높이는 사전 학습된 모델을 알 수 있었으며, 입력 데이터의 융합 방법별 비교 실험을 통해 입력을 융합하였을 때 전체 성능이 향상함을 확인하였다. 전체 실험 결과는 자율주행 시스템의 인지를 위하여 빠른 추론 속도로 동시에 주행 가능 영역 및 차량에 대한 분할 및 검출을 수행할 수 있음을 보여준다.
자율주행 시스템은 차량 주행 시 인간의 역할을 대치하는 인지-판단-제어의 세 가지 알고리즘으로 구성되어 있다. 각 알고리즘은 서로 밀접하게 연관되어 있으며, 안전하고 신뢰성 있는 자율주행 시스템을 위하여 신속하고 정확한 인지가 필수적이다. 본 논문에서는 빠르고 정확한 자율주행 시스템의 인지를 위하여 딥러닝 기반의 주행 가능 영역 및 차량에 대한 분할과 검출을 동시에 수행하는 방법에 대하여 제안한다. 제안하는 방법은 먼저, 네트워크의 입력을 위해 3D 라이다로 취득한 포인트 클라우드를 이용하여 거리, 높이, 반사 강도로 구성된 3채널의 탑 뷰 이미지를 생성한다. 또한, 카메라와 LiDAR의 데이터를 융합한 색을 가진 포인트 클라우드를 이용하여 동일한 방법으로 적, 녹, 청의 색상 정보를 포함하는 3채널의 탑 뷰 이미지를 생성한다. 다음으로, 학습을 위하여 합성곱 신경망을 이용한 동시 분할 및 검출 네트워크(SSADNet)를 설계한다. 제안하는 네트워크의 구조는 분할을 위한 가지와 검출을 위한 가지로 구성된 병렬적인 구조로 되어있으며, 직접 설계한 네트워크로 설계한 첫 번째 버전과 추론 속도 및 검출 성능을 향상을 목적으로 Vgg, ResNet, 그리고 InceptionResNet의 사전 학습된 모델을 활용한 두 번째 버전으로 구분된다. 또한, 포인트 클라우드 탑 뷰 이미지와 색을 가진 포인트 클라우드 탑 뷰 이미지를 입력으로 함께 사용하는 융합 입력 네트워크 구조를 설계한다. 학습을 위하여 자율주행 실험에서 많이 사용되는 KITTI 데이터 세트를 사용하였으며, 프론트 뷰로 제공되는 데이터를 탑 뷰 데이터 학습에 적합하도록 시점을 변환하여 사용한다. 실험을 통하여 동시 분할 및 검출 네트워크의 버전별, 백본 네트워크 종류별, 그리고 융합 입력 방법별 성능을 비교 확인하였다. SSADNet v1과 v2의 비교 실험을 통해 v1 대비 v2에서 성능을 유지하면서도 파라미터의 수를 약 81% 줄여 추론 속도를 빠르게 하였고, SSADNet v2의 백본 네트워크 종류별 비교 실험을 통해 53.9 frame/sec의 빠른 추론 속도와 mIoU@0.7이 0.818로 검출 성능을 높이는 사전 학습된 모델을 알 수 있었으며, 입력 데이터의 융합 방법별 비교 실험을 통해 입력을 융합하였을 때 전체 성능이 향상함을 확인하였다. 전체 실험 결과는 자율주행 시스템의 인지를 위하여 빠른 추론 속도로 동시에 주행 가능 영역 및 차량에 대한 분할 및 검출을 수행할 수 있음을 보여준다.
The autonomous driving system consists of three kinds of algorithms, perception-judgment-control, which replaces the human’s role in driving. The algorithms are closely related to each other, and fast and accurate perception is essential for safety and reliability of an autonomous driving system. In...
The autonomous driving system consists of three kinds of algorithms, perception-judgment-control, which replaces the human’s role in driving. The algorithms are closely related to each other, and fast and accurate perception is essential for safety and reliability of an autonomous driving system. In this paper, we propose a new network that simultaneously performs the segmentation and detection based on deep learning. First, the proposed method generates a 3-channel top view image composed of distance, height, and intensity using point cloud acquired by the 3D LiDAR. Camera and LiDAR data is fused to create a colored point cloud, and it is projected onto the bird’s eye view to create top view images. Next, we designed the simultaneous segmentation and detection network(SSADNet) using convolutional neural network for learning. The proposed network has a parallel architecture consisting of branch for segmentation and branch for detection. It is divided into the first version of SSADNet designed as custom network, and the second version using pre-trained models of Vgg, ResNet, and InceptionResNet to improve the inference speed and detection performance. Also, we designed the fusion input network architecture that uses point cloud top view top view image and colored point cloud top view image as inputs. For learning, we used KITTI dataset, which is frequently used in autonomous driving experiments, and viewpoint of data provided as front view is converted to suit the top view data learning. Through experiments, we compared performances of diverse variations of SSADNet by backbone network type, and input fusion method. Experimental results show that the segmentation and detection of drivable area and vehicles can be performed at the same time with high inference speed for the perception of autonomous driving system.
The autonomous driving system consists of three kinds of algorithms, perception-judgment-control, which replaces the human’s role in driving. The algorithms are closely related to each other, and fast and accurate perception is essential for safety and reliability of an autonomous driving system. In this paper, we propose a new network that simultaneously performs the segmentation and detection based on deep learning. First, the proposed method generates a 3-channel top view image composed of distance, height, and intensity using point cloud acquired by the 3D LiDAR. Camera and LiDAR data is fused to create a colored point cloud, and it is projected onto the bird’s eye view to create top view images. Next, we designed the simultaneous segmentation and detection network(SSADNet) using convolutional neural network for learning. The proposed network has a parallel architecture consisting of branch for segmentation and branch for detection. It is divided into the first version of SSADNet designed as custom network, and the second version using pre-trained models of Vgg, ResNet, and InceptionResNet to improve the inference speed and detection performance. Also, we designed the fusion input network architecture that uses point cloud top view top view image and colored point cloud top view image as inputs. For learning, we used KITTI dataset, which is frequently used in autonomous driving experiments, and viewpoint of data provided as front view is converted to suit the top view data learning. Through experiments, we compared performances of diverse variations of SSADNet by backbone network type, and input fusion method. Experimental results show that the segmentation and detection of drivable area and vehicles can be performed at the same time with high inference speed for the perception of autonomous driving system.
주제어
#자율주행(Autonomous Driving) 인지(Perception) 딥러닝(Deep Learning) 분할(Segmentation) 검출(Detection) 라이다(LiDAR) 포인트 클라우드(Point Cloud) 탑 뷰(Top View)
학위논문 정보
저자
이용범
학위수여기관
순천향대학교 대학원
학위구분
국내석사
학과
미래융합기술학과
지도교수
박성근
발행연도
2020
총페이지
56
키워드
자율주행(Autonomous Driving) 인지(Perception) 딥러닝(Deep Learning) 분할(Segmentation) 검출(Detection) 라이다(LiDAR) 포인트 클라우드(Point Cloud) 탑 뷰(Top View)
※ AI-Helper는 부적절한 답변을 할 수 있습니다.