딥러닝 기반 주행환경 인지 및 격자 지도 융합을 통한 충돌 회피 경로 계획에 관한 연구 A Study on Collision Avoidance Path Planning using Deep Learning Based Driving Environment Perception and Grid Map Integration원문보기
자율주행 자동차란 운전자가 직접 차량을 제어하지 않아도 차량에 부착된 센서를 통해 취득한 주행환경 정보를 기반으로 목표지점까지 안전하게 주행 가능한 자동차를 의미한다. 주행환경을 인식할 때 이종 센서를 융합하여 각각의 센서의 장단점을 상호보완하고자 다양한 연구가 진행되었다. 대부분의 연구가 사전에 정의된 센서 모델의 기반으로 융합하기 때문에 센서의 위치 및 구성 등이 바뀌면 동일 알고리즘을 사용하지 못한다. 이러한 요소를 해결하고자 본 논문에서는 딥러닝 기반의 인지 기술 개발과 자유 모델 기반의 센서 융합 기술에 대해 제안한다. 시스템 구성을 위해 단안 카메라와 LiDAR를 활용한다. 단안 카메라의 영상 정보는 FCN(Fully Convolutional Networks)를 통해 주행 가능 영역을 검출하고 YOLO(You Only Look Once)v3를 통해 객체 검출하는 데 사용된다. 또한, 각각의 네트워크 끝부분에 거리 추정을 위한 FC Layer(...
자율주행 자동차란 운전자가 직접 차량을 제어하지 않아도 차량에 부착된 센서를 통해 취득한 주행환경 정보를 기반으로 목표지점까지 안전하게 주행 가능한 자동차를 의미한다. 주행환경을 인식할 때 이종 센서를 융합하여 각각의 센서의 장단점을 상호보완하고자 다양한 연구가 진행되었다. 대부분의 연구가 사전에 정의된 센서 모델의 기반으로 융합하기 때문에 센서의 위치 및 구성 등이 바뀌면 동일 알고리즘을 사용하지 못한다. 이러한 요소를 해결하고자 본 논문에서는 딥러닝 기반의 인지 기술 개발과 자유 모델 기반의 센서 융합 기술에 대해 제안한다. 시스템 구성을 위해 단안 카메라와 LiDAR를 활용한다. 단안 카메라의 영상 정보는 FCN(Fully Convolutional Networks)를 통해 주행 가능 영역을 검출하고 YOLO(You Only Look Once)v3를 통해 객체 검출하는 데 사용된다. 또한, 각각의 네트워크 끝부분에 거리 추정을 위한 FC Layer(Fully Connected Layer)를 추가한다. LiDAR의 포인트 클라우드(point cloud) 정보는 SSADNet(Simultaneous Segmentation And DetectionNetwork)을 통해 주행 가능 영역과 객체를 검출하는 데 사용한다. 센서 융합을 위해 각각의 딥러닝 네트워크 결과를 사전에 정의된 격자 지도 규격에 따라 80*120 크기의 격자로 변환한다. 또한, 각각의 특성에 따라 정적 지도와 동적 지도로 나누고 이진 베이즈 필터(Binary bayes filter), 양선형 보간법(Bilinear Interpolation) 등을 사용하여 업데이트를 진행한다. 다음 단계로 정적 지도와 동적 지도를 합친 점유 격자 지도(Occupancy Grid Map)를 생성한다. 본 논문에서 제안하는 시스템은 KITTI Dataset을 통해 학습 및 성능 평가를 진행한다. 또한, 시스템에서 생성되는 점유 격자 지도(Occupancy Grid Map)에 A* 알고리즘을 사용하여 충돌 회피 경로를 생성해봄으로써 자유 모델 기반의 센서 융합 기술 구현이 가능한지 확인한다.
자율주행 자동차란 운전자가 직접 차량을 제어하지 않아도 차량에 부착된 센서를 통해 취득한 주행환경 정보를 기반으로 목표지점까지 안전하게 주행 가능한 자동차를 의미한다. 주행환경을 인식할 때 이종 센서를 융합하여 각각의 센서의 장단점을 상호보완하고자 다양한 연구가 진행되었다. 대부분의 연구가 사전에 정의된 센서 모델의 기반으로 융합하기 때문에 센서의 위치 및 구성 등이 바뀌면 동일 알고리즘을 사용하지 못한다. 이러한 요소를 해결하고자 본 논문에서는 딥러닝 기반의 인지 기술 개발과 자유 모델 기반의 센서 융합 기술에 대해 제안한다. 시스템 구성을 위해 단안 카메라와 LiDAR를 활용한다. 단안 카메라의 영상 정보는 FCN(Fully Convolutional Networks)를 통해 주행 가능 영역을 검출하고 YOLO(You Only Look Once)v3를 통해 객체 검출하는 데 사용된다. 또한, 각각의 네트워크 끝부분에 거리 추정을 위한 FC Layer(Fully Connected Layer)를 추가한다. LiDAR의 포인트 클라우드(point cloud) 정보는 SSADNet(Simultaneous Segmentation And Detection Network)을 통해 주행 가능 영역과 객체를 검출하는 데 사용한다. 센서 융합을 위해 각각의 딥러닝 네트워크 결과를 사전에 정의된 격자 지도 규격에 따라 80*120 크기의 격자로 변환한다. 또한, 각각의 특성에 따라 정적 지도와 동적 지도로 나누고 이진 베이즈 필터(Binary bayes filter), 양선형 보간법(Bilinear Interpolation) 등을 사용하여 업데이트를 진행한다. 다음 단계로 정적 지도와 동적 지도를 합친 점유 격자 지도(Occupancy Grid Map)를 생성한다. 본 논문에서 제안하는 시스템은 KITTI Dataset을 통해 학습 및 성능 평가를 진행한다. 또한, 시스템에서 생성되는 점유 격자 지도(Occupancy Grid Map)에 A* 알고리즘을 사용하여 충돌 회피 경로를 생성해봄으로써 자유 모델 기반의 센서 융합 기술 구현이 가능한지 확인한다.
An autonomous vehicle means a vehicle that can safely drive to a target location based on driving environment information acquired through sensors attached to the vehicle without a driver controlling the vehicle directly. Various studies have been conducted to complement the advantages and disadvant...
An autonomous vehicle means a vehicle that can safely drive to a target location based on driving environment information acquired through sensors attached to the vehicle without a driver controlling the vehicle directly. Various studies have been conducted to complement the advantages and disadvantages of each sensor by fusing heterogeneous sensors when driving environment is recognized. Since most studies converge on the basis of predefined sensor models, the same algorithm cannot be used when the position and configuration of sensors are changed. In order to solve these factors, this paper proposes the development of deep learning based perception technology and model free based sensor fusion technology. The LiDAR and a monocular cameras were used for the system composition. The image information from the single-sided camera is used to detect of driveable space through FCN(Fully Constructive Networks) and to detect of objects through YOLO(You Only Look Once)v3. In addition, a Fully Connected Layer(FC Layer) is added for distance estimation at the end of each network. LiDAR's point cloud information is used to detect of drivable space and objects through SSADNet(Simultaneous Segmentation And Detection Network). Each deep learning network result is transformed into an 80 * 120 grid according to a predefined grid map specification for sensor fusion. In addition, depending on the characteristics, the map is divided into a static map and a dynamic map, and updates are performed using a Binary Bayes Filter and a Bilinear Interpolation method. The next step is to create an Occupancy Grid Map that combines static map and dynamic map. The system proposed in this paper proceeds learning and performance evaluation through KITTI dataset. In addition, we create a collision avoidance path using the A* algorithm on the occupancy grid map generated by the system to verify whether the model free based sensor fusion technology can be implemented.
An autonomous vehicle means a vehicle that can safely drive to a target location based on driving environment information acquired through sensors attached to the vehicle without a driver controlling the vehicle directly. Various studies have been conducted to complement the advantages and disadvantages of each sensor by fusing heterogeneous sensors when driving environment is recognized. Since most studies converge on the basis of predefined sensor models, the same algorithm cannot be used when the position and configuration of sensors are changed. In order to solve these factors, this paper proposes the development of deep learning based perception technology and model free based sensor fusion technology. The LiDAR and a monocular cameras were used for the system composition. The image information from the single-sided camera is used to detect of driveable space through FCN(Fully Constructive Networks) and to detect of objects through YOLO(You Only Look Once)v3. In addition, a Fully Connected Layer(FC Layer) is added for distance estimation at the end of each network. LiDAR's point cloud information is used to detect of drivable space and objects through SSADNet(Simultaneous Segmentation And Detection Network). Each deep learning network result is transformed into an 80 * 120 grid according to a predefined grid map specification for sensor fusion. In addition, depending on the characteristics, the map is divided into a static map and a dynamic map, and updates are performed using a Binary Bayes Filter and a Bilinear Interpolation method. The next step is to create an Occupancy Grid Map that combines static map and dynamic map. The system proposed in this paper proceeds learning and performance evaluation through KITTI dataset. In addition, we create a collision avoidance path using the A* algorithm on the occupancy grid map generated by the system to verify whether the model free based sensor fusion technology can be implemented.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.