본 연구에서는 드론의 자율주행을 하기위해 여러 가지 방법 중 자기위치인식을 할 수 있게하는 DWM1000모듈을 사용한 Way Point 기법과 단일카메라의 이미지만으로 자율주행이 가능한 CNN구조의 인공지능 기법을 제시하였다. 두 방법 모두 드론의 Flight Controller는 오픈소스로 구성되어있는 Pixhawk를 사용하였다. 드론의 자율주행을 하기위해서는 조종기로 사람이 조종하듯 MCU가 Pixhawk에게 정해져있는 ...
본 연구에서는 드론의 자율주행을 하기위해 여러 가지 방법 중 자기위치인식을 할 수 있게하는 DWM1000모듈을 사용한 Way Point 기법과 단일카메라의 이미지만으로 자율주행이 가능한 CNN구조의 인공지능 기법을 제시하였다. 두 방법 모두 드론의 Flight Controller는 오픈소스로 구성되어있는 Pixhawk를 사용하였다. 드론의 자율주행을 하기위해서는 조종기로 사람이 조종하듯 MCU가 Pixhawk에게 정해져있는 알고리즘에 따라 PWM값을 던져주면 된다. 그러기위해서는 통상적으로 사용되는 조종기의 제어신호를 분석할 필요가 있었다. 드론의 자율주행을 크게 두가지로 분류하였고 그 중 첫 번째는 드론의 자기위치를 스스로 파악하게하여 목표지점까지 정해져있는 알고리즘에 따라 이동하는 것이다. 이를 위해서는 드론이 자신의 위치와 목표지점의 좌표를 알아야하는데 DWM1000의 모듈을 사용하여 UWB통신으로 자신의 위치와 목표지점의 좌표를 파악하였다. 즉, 드론에 DWM1000을 부착하여 태그로 아이디를 부여하고 정해져있는 위치마다 DWM1000으로 구성되어있는 앵커들을 부착하여 삼변측량 알고리즘을 사용해 실시간 드론의 위치 및 목표 위치를 파악하였다. 이 방법의 오차는 최대 50cm 이내로 측정되었다. 두 번째 방법은 CNN구조의 인공지능 기법이다. 이 방법은 앵커 및 태그와 같은 모듈은 필요하지 않고 오직 단일 카메라로 얻은 이미지만으로 드론이 스스로 판단하여 자율주행함을 뜻한다. 이를 위해선 사람이 먼저 드론을 조종하여 Input data가 되는 이미지를 획득하고 그 시간마다 조종기의 PWM을 label로 datasets을 구성하였다. 이 datasets을 CNN구조의 regression방법으로 접근하여 훈련시켜 weights, bias를 획득하였다. Weights, bias값은 실제로 드론이 자율주행할 때 값이 적용되어 자율주행을 할 수 있게된다. 이러한 알고리즘을 실현하기 위해 카메라의 이미지를 받을 수 있으며 실시간으로 CNN구조를 돌릴 수 있는 NVIDA의 Jetson TX2 임베디드를 사용하였고 Jetson TX2의 OS는 Linux이기 때문에 Pixhawk에 실시간으로 보낼 PWM을 생성하는 Arduino Mega를 MCU로 채택하였다.
본 연구에서는 드론의 자율주행을 하기위해 여러 가지 방법 중 자기위치인식을 할 수 있게하는 DWM1000모듈을 사용한 Way Point 기법과 단일카메라의 이미지만으로 자율주행이 가능한 CNN구조의 인공지능 기법을 제시하였다. 두 방법 모두 드론의 Flight Controller는 오픈소스로 구성되어있는 Pixhawk를 사용하였다. 드론의 자율주행을 하기위해서는 조종기로 사람이 조종하듯 MCU가 Pixhawk에게 정해져있는 알고리즘에 따라 PWM값을 던져주면 된다. 그러기위해서는 통상적으로 사용되는 조종기의 제어신호를 분석할 필요가 있었다. 드론의 자율주행을 크게 두가지로 분류하였고 그 중 첫 번째는 드론의 자기위치를 스스로 파악하게하여 목표지점까지 정해져있는 알고리즘에 따라 이동하는 것이다. 이를 위해서는 드론이 자신의 위치와 목표지점의 좌표를 알아야하는데 DWM1000의 모듈을 사용하여 UWB통신으로 자신의 위치와 목표지점의 좌표를 파악하였다. 즉, 드론에 DWM1000을 부착하여 태그로 아이디를 부여하고 정해져있는 위치마다 DWM1000으로 구성되어있는 앵커들을 부착하여 삼변측량 알고리즘을 사용해 실시간 드론의 위치 및 목표 위치를 파악하였다. 이 방법의 오차는 최대 50cm 이내로 측정되었다. 두 번째 방법은 CNN구조의 인공지능 기법이다. 이 방법은 앵커 및 태그와 같은 모듈은 필요하지 않고 오직 단일 카메라로 얻은 이미지만으로 드론이 스스로 판단하여 자율주행함을 뜻한다. 이를 위해선 사람이 먼저 드론을 조종하여 Input data가 되는 이미지를 획득하고 그 시간마다 조종기의 PWM을 label로 datasets을 구성하였다. 이 datasets을 CNN구조의 regression방법으로 접근하여 훈련시켜 weights, bias를 획득하였다. Weights, bias값은 실제로 드론이 자율주행할 때 값이 적용되어 자율주행을 할 수 있게된다. 이러한 알고리즘을 실현하기 위해 카메라의 이미지를 받을 수 있으며 실시간으로 CNN구조를 돌릴 수 있는 NVIDA의 Jetson TX2 임베디드를 사용하였고 Jetson TX2의 OS는 Linux이기 때문에 Pixhawk에 실시간으로 보낼 PWM을 생성하는 Arduino Mega를 MCU로 채택하였다.
In this study, a waypoint method using DWM1000 and autonomous driving method using artificial intelligence of CNN structure are presented for an autonomous driving of drone. Both methods use Pixhawk, which is an open source Flight Controller. To do the autonomous driving of the drone, just as a man ...
In this study, a waypoint method using DWM1000 and autonomous driving method using artificial intelligence of CNN structure are presented for an autonomous driving of drone. Both methods use Pixhawk, which is an open source Flight Controller. To do the autonomous driving of the drone, just as a man manipulates the controller, the microcontoller unit (MCU) sends the PWM value to Pixhawk according to the algorithm. In order to do so, it was necessary to analyze the control signal of the commercial controller. The autonomous driving of a drone is classified into two types. The first one is to let the drone's own position to be identified and move according to the algorithm which is set up to the target point. In order to do this, the drone must know its own position and the coordinates of the target point. Using the module of the DWM1000, UWB communication was used to determine the coordinates of the position and the target point. The DWM1000 is attached to the drone and communicates with anchors installed at predetermined locations. This data was used to determine the position of the drone using the trilateration algorithm. The error of this method was proved within a maximum of 50cm. The second method is an artificial intelligence technique based on the CNN structure. This method does not require modules such as anchors and tag, but the drone can judge itself by only the image obtained with a single camera and can autonomously fly. To do this, a person first controls the drone to obtain images to acquire input data, and then uses the PWM value of rool motion as the label , creating datasets. This dataset was trained by regression method of CNN structure to obtain weights and bias. To realize this algorithm, NVIDA's Jetson TX2 Embedded was used which can receive images from the camera and run the CNN structure in real time. Since the Jetson TX2's OS is Linux, we adopted the Arduino Mega as microcontroller unit, which generates PWM to send to Pixhawk in real time
In this study, a waypoint method using DWM1000 and autonomous driving method using artificial intelligence of CNN structure are presented for an autonomous driving of drone. Both methods use Pixhawk, which is an open source Flight Controller. To do the autonomous driving of the drone, just as a man manipulates the controller, the microcontoller unit (MCU) sends the PWM value to Pixhawk according to the algorithm. In order to do so, it was necessary to analyze the control signal of the commercial controller. The autonomous driving of a drone is classified into two types. The first one is to let the drone's own position to be identified and move according to the algorithm which is set up to the target point. In order to do this, the drone must know its own position and the coordinates of the target point. Using the module of the DWM1000, UWB communication was used to determine the coordinates of the position and the target point. The DWM1000 is attached to the drone and communicates with anchors installed at predetermined locations. This data was used to determine the position of the drone using the trilateration algorithm. The error of this method was proved within a maximum of 50cm. The second method is an artificial intelligence technique based on the CNN structure. This method does not require modules such as anchors and tag, but the drone can judge itself by only the image obtained with a single camera and can autonomously fly. To do this, a person first controls the drone to obtain images to acquire input data, and then uses the PWM value of rool motion as the label , creating datasets. This dataset was trained by regression method of CNN structure to obtain weights and bias. To realize this algorithm, NVIDA's Jetson TX2 Embedded was used which can receive images from the camera and run the CNN structure in real time. Since the Jetson TX2's OS is Linux, we adopted the Arduino Mega as microcontroller unit, which generates PWM to send to Pixhawk in real time
※ AI-Helper는 부적절한 답변을 할 수 있습니다.