본 논문에서는 딥 러닝 기반의 객체 검출 알고리즘인 YOLO v2를 이용하여 다양한 환경에서 객체 검출 실험을 수행하고 성능을 평가한다. 본 논문에서 진행한 실험은 로봇 검출 실험과 드론 검출 실험이다. 로봇 검출 실험에서는 카메라를 검출하려는 로봇을 향해 이동시키면서 촬영한 영상으로 YOLO v2 모델을 학습하고 단순 배경, 로봇 부분 은폐 영상에 대하여 성능 평가를 수행하였다. 로봇 검출 학습 데이터의 구성은 이동 가능 로봇이 검출 타겟 로봇을 향하여 이동하면서 영상을 획득하였기 때문에 흔들림 영상이 존재한다. 또한 형태가 다른 두 로봇에 대하여 단순한 배경과 복잡한 배경을 포함하고 로봇이 완전히 노출된 경우와 가려진 경우를 포함한다. 검출 타겟 로봇은 4족 로봇과 휴머노이드이며 각 ...
본 논문에서는 딥 러닝 기반의 객체 검출 알고리즘인 YOLO v2를 이용하여 다양한 환경에서 객체 검출 실험을 수행하고 성능을 평가한다. 본 논문에서 진행한 실험은 로봇 검출 실험과 드론 검출 실험이다. 로봇 검출 실험에서는 카메라를 검출하려는 로봇을 향해 이동시키면서 촬영한 영상으로 YOLO v2 모델을 학습하고 단순 배경, 로봇 부분 은폐 영상에 대하여 성능 평가를 수행하였다. 로봇 검출 학습 데이터의 구성은 이동 가능 로봇이 검출 타겟 로봇을 향하여 이동하면서 영상을 획득하였기 때문에 흔들림 영상이 존재한다. 또한 형태가 다른 두 로봇에 대하여 단순한 배경과 복잡한 배경을 포함하고 로봇이 완전히 노출된 경우와 가려진 경우를 포함한다. 검출 타겟 로봇은 4족 로봇과 휴머노이드이며 각 클래스의 학습 데이터의 양은 600장이다. 로봇 검출 실험에서는 단순 배경의 영상에 대하여 HOG-SVM과 YOLO v2의 검출 성능을 비교했으며, YOLO v2의 검출 성능이 더 우수함을 보였다. 드론 검출 실험은 단일 객체, 다중 객체, 복잡한 배경, 그리고 소형 객체에 대한 검출 실험이다. 드론이 촬영된 영상을 가공하여 획득한 데이터로 YOLO v2 모델을 학습하고 검출 성능 평가를 수행하였다. 학습 데이터는 비행중인 드론을 촬영한 영상들을 프레임 단위로 분리하여 획득한 이미지다. 배경의 조명 변화가 심하고 드론의 크기가 매우 작다. 검출하려는 드론 모델은 Phantom4Pro와 Inspire2 이며 학습 데이터의 양은 각각 3200장이다. 드론 검출 학습 모델은 3가지이며, 학습률 파라미터와 사전 학습된 모델 적용 여부에 차이를 두고 있다. 학습률 파라미터는 초기 학습률과 감소율에 따라 두 가지로 구분하였다. 사전 학습된 모델은 분류기 학습을 통해 생성된 특징 추출 모델이다. 세 가지 모델 모두 단일 드론의 검출 실험에서는 90%이상의 재현율 성능을 보였으며 난이도가 높은 환경에서는 70% 미만의 재현율을 보였다.
본 논문에서는 딥 러닝 기반의 객체 검출 알고리즘인 YOLO v2를 이용하여 다양한 환경에서 객체 검출 실험을 수행하고 성능을 평가한다. 본 논문에서 진행한 실험은 로봇 검출 실험과 드론 검출 실험이다. 로봇 검출 실험에서는 카메라를 검출하려는 로봇을 향해 이동시키면서 촬영한 영상으로 YOLO v2 모델을 학습하고 단순 배경, 로봇 부분 은폐 영상에 대하여 성능 평가를 수행하였다. 로봇 검출 학습 데이터의 구성은 이동 가능 로봇이 검출 타겟 로봇을 향하여 이동하면서 영상을 획득하였기 때문에 흔들림 영상이 존재한다. 또한 형태가 다른 두 로봇에 대하여 단순한 배경과 복잡한 배경을 포함하고 로봇이 완전히 노출된 경우와 가려진 경우를 포함한다. 검출 타겟 로봇은 4족 로봇과 휴머노이드이며 각 클래스의 학습 데이터의 양은 600장이다. 로봇 검출 실험에서는 단순 배경의 영상에 대하여 HOG-SVM과 YOLO v2의 검출 성능을 비교했으며, YOLO v2의 검출 성능이 더 우수함을 보였다. 드론 검출 실험은 단일 객체, 다중 객체, 복잡한 배경, 그리고 소형 객체에 대한 검출 실험이다. 드론이 촬영된 영상을 가공하여 획득한 데이터로 YOLO v2 모델을 학습하고 검출 성능 평가를 수행하였다. 학습 데이터는 비행중인 드론을 촬영한 영상들을 프레임 단위로 분리하여 획득한 이미지다. 배경의 조명 변화가 심하고 드론의 크기가 매우 작다. 검출하려는 드론 모델은 Phantom4Pro와 Inspire2 이며 학습 데이터의 양은 각각 3200장이다. 드론 검출 학습 모델은 3가지이며, 학습률 파라미터와 사전 학습된 모델 적용 여부에 차이를 두고 있다. 학습률 파라미터는 초기 학습률과 감소율에 따라 두 가지로 구분하였다. 사전 학습된 모델은 분류기 학습을 통해 생성된 특징 추출 모델이다. 세 가지 모델 모두 단일 드론의 검출 실험에서는 90%이상의 재현율 성능을 보였으며 난이도가 높은 환경에서는 70% 미만의 재현율을 보였다.
In this thesis, we use YOLO v2, an object detection algorithm based on deep learning, to perform object detection experiments and evaluate performance in various environments. The experiments conducted in this thesis are robotic detection experiments and drone detection experiments. In the robot...
In this thesis, we use YOLO v2, an object detection algorithm based on deep learning, to perform object detection experiments and evaluate performance in various environments. The experiments conducted in this thesis are robotic detection experiments and drone detection experiments. In the robot detection experiment, the YOLO v2 model was learned by moving the camera toward the robot to be detected, and performance evaluation was performed on the simple background and the robot concealed image. The configuration of the robot detection learning data is that the camera is mounted on the movable robot, and the movable robot acquires the image while moving toward the detection target robot, so that the motion image exists partially. Since the shaking image moves the image itself in an arbitrary direction, all features other than the outline parallel to the moving direction can disappear, so that the difficulty of feature extraction can be very difficult. It also includes a simple background with ideal detection and a complex background that is not ideal, including cases where the robot is fully exposed and partially obstructed. The detection target robot is a quadruple robot and a humanoid, and the amount of learning data in each class is 600 pieces. In the robot detection experiment, we compared the detection performance of the HOG-SVM algorithm and the YOLO v2 algorithm for the simple background image and showed that the detection performance of the YOLO v2 algorithm is better. Respectively. Drones detection experiments are detection experiments for single objects, multiple objects, complex backgrounds, and small objects. The drone learned the YOLO v2 model with the data obtained by processing the captured image and performed the performance evaluation. The learning data is an image obtained by separating the images of the drones in a flighted fixed camera in the outdoors, which is a non-ideal environment, in frame units. There is an image that contains a background that has a lot of illumination changes in the background, a very small size of the drone, and similar characteristics to the drone. In addition, both objects to be detected have similar characteristics to each other with a drones. The drones to be detected are Phantom4Pro and Inspire2, and the amount of learning data is 3200 each. In the drone detection experiment evaluation, the recall performance was 90% or more when the object existed as a single object, and the recall was less than 70% in the environment in other cases.
In this thesis, we use YOLO v2, an object detection algorithm based on deep learning, to perform object detection experiments and evaluate performance in various environments. The experiments conducted in this thesis are robotic detection experiments and drone detection experiments. In the robot detection experiment, the YOLO v2 model was learned by moving the camera toward the robot to be detected, and performance evaluation was performed on the simple background and the robot concealed image. The configuration of the robot detection learning data is that the camera is mounted on the movable robot, and the movable robot acquires the image while moving toward the detection target robot, so that the motion image exists partially. Since the shaking image moves the image itself in an arbitrary direction, all features other than the outline parallel to the moving direction can disappear, so that the difficulty of feature extraction can be very difficult. It also includes a simple background with ideal detection and a complex background that is not ideal, including cases where the robot is fully exposed and partially obstructed. The detection target robot is a quadruple robot and a humanoid, and the amount of learning data in each class is 600 pieces. In the robot detection experiment, we compared the detection performance of the HOG-SVM algorithm and the YOLO v2 algorithm for the simple background image and showed that the detection performance of the YOLO v2 algorithm is better. Respectively. Drones detection experiments are detection experiments for single objects, multiple objects, complex backgrounds, and small objects. The drone learned the YOLO v2 model with the data obtained by processing the captured image and performed the performance evaluation. The learning data is an image obtained by separating the images of the drones in a flighted fixed camera in the outdoors, which is a non-ideal environment, in frame units. There is an image that contains a background that has a lot of illumination changes in the background, a very small size of the drone, and similar characteristics to the drone. In addition, both objects to be detected have similar characteristics to each other with a drones. The drones to be detected are Phantom4Pro and Inspire2, and the amount of learning data is 3200 each. In the drone detection experiment evaluation, the recall performance was 90% or more when the object existed as a single object, and the recall was less than 70% in the environment in other cases.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.