지속적으로 우주파편이 증가하고 있는 상황에서 국가 우주자산을 안전하게 보호하고 우주개발국으로서 우주환경 보호에 관심을 가지는 것은 중요하다. 우주파편의 급격한 증가를 막기 위한 효과적인 방법 중 하나는 충돌위험이 큰 우주파편들, 그리고 임무가 종료된 폐기위성을 직접 제거해 나가는 것이다. 본 논문에서는 영상기반 우주파편 추적시스템의 안정적인 인식모델을 위해 인공신경망을 적용한 연구에 대해 다루었다. 한국항공우주연구원에서 개발한 지상기반 우주쓰레기 청소위성 테스트베드인 KARICAT을 활용하여 우주환경이 모사된 영상을 획득하였고, 깊이불연속성에 기인한 영상분할 후 각 객체에 대한 구조 및 색상 기반 특징을 부호화한 벡터를 추출하였다. 특징벡터는 3차원 표면적, 점군의 주성분 벡터, 2차원 형상정보, 색상기반 정보로 구성되어있으며, 이 범주를 기반으로 분리한 특징벡터를 입력으로 하는 인공신경망 모델을 설계하였다. 또한 인공신경망의 성능 향상을 위해 입력되는 특징벡터의 범주에 따라 모델을 분할하여 각 모델 별 학습 후 앙상블기법을 적용하였다. 적용 결과 앙상블 기법에 따른 인식 모델의 성능 향상을 확인하였다.
지속적으로 우주파편이 증가하고 있는 상황에서 국가 우주자산을 안전하게 보호하고 우주개발국으로서 우주환경 보호에 관심을 가지는 것은 중요하다. 우주파편의 급격한 증가를 막기 위한 효과적인 방법 중 하나는 충돌위험이 큰 우주파편들, 그리고 임무가 종료된 폐기위성을 직접 제거해 나가는 것이다. 본 논문에서는 영상기반 우주파편 추적시스템의 안정적인 인식모델을 위해 인공신경망을 적용한 연구에 대해 다루었다. 한국항공우주연구원에서 개발한 지상기반 우주쓰레기 청소위성 테스트베드인 KARICAT을 활용하여 우주환경이 모사된 영상을 획득하였고, 깊이불연속성에 기인한 영상분할 후 각 객체에 대한 구조 및 색상 기반 특징을 부호화한 벡터를 추출하였다. 특징벡터는 3차원 표면적, 점군의 주성분 벡터, 2차원 형상정보, 색상기반 정보로 구성되어있으며, 이 범주를 기반으로 분리한 특징벡터를 입력으로 하는 인공신경망 모델을 설계하였다. 또한 인공신경망의 성능 향상을 위해 입력되는 특징벡터의 범주에 따라 모델을 분할하여 각 모델 별 학습 후 앙상블기법을 적용하였다. 적용 결과 앙상블 기법에 따른 인식 모델의 성능 향상을 확인하였다.
It is essential to protect the national space assets and space environment safely as a space development country from the continuously increasing space debris. And Active Debris Removal(ADR) is the most active way to solve this problem. In this paper, we studied the Artificial Neural Network(ANN) fo...
It is essential to protect the national space assets and space environment safely as a space development country from the continuously increasing space debris. And Active Debris Removal(ADR) is the most active way to solve this problem. In this paper, we studied the Artificial Neural Network(ANN) for a stable recognition model of vision-based space debris tracking system. We obtained the simulated image of the space environment by the KARICAT which is the ground-based space debris clearing satellite testbed developed by the Korea Aerospace Research Institute, and created the vector which encodes structure and color-based features of each object after image segmentation by depth discontinuity. The Feature Vector consists of 3D surface area, principle vector of point cloud, 2D shape and color information. We designed artificial neural network model based on the separated Feature Vector. In order to improve the performance of the artificial neural network, the model is divided according to the categories of the input feature vectors, and the ensemble technique is applied to each model. As a result, we confirmed the performance improvement of recognition model by ensemble technique.
It is essential to protect the national space assets and space environment safely as a space development country from the continuously increasing space debris. And Active Debris Removal(ADR) is the most active way to solve this problem. In this paper, we studied the Artificial Neural Network(ANN) for a stable recognition model of vision-based space debris tracking system. We obtained the simulated image of the space environment by the KARICAT which is the ground-based space debris clearing satellite testbed developed by the Korea Aerospace Research Institute, and created the vector which encodes structure and color-based features of each object after image segmentation by depth discontinuity. The Feature Vector consists of 3D surface area, principle vector of point cloud, 2D shape and color information. We designed artificial neural network model based on the separated Feature Vector. In order to improve the performance of the artificial neural network, the model is divided according to the categories of the input feature vectors, and the ensemble technique is applied to each model. As a result, we confirmed the performance improvement of recognition model by ensemble technique.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
Feature encoding에 따른 학습모델의 분리를 하지 않은 case 1에 비해 높은 성능을 보이지 못해 Model Ensemble기법을 이용하여 학습모델의 개선시키고자 하였다. 앙상블학습 법(ensemble learning method)은 기계학습 (machine learning)에서 다수 학습 알고리즘들을 함께 사용하는 방법으로 따로 사용하는 경우보다 더 좋은 예측이 가능한 방법이다.
KARICAT은 우주쓰레기 청소위성의 랑데부․ 도킹 기술에 필요한 시각기반 자율항법 알고리즘의 개발 및 시험을 목적으로 한다. Target과의 상대운동을 하는 근접 운용상황을 모사하기 위해 위치제어에 액추에이터, 자세제어를 위한 반작용 휠이 포함되며, 현재의 자세정보와 각속도, 각가속도 정보를 위한 AHRS(Attitude and Heading Reference System) 센서를 이용하며, 위치정보를 위해 모션캡쳐 센서를 활용한다.
본 논문에서는 우주파편 능동제거를 수행하기 위한 추적시스템에 적용시킬 인식모델에 대한 연 구를 다루었다. 우주파편을 제거하기 위해서는 근접운용 상황에서 지속적으로 안정적인 인식이 요구되며, 기존의 영상으로는 다양한 환경을 만족하지 못해 어려움이 존재하였다.
본 논문에서는 우주파편 능동제거를 수행하기 위해 영상기반 추적시스템에 적용가능한 안정적인 인식모델에 대한 연구를 수행하였다. 제안된 방법은 기존에 영상기반 우주물체 추적에서 적용하지 않았던 심층신경망을 적용하여 기존보다 안정적인 인석성능을 나타내고자 하였다.
앙상블학습 법(ensemble learning method)은 기계학습 (machine learning)에서 다수 학습 알고리즘들을 함께 사용하는 방법으로 따로 사용하는 경우보다 더 좋은 예측이 가능한 방법이다. 본 연구에서는 feature encoding을 기반으로 각각의 학습 모델을 만들고 이를 결합하는 방법을 수행하였다. 앞선 방법은 단순히 데이터를 분리하여 모델내부에서 합쳤기 때문에 모델 내에서 back-propagation을 수행 시 weight가 전체 결과에 대해서 변경이 이루어지지만, 모델 앙상블을 통해서 학습할 경우, 각 모델의 결과에 따라서만 weight가 조정이 된다.
부호화된 특징 벡터 스트림은 크게 두 가지 정보를 포함하고 있으며, 대상의 고유한 특징을 최대한 추출하기 위한 목적으로 선정하였다. 깊이 영상으로부터 추출한 3차원 및 2차원 구조 정보, 그리고 색상 영상으로부터 추출한 색상 및 밝기 정보이다.
특히, 본 논문에서 연구하는 근접운용상 황에서의 응용은 서비스위성이 대상에 접근하는 과정에서 대상의 영상에 사영된 상의 크기는 급격하게 증가하기 때문에 기존 CNN기반 인식기를 그대로 적용할 수 없다. 이러한 문제를 해결하기 위해 본 논문에서는 거리에 따라 크기가 다른 영상 객체 조각에 대한 부호화된 고정된 크기의 특징 벡터를 입력으로 하는 인공신경망을 설계하였다.
제안 방법
이에 다음과 같이 후보영역을 지정하여 선택적으로 검출을 수행한다. Depth image를 입력으로 하여 sobel연산을 통한 깊이 불연속점을 추출하고, 이를 경계로 영상을 분할하여 Target의 후보영역을 지정한다. 그리고 각 후보영역에 대한 특징정보를 산출한다.
Feature encoding에 따른 학습모델의 성능 실험은 50회 반복하여 학습과 검증을 수행하였으며, 매 반복마다 학습과 검증에 대한 accuracy와 cross-entropy loss결과를 Fig. 6과 같이 나타내었다. Accuracy는 미리 분류된 영상데이터의 label과 신경망 모델의 결과와 비교하여 정확도를 판단하는 성능지표이다.
또한, 우주환경을 모사한 테스트베드에서 위 성의 움직임을 고려하여 우주환경에서 조명 입사각과 카메라 방향각에 따른 영향을 반영한 초소형위성의 영상을 활용하였다. KARICAT 영상 센서로부터 영상내의 목표물체에 대한 특징벡터를 생성하였고, 이를 활용한 학습을 수행하였다. 학습은 feature encoding의 특성을 반영할 수 있도록 학습모델을 구성하였고, 그 결과 90%내외의 정확도를 보여주었다.
플랫폼은 6U급 초소형위성 형태의 시스템 2기로 구성되며, 각각은 청소위성(Chaser)와 우주쓰 레기(Target)의 역할을 수행한다. Target 플랫폼은 병진운동과 Z축 회전운동의 3-자유도의 움직임을 통해 우주쓰레기의 텀블링(Tumbling)을 모사하였고, Chaser는 5-자유도를 이용하여 Target을 추적한다.
Depth image를 입력으로 하여 sobel연산을 통한 깊이 불연속점을 추출하고, 이를 경계로 영상을 분할하여 Target의 후보영역을 지정한다. 그리고 각 후보영역에 대한 특징정보를 산출한다. 산출된 특징정보를 하나의 부호화된 벡터 스 트림으로 변환하였으며, 이를 SVM검출기로 대상 우주파편을 검출하도록 설계하였고, 입력되는 깊이 및 색상 영상 열에서 검출된 Target은 sKCF 기반 알고리즘으로 추적하며, 동시에 매 입력 영상에서 우주파편을 지속적으로 검출하여 추적기의 ROI(Region of Interest)를 갱신하여 추적 성능을 향상시켰다.
세부적으로는 후보 객체 조각의 깊이 영상으로부터 점군을 생성하고, 각 점에 대한 지역적 법 선 벡터를 산출하여 후보 객체의 3차원 표면적을 계산한다. 그리고 점군데이터에 대하여 주성분 분 석기법(Principal Component Analysis, PCA)를 적용하여 세 방향의 주축의 길이를 획득하고, 영상평면 상의 후보 객체 영역의 외접 직사각형과 객체 영역의 내부 화소단위 면적의 비율을 계산한다. 다음으로 후보 객체 조각의 색상 영상으로부터 색상 도수분포(hue histogram)과 평균 색상포화도 (saturation) 및 평균 명도(intensity)를 계산한다.
그리고 점군데이터에 대하여 주성분 분 석기법(Principal Component Analysis, PCA)를 적용하여 세 방향의 주축의 길이를 획득하고, 영상평면 상의 후보 객체 영역의 외접 직사각형과 객체 영역의 내부 화소단위 면적의 비율을 계산한다. 다음으로 후보 객체 조각의 색상 영상으로부터 색상 도수분포(hue histogram)과 평균 색상포화도 (saturation) 및 평균 명도(intensity)를 계산한다. 특
하부는 플랫폼이 지면과 무마찰 상태가 되도록 에어베어링 (flat-air bearing)과 이동을 위한 추력기가 포함되어 있으며, 지면은 강화유리를 이용하여 편평도를 가지는 평판으로 제작되었다. 또한 주위를 검은 천으로 둘러싸고, LED조명을 통해 우주와 유사한 배경으로 구성하였다. GPS신호 모사를 위한 Motion capture system과 플랫폼과의 실시간 데이터 송수신을 위한 지상국 시스템이 포함된다.
제안된 방법은 기존에 영상기반 우주물체 추적에서 적용하지 않았던 심층신경망을 적용하여 기존보다 안정적인 인석성능을 나타내고자 하였다. 또한, 우주환경을 모사한 테스트베드에서 위 성의 움직임을 고려하여 우주환경에서 조명 입사각과 카메라 방향각에 따른 영향을 반영한 초소형위성의 영상을 활용하였다. KARICAT 영상 센서로부터 영상내의 목표물체에 대한 특징벡터를 생성하였고, 이를 활용한 학습을 수행하였다.
손실함수(loss function)은 현재의 모델이 이상적인 모델과 비교하였을 때, 그 차이를 정의하기 위한 함수로 평균 제곱 오차(mean squared error), 평균 절대 오차(mean absolute error), 교차엔트로피(cross-entropy) 등이 있다. 본 논문에서는 확률분포의 무작위성을 설명하는 용 도로 사용되는 엔트로피(entropy)기반으로 2개의 확률분포의 이질성 정도를 나타내는 교차 엔트로피방법을 활용하였다. 두 확률분포가 유사할수록 작은 값을 나타내며, 항상 양의 값을 가지며, 2개의 확률분포 p와 m에 대한 수식은 다음과 같이 표현한다.
그리고 각 후보영역에 대한 특징정보를 산출한다. 산출된 특징정보를 하나의 부호화된 벡터 스 트림으로 변환하였으며, 이를 SVM검출기로 대상 우주파편을 검출하도록 설계하였고, 입력되는 깊이 및 색상 영상 열에서 검출된 Target은 sKCF 기반 알고리즘으로 추적하며, 동시에 매 입력 영상에서 우주파편을 지속적으로 검출하여 추적기의 ROI(Region of Interest)를 갱신하여 추적 성능을 향상시켰다.
설계된 Neural Network의 해석은 Python기반의 Google™에서 제공하는 Tensorflow®를 이용하였고, 추가적으로 Keras®를 이용하였다.
깊이 영상으로부터 추출한 3차원 및 2차원 구조 정보, 그리고 색상 영상으로부터 추출한 색상 및 밝기 정보이다. 세부적으로는 후보 객체 조각의 깊이 영상으로부터 점군을 생성하고, 각 점에 대한 지역적 법 선 벡터를 산출하여 후보 객체의 3차원 표면적을 계산한다. 그리고 점군데이터에 대하여 주성분 분 석기법(Principal Component Analysis, PCA)를 적용하여 세 방향의 주축의 길이를 획득하고, 영상평면 상의 후보 객체 영역의 외접 직사각형과 객체 영역의 내부 화소단위 면적의 비율을 계산한다.
생성된 각각의 모델은 각 case에 맞게 로드하고, 앙상블을 거친다. 앙상블 이후 Fully-Connected layer로 모든 모델을 연결하고, 반복을 통해서 발생할 수 있는 과적합 문제를 방지하기 위해 Dropout layer를 거친 후 최종적인 분류 결과를 출력하도록 설계하였다. 각각의 모델은 Table 5와 같은 파라미터로 구현되었다.
또한 기존의 연구에서는 다소 연산량이 많고, 성능향상에 어려움이 많은 기술들을 적용하였다. 이러한 이유 로 본 논문에서 제시하는 방법은 지상기반 우주 환경 테스트베드를 활용하여 타 분야에서 성능향상이 높은 심층신경망을 적용시켜 인식모델의 성능향상과 안정적 인식에 대한 내용을 다루었다.
하지만 feature encoding을 나누지 않고 단일 데이터 형태로 학습 경우 93%의 정확도를 넘는 등 학습모델이 데이터의 특성을 제대로 반영하지 못하는 결과를 보여주었으며, 이는 back-propagation중에 소수 feature에 대한 반영이 제대로 이루어지지 않아 각 노드의 weight가 적절하지 못하게 업데이트된 것으로 사료된다. 이를 해결하기 위해 feature encoding에 대한 각각의 모델을 생성하고, 각 모델을 합치는 모델 앙상블을 적용하였다. 모델 앙상블의 경우, 전반적으로 단일 모델을 활용한 경우보다 더 높은 정확도 성능을 보여주었으며, 특히, precision과 recall의 측면에서도 색상과 형태 범주로 나눈 경우 가장 좋은 성능을 확인할 수 있었다.
인공신경망을 훈련하기 위한 데이터셋 구축을 위하여 KARICAT에서 Xtion camera를 통해 획득한 깊이 및 색상영상을 깊이 불연속성을 기준으로 영역을 분할하고, 분할된 영역의 3차원 표면적이 Target의 정보와 근사한 영역들을 후보 영상 객체 조각으로 추출하였다. 후보 영상 객체 조각은 대상의 거리에 따라 영상 평면에서 상의 크기가 일정하지 않기 때문에, Fig.
본 논문에서는 우주파편 능동제거를 수행하기 위해 영상기반 추적시스템에 적용가능한 안정적인 인식모델에 대한 연구를 수행하였다. 제안된 방법은 기존에 영상기반 우주물체 추적에서 적용하지 않았던 심층신경망을 적용하여 기존보다 안정적인 인석성능을 나타내고자 하였다. 또한, 우주환경을 모사한 테스트베드에서 위 성의 움직임을 고려하여 우주환경에서 조명 입사각과 카메라 방향각에 따른 영향을 반영한 초소형위성의 영상을 활용하였다.
대상 데이터
실험에 이용된 영상정보는 총 20,035장이며, 이중 학습용 영상은 18,000장, 모델 검증용 영상은 2,035장이며, 분류 클래스 수는 2개 (Positive, Negative)이다. 근접운용상황에서 획득 가능한 영상의 형상과 색상정보를 추출한 부호화된 특징을 이용하였으며, 학습용 데이터에서는 Positive 7,719개, Negative 10,281개이며, 모델 검증용 데이터에서는 각각 364개, 1,671개로 구성되어있다.
모델 앙상블의 학습 및 검증의 반복 회수는 앞선 Feature encoding 학습과 동일한 50회 수행하였으며, 이전 학습모델에서 사용한 동일한 학 습데이터와 검증 데이터를 이용하였다. 매 반복에 대한 각 case별 accuracy와 cross-entropy loss 결과 Fig.
실험에 이용된 영상정보는 총 20,035장이며, 이중 학습용 영상은 18,000장, 모델 검증용 영상은 2,035장이며, 분류 클래스 수는 2개 (Positive, Negative)이다. 근접운용상황에서 획득 가능한 영상의 형상과 색상정보를 추출한 부호화된 특징을 이용하였으며, 학습용 데이터에서는 Positive 7,719개, Negative 10,281개이며, 모델 검증용 데이터에서는 각각 364개, 1,671개로 구성되어있다.
이론/모형
Target과의 상대운동을 하는 근접 운용상황을 모사하기 위해 위치제어에 액추에이터, 자세제어를 위한 반작용 휠이 포함되며, 현재의 자세정보와 각속도, 각가속도 정보를 위한 AHRS(Attitude and Heading Reference System) 센서를 이용하며, 위치정보를 위해 모션캡쳐 센서를 활용한다. Target을 지속적으로 추적하기 위해서 색상 정보와 깊이 정보를 동시에 획득할 수 있는 저전력 센서인 ASUS Xtion Pro를 사용하였다.
성능/효과
이를 해결하기 위해 feature encoding에 대한 각각의 모델을 생성하고, 각 모델을 합치는 모델 앙상블을 적용하였다. 모델 앙상블의 경우, 전반적으로 단일 모델을 활용한 경우보다 더 높은 정확도 성능을 보여주었으며, 특히, precision과 recall의 측면에서도 색상과 형태 범주로 나눈 경우 가장 좋은 성능을 확인할 수 있었다.
소수 특징을 기준으로 분리한 case 3, 4, 7, 8의 경우, 학습모델의 accuracy와 loss는 적절한 값으로 수렴하였으나, 실제 검증 데이터를 통한 결과는 학습 결과에 미치지 못하는 결과를 보여주고 있으며, 50회 반복에서도 수렴하지 못하는 결과를 보여주었다. 반면에, 특징을 분리하지 않은 case 1과 가장 많은 비율을 가지는 Hue 특징으로 분리한 case 6의 경우, 초반에는 검증결과가 학습결과보다 accuracy는 더 높게, cross -entropy loss는 더 낮게 나오는 결과가 보였고, 30회 이후 수렴함으로써 보다 낮은 결과를 보였다. 이는 특징을 분리해서 입력을 받을 경우, 해당 모델들의 과적합 문제가 발생하거나 back-propagation중에 소수 특징에 대한 반영이 적어져 발생한 문제로 사료된다.
학습은 feature encoding의 특성을 반영할 수 있도록 학습모델을 구성하였고, 그 결과 90%내외의 정확도를 보여주었다. 하지만 feature encoding을 나누지 않고 단일 데이터 형태로 학습 경우 93%의 정확도를 넘는 등 학습모델이 데이터의 특성을 제대로 반영하지 못하는 결과를 보여주었으며, 이는 back-propagation중에 소수 feature에 대한 반영이 제대로 이루어지지 않아 각 노드의 weight가 적절하지 못하게 업데이트된 것으로 사료된다. 이를 해결하기 위해 feature encoding에 대한 각각의 모델을 생성하고, 각 모델을 합치는 모델 앙상블을 적용하였다.
하지만 검증 모델에서는 반대로 loss 0.13(case 2&E2) 감소, accuracy 0.0422(case 2&E2) 증가하여, 각각 0.20, 0.92 내외의 결과를 보였고, 앞선 모델에서 50회 반복 동안 수렴하지 못했던 case 3, 4, 7, 8번이 앙상블 모델에서는 수렴하는 결과를 보여주었다.
KARICAT 영상 센서로부터 영상내의 목표물체에 대한 특징벡터를 생성하였고, 이를 활용한 학습을 수행하였다. 학습은 feature encoding의 특성을 반영할 수 있도록 학습모델을 구성하였고, 그 결과 90%내외의 정확도를 보여주었다. 하지만 feature encoding을 나누지 않고 단일 데이터 형태로 학습 경우 93%의 정확도를 넘는 등 학습모델이 데이터의 특성을 제대로 반영하지 못하는 결과를 보여주었으며, 이는 back-propagation중에 소수 feature에 대한 반영이 제대로 이루어지지 않아 각 노드의 weight가 적절하지 못하게 업데이트된 것으로 사료된다.
후속연구
향후에는 합성곱 신경망 등 보다 향상된 기법을 활용하여 그 성능을 향상시키는 것을 목표로 하고 있으며, 또한, 초소형 그래픽장치에 적용하여 실제 KARICAT 영상 알고리즘에 대한 테스트를 수행하고자 한다.
질의응답
핵심어
질문
논문에서 추출한 답변
우주파편의 증가에 따른 위험성을 완화시기키 위해 국내에서는 어떤 것들이 수행되고 있는가?
이는 우주파편과 운용중인 위성과의 충돌을 야기시키며, 충돌로 인한 위성의 기능 상실은 위성운영에 치명적이기 때문에, 국제적으로 우주파편의 증가에 따른 위험성 인식이 재고되는 상황이다. 국내에서도 이러한 상황을 인식하고 국가 위성과 우주파편의 충돌 위험을 분석하고[2], 수명을 다한 위성을 처리하기 위한 폐기기동에 관한 연구 [3]를 수행한 바 있으며, 우주 개발국으로써 이에 우주파편 제거가 우주파편의 증가를 근본적으로 완화 시킬 수 있는 대안으로 제안되었으며[4], 이와 관련하여 능동 또는 수동적인 다양한 제거 방법이 연구개발 중에 있다[5]. 능동 제거를 수행하기 위해서는 우주쓰레기와 근접운용상황에서 상대거리 및 자세 등 제거 대상의 운동에 대한 정보와 대상 우주쓰레기의 식별 및 인식을 위한 구조 및 형상 정보 그리고 색상 정보의 획득이 필수적이다.
KARICAT의 목적은?
KARICAT은 우주쓰레기 청소위성의 랑데부․ 도킹 기술에 필요한 시각기반 자율항법 알고리즘의 개발 및 시험을 목적으로 한다. Target과의 상대운동을 하는 근접 운용상황을 모사하기 위해 위치제어에 액추에이터, 자세제어를 위한 반작용 휠이 포함되며, 현재의 자세정보와 각속도, 각가속도 정보를 위한 AHRS(Attitude and Heading Reference System) 센서를 이용하며, 위치정보를 위해 모션캡쳐 센서를 활용한다.
우주파편의 급격한 증가를 막기위한 효과적인 방법 중 하나는 무엇인가?
지속적으로 우주파편이 증가하고 있는 상황에서 국가 우주자산을 안전하게 보호하고 우주개발국으로서 우주환경 보호에 관심을 가지는 것은 중요하다. 우주파편의 급격한 증가를 막기 위한 효과적인 방법 중 하나는 충돌위험이 큰 우주파편들, 그리고 임무가 종료된 폐기위성을 직접 제거해 나가는 것이다. 본 논문에서는 영상기반 우주파편 추적시스템의 안정적인 인식모델을 위해 인공신경망을 적용한 연구에 대해 다루었다.
참고문헌 (23)
"ESA BR-336 Space Debris: The ESA Approach", ESA Brochures, Apr. 2017.
Seong, J. D., Kim, H. D. Lim, S. M., "An Analysis of three-dimensional collision probability according to approaching objects to the KOMPSAT series", Journal of the Korean Society for Aeronautical and Space Sciences, Vol. 41, No. 2, 2013, pp. 156-168.
Seong, J. D., Kim, H. D. Choi, H. Y., "A Study of the Disposal Maneuver Planning for LEO satellite", Journal of the Korean Society for Aeronautical and Space Sciences, Vol. 44, No. 4, 2016, pp. 352-362.
Kim, H. D., Kim, M. K., "Recent Status on Active Space Debris Removal Technologies", Journal of the Korean Society for Aeronautical and Space Sciences, Vol. 43, No. 9, 2015, pp. 845-857.
Krizhevsky, A., Sutskever, I., and Hinton, G., "Imagenet classification with deep convolutional neural networks", In Advances in Neural Information Processing Systems(NIPS), 25, 2012, pp. 1106-1114
Girshick, R., Donahue, J., Darrell, T., Malik, J., "Rich feature hierarchies for accurate object detection and semantic segmentation", Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition(CVPR), Columbus, OH, 2014, pp. 580-587
Szegedy, C., Toshev, A., and Erhan, D., "Deep neural network for object detection", In Advances in Neural Information Processing Systems(NIPS), 26, 2013, pp. 2553-2561
Zhao, S. P., and Khorasani, K., "A Recurrent Neural Network Based Fault Diagnosis Scheme for a Satellite", Proceedings of the 33rd Annual Conference of the IEEE Industrial Electronics Society(IECON), Taipei, Taiwan, Nov. 5-8, 2007.
Kim, J. H., Lee, D. W., Cho, K. R., Min, C. O., Cho, S. J., "Trajectory Optimization and the Control of a Re-entry Vehicle during TAEM Phase using Artificial Neural Network", Journal of the Korean Society for Aeronautical and Space Sciences, Vol. 37, No. 4, 2009, pp. 350-358.
Chen, X., Xiang, S., Liu, C. L., and Pan, C. H., " Vehicle Detection in Satellite Images by Hybrid Deep Convolutional Neural Networks", IEEE Geoscience and Remote Sensing Letters, Vol. 11, No. 10, Oct, 2014, pp. 1797-1801
Langkvist, M., Kiselev, A., Alirezaie, M. and Loutfi, A., "Classification and Segmentation of Satellite Orthoimagery Using Convolutional Neural Networks", Remote Sensing, Vol. 8, No. 4, 2016, pp. 329-349
Hu, M. G., Wang, J. F. and Ge, Y., "Super-Resolution Reconstruction of Remote Sensing Images Using multifractal Analysis", Sensors, Vol. 9, No. 11, 2009, pp. 8669-8683.
Linares, R. and Furfaro, R., "Space Object Classification Using Deep Convolutional Neural Networks", Proceedings of the 19th International Conference on Information Fusion(FUSION), Jul. 5-8, 2016, pp. 1140-1146
Han, P., Du, J. and Fang, M., "Spatial Object Tracking Using an Enhanced Mean Shift Method Based on Perceptual Spatial-Space Generation Model", Journal of Applied Mathematics, Vol. 2013, 2013.
Rosso, F., Gallo, Allasia, W., Enrico, L., F., Prinetto, P., Rolfo, D., Trotta, P., Favetto, A., Paleari, M. and Ariano, P., "Stereo vision system for capture and removal of space debris", Proceedings of the Design and Architectures for Signal and Image Processing(DASIP), Cagliari, Italy, Oct. 2013, pp. 201-207.
Opromolla, R., Fasano, G., Rufino, G. and Grassi, M., "A Model-Based 3D Template Matching Technique for Pose Acquisition of an Uncooperative Space Object", Sensors, Vol. 15, 2015, pp. 6360-6382
Petit, A., Marchand, E. and Kanani, K., "Tracking complex targets for space rendezvous and debris removal applications", Proceedings of IEEE/RSJ International conference on Intelligent robots and systems, Vilamoura, Portugal, Oct. 2012, pp. 4483-4488
Choi, W. S., Cho, D. H., Song, H. R., Kim, J. H., Ko, S. J., Kim, H. D., "A 5-DOF Ground Testbed for Developing Rendezvous/Docking Algorithm of a Nano-satellite", Journal of the Korean Society for Aeronautical and Space Sciences, Vol. 43, No. 12, 2015, pp. 1124-1131.
Kim, J. H., Choi, W. S., Cho, D. H., Kim, H. D., Lim, S. M., "Visual Information Based Detection and Tracking Algorithm for Capture of Space Debris using Nano-satellite", Proceedings of 29th Workshop on Image Processing and Image Understanding (IPIU 2017), 2017.
Kim, J. H., Lim, S. M., Kim, H. D., "Depth discontinuity based target space debris candidate ROI Extraction from RGB-D image", Proceedings of the 2017 KSAS Spring Conference, 2017, pp. 518-519
Tensorflow, Retrieved Aug. 10, 2017 from https://www.tensorflow.org
Keras, Retrieved Aug. 10, 2017 from https://keras.io/
※ AI-Helper는 부적절한 답변을 할 수 있습니다.