모바일 센서 네트워크(Mobile Sensor Network)의 노드(Node)인 모바일 센서 차량(Mobile Sensor Vehicles)들은 특정 지역에 관해 획득한 정보를 서로 교환하고 통합하는 과정을 거쳐 자신의 위치를 파악하게 되는데 이를 지역화(localization)라 한다. 이때 모바일 센서 차량은 탑재된 각종 센서를 이용하여 자신의 위치 정보를 파악한다. 본 연구에서는 데드-레코닝(Dead-Reckoning), 컴퓨터 비전 기법, 그리고 RSSI(Received Signal Strength Identification)를 사용한 모바일 센서 차량(MSV)의 지역화 정밀도를 향상시키는 방안을 제시하고, 각각의 방식들이 가진 장점을 융합하여 보다 정밀한 지역화를 할 수 있는지 살펴본다.
모바일 센서 네트워크(Mobile Sensor Network)의 노드(Node)인 모바일 센서 차량(Mobile Sensor Vehicles)들은 특정 지역에 관해 획득한 정보를 서로 교환하고 통합하는 과정을 거쳐 자신의 위치를 파악하게 되는데 이를 지역화(localization)라 한다. 이때 모바일 센서 차량은 탑재된 각종 센서를 이용하여 자신의 위치 정보를 파악한다. 본 연구에서는 데드-레코닝(Dead-Reckoning), 컴퓨터 비전 기법, 그리고 RSSI(Received Signal Strength Identification)를 사용한 모바일 센서 차량(MSV)의 지역화 정밀도를 향상시키는 방안을 제시하고, 각각의 방식들이 가진 장점을 융합하여 보다 정밀한 지역화를 할 수 있는지 살펴본다.
Mobile Sensor Vehicles, nodes of Mobile Sensor Network, are navigating for a specific, maybe unknown, region. For the precise usage of MSN, MSV has to be able to do localization by integrating information through communication by each other. In addition, MSV should be localized with various sensors ...
Mobile Sensor Vehicles, nodes of Mobile Sensor Network, are navigating for a specific, maybe unknown, region. For the precise usage of MSN, MSV has to be able to do localization by integrating information through communication by each other. In addition, MSV should be localized with various sensors equipped. In this research, we propose a set of techniques that improve accuracy using human mimic by combining and exploiting the existing techniques such as Dead-Reckoning, Computer Vision and Received Signal Strength Identification.
Mobile Sensor Vehicles, nodes of Mobile Sensor Network, are navigating for a specific, maybe unknown, region. For the precise usage of MSN, MSV has to be able to do localization by integrating information through communication by each other. In addition, MSV should be localized with various sensors equipped. In this research, we propose a set of techniques that improve accuracy using human mimic by combining and exploiting the existing techniques such as Dead-Reckoning, Computer Vision and Received Signal Strength Identification.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
또한 실험을 위해 모바일센서 네트워크(MSN)의 노드로써 모바일 센서 차량(MSV)을 구현하였다. 간단한 하드웨어(H/W)와 소프트웨어(S/W)의 구조 및 기능에 대한 소개하였다. 여러 지역화(Localization) 방법에 대한 실험을 통해 정확성을 측정하였다.
그러나 모바일 센서 차량(MSV)간의 거리가 멀어지게 되면 적외선 발광 다이오드 발광강도가 약해져서 거리측정이 불가능한 거리상의 제약이 심하였다. 따라서 본 연구에서는 지역화의 거리를 증가시키기 위한 목적으로 다양한 특성의 적외선 발광 다이오드를 이용하여 실험을 통해 최적의 적외선 발광 다이오드의 특성을 확인하고자 하였다.
본 논문을 통해 컴퓨터 비전센서를 이용하여 오차를 보정할 수 있다는 방법을 제시하고, 적외선 발광 다이오드(IR-LED)와 카메라 특성을 조화시킴으로써 근거리에서뿐 아니라 중거리까지 컴퓨터 비전센서를 이용하여 오차를 보정하는 방법의 가능성을 제시하였다. 또한 임의의 모바일 센서 차량(MSV)에서 상대방 모바일 센서 차량(MSV)의 거리를 측정하고 장애물 및 상대 차량과의 거리 정보를 공유함으로써 협업이 가능하며, 하나의 모바일 센서 노드(MSN)가 지역화에 실패하더라도 동료 모바일 센서 노드(MSN)간의 거리를 측정함으로서 지역화를 달성할 수 있다는 것을 보였다.
제안 방법
실험차량은 (그림 11)과 같이 실험차량의 크기인 30cm 간격으로 적외선 발광 다이오드(IR-LED)를 부착하고 적외선 투과 필터를 씌운 카메라를 이용하여 인식하도록 하는 방식을 사용한다. 각 적외선 발광 다이오드 간의 간격이 30cm로 고정, 카메라로부터 상대 실험차량까지의 거리를 P3P Problem Method를 활용하여 계산할 수 있으며, (그림 12)와 같은 P3P Method를 응용한 실시간으로 거리를 측정하는 위치추적 프로그램을 개발하여 실험차량 MCU에 탑재 하였다.실험을 통하여 컴퓨터 비전을 이용한 거리측정 범위는 카메라의 화각 및 LED 패턴 간격간의 상관관계를 파악하였다.
이때 모바일 센서 차량(MSV)간 거리가 멀어지면 충돌의 위험이나 정밀한 협업이 필요하지 않으므로 수신 전계 강도(RSSI) 기법으로 대략적인 위치 정보만을 파악하고, 모바일 센서 차량(MSV)간 거리가 가시거리내로 가까워지면 컴퓨터 비전 지역화 기법으로 오차를 보정한다. 각 지역화 기법 결과 데이터를 이용하여 격자 지도(Grid map) 형태로 지역 지도(Local map)를 구성하며, 각 지역 지도를 종합하여 위상 지도(Topological map) 기반의 광역 지도(Global map)을 작성하게 된다.
따라서 비전기반 지역화를 위하여 적외선 발광 다이오드와 카메라의 특성을 극대화 시키는 방법을 모색하였고, 비전기반지역화의 범위를 확대시키기 위하여 하드웨어(H/W)적인 해결 방법을 시도 하였다.
실험을 통하여 컴퓨터 비전을 이용한 거리측정 범위는 카메라의 화각 및 LED 패턴 간격간의 상관관계를 파악하였다. 또한 근거리 컴퓨터 비전기반 지역화는 장애물과 상대 차량의 위치를 10cm 단위로 파악하며 지역화와 센서집단의 형태유지를 수행하였다 [11]. (그림 13)에서 LED 패턴간격(d)과 측정가능 최소거리(h)와의 상관관계는 (식2)와 같이 쉽게 계산할 수 있다.
컴퓨터 비전에 기반한 근거리 지역화(Localization) 기법에서는 저가의 센서만을 이용하여 10cm의 정밀도로 지역화를 달성하였다. 또한 적외선 발광 다이오드(IRLED)의 특성을 변화시켜 지역화에 가장 유리한 조건을 찾아 지역화 가능 범위를 510cm까지 증가 시켰고, 더 나아가 적외선 발광 다이오드(IR-LED)의 하드웨어(H/W)적 특성을 극대화 시키는 기법을 적용하였다. 차후에는 고해상도 카메라의 줌-인(Zoom-in) 기능을 위치추적에 활용할 계획이며, 카메라의 S/W 줌-인 기능을 이용하면 각 적외선 발광 다이오드간의 간격을 4배이상 증가시킬 수가 있기 때문에 줌-인(Zoom-in) 비율별로 다이오든 간의 간격을 보정해주면 좀 더 정밀한 컴퓨터 비전 기반의 지역화를 달성할 수 있을 것으로 기대한다.
모바일 센서 네트워크(MSN)의 지역화(Localization)의 방법에 대해, 추측 항법(Dead-Reckoning), 수신 전계 강도(RSSI) 기법, 컴퓨터 비전(Computer Vision) 기법, 3가지 범주의 방법을 통합 시도하였다. 또한 실험을 위해 모바일센서 네트워크(MSN)의 노드로써 모바일 센서 차량(MSV)을 구현하였다.
본 논문에서 제안하는 지역화(Localization) 방법은 (그림 2)와 같이 세 가지의 서로 다른 방식을 거리별로 통합한 지역화를 제안한다. (그림 2)에서와 같이 기본적으로 주행기반 지역화 기법을 사용하여 MSV의 자기 위치를 파악한다.
본 논문에서는 가장 먼 거리까지 위치 추적(Tracking)이 가능한 IR-LED C(MODEL NO.SI5313-H)를 이용하기로 결정하였고, 총 12회의 측정 실험을 걸쳐서 축적정보를 측정하고, 평균치를 산출하여 실제 차량의 MCU에 저장하였다. 앞서 개발한 위치추적 프로그램을 이용하여 실험차량과의 거리 측정결과 70cm거리부터 520cm 거리까지 적외선 발광 다이오드 들의 좌표가 추적되는 것을 확인하였다.
본 논문에서는 격자 지도(Grid map) 방식은 (그림 4)과 같이 개별 모바일 센서 차량(MSV)의 단독 지역 지도 표현 방법으로 사용하였고 이러한 개별 격자지도(Grid map)을 모아서 (그림 5)과 같이 하나의 통합된 위상 지도(Topological map)로 표현하였다.
각 적외선 발광 다이오드 간의 간격이 30cm로 고정, 카메라로부터 상대 실험차량까지의 거리를 P3P Problem Method를 활용하여 계산할 수 있으며, (그림 12)와 같은 P3P Method를 응용한 실시간으로 거리를 측정하는 위치추적 프로그램을 개발하여 실험차량 MCU에 탑재 하였다.실험을 통하여 컴퓨터 비전을 이용한 거리측정 범위는 카메라의 화각 및 LED 패턴 간격간의 상관관계를 파악하였다. 또한 근거리 컴퓨터 비전기반 지역화는 장애물과 상대 차량의 위치를 10cm 단위로 파악하며 지역화와 센서집단의 형태유지를 수행하였다 [11].
실험차량은 (그림 11)과 같이 실험차량의 크기인 30cm 간격으로 적외선 발광 다이오드(IR-LED)를 부착하고 적외선 투과 필터를 씌운 카메라를 이용하여 인식하도록 하는 방식을 사용한다. 각 적외선 발광 다이오드 간의 간격이 30cm로 고정, 카메라로부터 상대 실험차량까지의 거리를 P3P Problem Method를 활용하여 계산할 수 있으며, (그림 12)와 같은 P3P Method를 응용한 실시간으로 거리를 측정하는 위치추적 프로그램을 개발하여 실험차량 MCU에 탑재 하였다.
간단한 하드웨어(H/W)와 소프트웨어(S/W)의 구조 및 기능에 대한 소개하였다. 여러 지역화(Localization) 방법에 대한 실험을 통해 정확성을 측정하였다. 컴퓨터 비전에 기반한 근거리 지역화(Localization) 기법에서는 저가의 센서만을 이용하여 10cm의 정밀도로 지역화를 달성하였다.
허용전압 및 허용전류 이내라도 극한의 전류(Red-Zone)에 가까운 전압 및 전류가 계속해서 공급하게 되면, 다이오드가 쉽게 손상되기 때문이다. 이 문제를 해결하기 위하여 On-Off 제어회로를 추가하였다. On-Off 제어회로는 매우 빠르게 전류를 공급했다 중단했다를 반복하는 역할을 하게 되고, 적외선 발광다이오드는 사실상 매우 빠른 속도로 점멸하게 되는데 실험 결과 카메라는 깜빡임을 인식할 수 없었다.
컴퓨터 비전에 기반한 근거리 정밀 지역화를 위하여 기본적으로 쓰이는 방식은 주어진 화면에서의 요소들 간의 관계를 구한다. 이를 위하여 지표가 되는 것들을 골라 그들 사이의 상관관계를 파악하여 위치를 계산한다. 본 연구에서는 RANSAC (Random Sample Consensus) Method[8]와 PnP Problem Method [9, 10] 두 가지 기법을 적용하였다.
하지만 여러 가지 오차에 의해 차량이 주행 중에 조금 틀어지면 장거리 이동 후에 큰 오차를 발생시키게 되는 문제가 있다. 이에 미시간 대학에서 제시한 발전된 추측 항법(Dead-Reckoning)인 UMBmark를 이용하여 차량 주행 오차를 최소화 하였다 [3, 4].
적외선 발광 다이오드(IR-LED)를 위치 추적(Tracking)하는 과정에서 적외선 발광 다이오드(IR-LED)의 발광각에 따른 특성을 조사하기 위하여 과 같이 발광각(Half Angle)이 ±5°∼±30° 인 적외선 발광 다이오드(IR-LED)를 표본으로 사용하였다.
차량은 몸체는 알루미늄 재질의 합판을 사용하여 내구성을 높이며, 무게를 가볍게 하였고, 바퀴는 각각 3개의 바퀴와 L형 고무벨트, 기어를 사용한 (그림 6)과 같이 캐터필러 방식을 채택하여 지형의 영향을 덜 받으며 미끄러짐을 통한 이동거리 오차를 최소로 줄였다. 하드웨어를 제어하기 위한 MCU로 MS12DP256를 사용하였고, Codewarrior 컴파일러로 프로그램 되었다 [5].
컴퓨터 비젼에 의한 지역화를 위하여 모바일 센서 차량의 본체에 일정한 거리로 적외선 발광 다이오드(Infrared LED)를 부착하고 적외선 투과 필터를 씌운 카메라를 이용하여 인식하는 방식을 사용하였다.
대상 데이터
모바일 센서 네트워크(MSN)의 지역화(Localization)의 방법에 대해, 추측 항법(Dead-Reckoning), 수신 전계 강도(RSSI) 기법, 컴퓨터 비전(Computer Vision) 기법, 3가지 범주의 방법을 통합 시도하였다. 또한 실험을 위해 모바일센서 네트워크(MSN)의 노드로써 모바일 센서 차량(MSV)을 구현하였다. 간단한 하드웨어(H/W)와 소프트웨어(S/W)의 구조 및 기능에 대한 소개하였다.
이론/모형
이를 위하여 지표가 되는 것들을 골라 그들 사이의 상관관계를 파악하여 위치를 계산한다. 본 연구에서는 RANSAC (Random Sample Consensus) Method[8]와 PnP Problem Method [9, 10] 두 가지 기법을 적용하였다. 최소자승법(Least Square Method)의 경우에는 큰 에러값(Gross Error)을 갖는 지표가 있을 경우 잘못 계산할 가능성이 높아지므로 RANSAC Method를 적용하였으며, 컴퓨터 비전에서는 3D공간을 카메라를 통한 2D영상으로 받아들일 경우 원근감이 사라지는 문제가 발생하는데 이는 Perspective-3-Point Problem Method 응용하여 해결하였다.
본 연구에서는 주행기반의 지역화는 기본적으로 추측항법(Dead-Reckoning)을 사용하였다 [1, 2]. 추측 항법(Dead-Reckoning)이란 양 바퀴의 이동거리를 계산하여 첫 위치로부터 상대적인 좌표를 추측해 내는 방법이다.
본 연구에서는 RANSAC (Random Sample Consensus) Method[8]와 PnP Problem Method [9, 10] 두 가지 기법을 적용하였다. 최소자승법(Least Square Method)의 경우에는 큰 에러값(Gross Error)을 갖는 지표가 있을 경우 잘못 계산할 가능성이 높아지므로 RANSAC Method를 적용하였으며, 컴퓨터 비전에서는 3D공간을 카메라를 통한 2D영상으로 받아들일 경우 원근감이 사라지는 문제가 발생하는데 이는 Perspective-3-Point Problem Method 응용하여 해결하였다.
성능/효과
그러나 실험결과 적외선 발광 다이오드(IR-LED)의 발광각(Half Angle)은 적외선 필터 카메라로 측정되는 거리에 큰 영향을 미치지 않는 것으로 밝혀졌다. 오히려 적외선 발광 다이오드(IR-LED)의 특성에 따라서 위치 추적(Tracking)이 안정적으로 되는 적외선 발광 다이오드가 있었고, 그에 반해 깜빡임이 심한 적외선 발광 다이오드가 있었다 <표 4>.
오히려 적외선 발광 다이오드(IR-LED)의 특성에 따라서 위치 추적(Tracking)이 안정적으로 되는 적외선 발광 다이오드가 있었고, 그에 반해 깜빡임이 심한 적외선 발광 다이오드가 있었다 <표 4>. 따라서 발광각도가 큰 적외선 발광 다이오드(IR-LED)를 장착한 모바일 센서 차량(MSV)이 위치추적(Tracking) 될 수 있는 범위가 크기 때문에 적외선 발광 다이오드(IR-LED)의 발광각(Half Angle)은 클수록 위치 추적(Tracking)에 유리하다는 점을 알았다.
본 논문을 통해 컴퓨터 비전센서를 이용하여 오차를 보정할 수 있다는 방법을 제시하고, 적외선 발광 다이오드(IR-LED)와 카메라 특성을 조화시킴으로써 근거리에서뿐 아니라 중거리까지 컴퓨터 비전센서를 이용하여 오차를 보정하는 방법의 가능성을 제시하였다. 또한 임의의 모바일 센서 차량(MSV)에서 상대방 모바일 센서 차량(MSV)의 거리를 측정하고 장애물 및 상대 차량과의 거리 정보를 공유함으로써 협업이 가능하며, 하나의 모바일 센서 노드(MSN)가 지역화에 실패하더라도 동료 모바일 센서 노드(MSN)간의 거리를 측정함으로서 지역화를 달성할 수 있다는 것을 보였다.
비전 기반 지역화 기법은 매우 정밀하게 지역화를 달성할 수 있다는 장점이 있으나, 그에 반해 가장 큰 단점은 지역화 거리가 가시거리 내로 짧다는 점이다. 본 연구에서 사용한 적외선 발광 다이오드는 다이오드 특성상 카메라와 다이오드 사이의 거리가 늘어남에 따라 측정되는 발광 강도가 점점 약해져서 520cm이상의 거리에서는 위치추적이 불가능해진다는 점이 가장 큰 단점이었다. 이를 해결하고자 여러가지 실험을 하였으나, 서로 다른 특성의 적외선 발광 다이오드도 거리 변화에 큰 차이 없이 동일하게 500cm이상이 되면 위치추적이 어려웠다.
08의 비율임을 알 수 있다. 실험을 통하여 컴퓨터 비전을 이용한 거리 측정 범위는 카메라의 화각과 LED 패턴 간격에 상관관계가 있음을 확인하였다[11]. 그러나 모바일 센서 차량(MSV)간의 거리가 멀어지게 되면 적외선 발광 다이오드 발광강도가 약해져서 거리측정이 불가능한 거리상의 제약이 심하였다.
SI5313-H)를 이용하기로 결정하였고, 총 12회의 측정 실험을 걸쳐서 축적정보를 측정하고, 평균치를 산출하여 실제 차량의 MCU에 저장하였다. 앞서 개발한 위치추적 프로그램을 이용하여 실험차량과의 거리 측정결과 70cm거리부터 520cm 거리까지 적외선 발광 다이오드 들의 좌표가 추적되는 것을 확인하였다.
현재 스테이션의 좌표를 기준 좌표(0,0) 이라고 하면 이 스테이션에서 차량의 수신 전계 강도(RSSI) 값을 측정할 수 있다. 이 측정된 값을 바탕으로 모바일 센서 차량(MSV)은 스테이션으로 R1의 위치 어딘가에 모바일 센서 차량(MSV)이 있음을 알 수 있다.
후속연구
이러한 환경에서는 개개 센서의 지역화(Localization)와 센서 배치 형태에 관한 기법이 필수적으로 요구된다. 모바일 센서 네트워크(MSN)의 활용도가 확보되면 군사, 물류, 가정 자동화, 지능형 교통 시스템(Intelligent Transport Systems: ITS), 의료, 공정자동화, 지능형 모바일 센서 차량, 지능형 차량 등 수많은 분야에 직간접적으로 이용할 수 있을 것이다. 모바일 센서 네트워크(MSN)는 경제적, 산업적으로 높은 부가가치를 지니게 된다.
또한 적외선 발광 다이오드(IRLED)의 특성을 변화시켜 지역화에 가장 유리한 조건을 찾아 지역화 가능 범위를 510cm까지 증가 시켰고, 더 나아가 적외선 발광 다이오드(IR-LED)의 하드웨어(H/W)적 특성을 극대화 시키는 기법을 적용하였다. 차후에는 고해상도 카메라의 줌-인(Zoom-in) 기능을 위치추적에 활용할 계획이며, 카메라의 S/W 줌-인 기능을 이용하면 각 적외선 발광 다이오드간의 간격을 4배이상 증가시킬 수가 있기 때문에 줌-인(Zoom-in) 비율별로 다이오든 간의 간격을 보정해주면 좀 더 정밀한 컴퓨터 비전 기반의 지역화를 달성할 수 있을 것으로 기대한다.
질의응답
핵심어
질문
논문에서 추출한 답변
본 논문에서 비전기반 지역화를 위하여 적외선 발광 다이오드와 카메라의 특성을 극대화 시키는 방법을 모색하였고, 비전기반지역화의 범위를 확대 시키기 위하여 하드웨어(H/W)적인 해결 방법을 시도 한 이유는 무엇인가?
비전 기반 지역화 기법은 매우 정밀하게 지역화를 달성할 수 있다는 장점이 있으나, 그에 반해 가장 큰 단점은 지역화 거리가 가시거리 내로 짧다는 점이다. 본 연구에서 사용한 적외선 발광 다이오드는 다이오드 특성상 카메라와 다이오드 사이의 거리가 늘어남에 따라 측정되는 발광 강도가 점점 약해져서 520cm이상의 거리에서는 위치추적이 불가능해진다는 점이 가장 큰 단점이었다. 이를 해결하고자 여러가지 실험을 하였으나, 서로 다른 특성의 적외선 발광 다이오드도 거리 변화에 큰 차이 없이 동일하게 500cm이상이 되면 위치추적이 어려웠다. 고해상도 카메라를 이용하여 추적거리증가를 시도했으나, 적외선 발광 다이오드가 추적이 되지 않는 문제이기 때문에 카메라의 해상도와는 큰 연관성이 없다.
주행 기반 지역화는 주로 어디에 사용되는가?
주행 기반 지역화는 주로 항공기나 선박에서 사용된다. 보통 관성 항법 장치(Inertial Nautical System)라고 하는 방식으로 항공기 또는 선박의 주행 궤적을 자이로스코프를 기반으로 기록하여 현재 위치를 나타내고자 하는 방식이다.
지역화는 어떻게 준거점을 확보하는가?
본 연구의 목표를 달성하기 위해서는 (그림 1)과 같이 주변 상황에 대한 인식(Cognition) 및 자율 주행이 기반이 되어야 한다. 지역화(Localization)는 동료 모바일 센서 차량(Mobile Sensor Vehicle : MSV)을 인식함으로써 지역화의 기본이 되는 준거점을 확보하게 되며, 최악의 경우에는 지역화가 실패하더라도 동료 모바일 센서 차량의 위치를 기준으로 재계산이 가능해질 뿐만 아니라 기본적 수준에서 센서집단의 형태유지가 가능해진다.
참고문헌 (14)
J. Borenstein and L. Feng, “A Method for Measuring, Comparing, and Correcting Dead-Reckoning Errors in MobileRobots,” December, 1994.
J. Borenstein, L. Feng, Professors D. K. Wehe, Y. Koren, Grad Students,Z. Fan, B. Holt, B. Costanza, “UMBmark - A Method for Measuring, Comparing, and Correcting Dead-reckoning Errors in Mobile Robots,” 1995.
Sina-park, “odometry Error Correction with a gyro sensor for the mobile robot localization,” December, 2005.
Jae Young Park, Ha Yoon Song, “Multilevel Localization for Mobile Sensor Network Platforms,” First International Symposium on Multimedia-Real Time Software(RTS'08), October, 2008.
Jae Young Park, Ha Yoon Song, “모바일 센서 차량의 하드웨어 설계”, KISS Korea Computer Congress, 2007.
J.-S. Gutmann, W. Burgard, D. Fox, K. Konolige, “An Experimental Comparion of Localization Method,” IROS, 1998.
J.-S. Gutmann, C. Schlege, AMOS, “Comparison of Scan Matching approaches for self-Localization in indoor Environments,” EUROBOT, 1996.
M. A. Fischler, R. C. Bolles. “Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography,” Comm. of the ACM, Vol.24, pp.381-395, 1981.
Xiao Shan Gao and XiaoRoing Hou and Jianliang Tang and HangFei Cheng, “Complete Solution Classification for the Perspective Three Point Problem,” IEEE TRANSACTIONS ONPATTERN ANALYSIS AND MACHINE INTELLIGENCE, Vol.25, August, 2003.
Haralick, R.M and Lee, D and Ottenburg, K and Nolle, M, “Analysis and Solutions of The Three Point Perspective Pose Estimation Problem,” IEEE Computer Vision and Pattern Recognition Computer Society Conference on, 592-598, June, 1991.
Kwan Sik Cho, Ha Yoon Song, Jun Park, “Accurate Localization in Short Distance based on Computer Vision for Mobile Sensors,” IMCSIT, 2008.
B. Kuipers and Y.-T.Byun, “A robot exploration and mapping strategy based on a semantic hierarchy of spatial representations,” Journal of Robotics and Autonomous Systems, 1991.
S. Thrun, “Learning Maps for Indoor Mobile Robot Navigation,” Artificial Intelligence, 1999.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.