차량의 정확한 위치 추정을 위하여 GPS (global positioning system)와 영상 센서, 관성 센서 등을 결합한 복합 측위에 대한 연구가 활발히 진행되고 있다. 본 논문에서는 복합 측위에 있어 중요한 요소 중 하나인 각 센서 간의 시각동기화 기법을 제안한다. 제안된 기법은 GPS 시각 정보를 기준으로 시각동기화 된 영상 센서, 관성 센서와 OBD (on-board diagnostics) 측정치를 획득하는 기법이다. GPS로부터 시각 정보와 위치 정보를 획득하며, 관성 센서로부터 차량의 자세에 관련된 측정치와 OBD를 활용하여 차량의 속력을 획득한다. 영상 센서로부터 획득한 영상에 GPS 시각 정보와 위치 정보, 관성 센서와 OBD의 측정치를 색상으로 변환하여 영상 픽셀에 삽입하는 기법을 제안한다. 또한, 영상에 삽입된 시각동기화 된 센서 측정치들은 변환 과정을 통하여 추출할 수 있다. 각 센서들의 결합을 위하여 임베디드 리눅스 보드를 활용하였으며, 제안된 기법의 성능 평가를 위하여 실제 차량 주행을 통한 실험을 수행하였다.
차량의 정확한 위치 추정을 위하여 GPS (global positioning system)와 영상 센서, 관성 센서 등을 결합한 복합 측위에 대한 연구가 활발히 진행되고 있다. 본 논문에서는 복합 측위에 있어 중요한 요소 중 하나인 각 센서 간의 시각동기화 기법을 제안한다. 제안된 기법은 GPS 시각 정보를 기준으로 시각동기화 된 영상 센서, 관성 센서와 OBD (on-board diagnostics) 측정치를 획득하는 기법이다. GPS로부터 시각 정보와 위치 정보를 획득하며, 관성 센서로부터 차량의 자세에 관련된 측정치와 OBD를 활용하여 차량의 속력을 획득한다. 영상 센서로부터 획득한 영상에 GPS 시각 정보와 위치 정보, 관성 센서와 OBD의 측정치를 색상으로 변환하여 영상 픽셀에 삽입하는 기법을 제안한다. 또한, 영상에 삽입된 시각동기화 된 센서 측정치들은 변환 과정을 통하여 추출할 수 있다. 각 센서들의 결합을 위하여 임베디드 리눅스 보드를 활용하였으며, 제안된 기법의 성능 평가를 위하여 실제 차량 주행을 통한 실험을 수행하였다.
Recently, hybrid positioning system combining GPS, vision sensor, and inertial sensor has drawn many attentions to estimate accurate vehicle positions. Since accurate multi-sensor fusion requires efficient time synchronization, this paper proposes an efficient method to obtain time synchronized meas...
Recently, hybrid positioning system combining GPS, vision sensor, and inertial sensor has drawn many attentions to estimate accurate vehicle positions. Since accurate multi-sensor fusion requires efficient time synchronization, this paper proposes an efficient method to obtain time synchronized measurements of vision sensor, inertial sensor, and OBD device based on GPS time information. In the proposed method, the time and position information is obtained by the GPS receiver, the attitude information is obtained by the inertial sensor, and the speed information is obtained by the OBD device. The obtained time, position, speed, and attitude information is converted to the color information. The color information is inserted to several corner pixels of the corresponding image frame. An experiment was performed with real measurements to evaluate the feasibility of the proposed method.
Recently, hybrid positioning system combining GPS, vision sensor, and inertial sensor has drawn many attentions to estimate accurate vehicle positions. Since accurate multi-sensor fusion requires efficient time synchronization, this paper proposes an efficient method to obtain time synchronized measurements of vision sensor, inertial sensor, and OBD device based on GPS time information. In the proposed method, the time and position information is obtained by the GPS receiver, the attitude information is obtained by the inertial sensor, and the speed information is obtained by the OBD device. The obtained time, position, speed, and attitude information is converted to the color information. The color information is inserted to several corner pixels of the corresponding image frame. An experiment was performed with real measurements to evaluate the feasibility of the proposed method.
본 논문에서는 GPS와 영상 센서, MEMS-IMU, OBD 데이터의 시각동기화를 위한 기법을 제안한다. GPS를 활용하여 시각 정보와 차량의 위치 정보를 획득하며, MEMS-IMU를 활용하여 사용자의 자세 정보, OBD를 활용하여 차량의 속력을 획득하고, 영상 센서로부터 획득된 이미지의 픽셀에 각 센서 값을 색상 정보로 변환 및 삽입하는 기법이다.
제안 방법
본 논문에서는 GPS와 영상 센서, MEMS-IMU, OBD 데이터의 시각동기화를 위한 기법을 제안한다. GPS를 활용하여 시각 정보와 차량의 위치 정보를 획득하며, MEMS-IMU를 활용하여 사용자의 자세 정보, OBD를 활용하여 차량의 속력을 획득하고, 영상 센서로부터 획득된 이미지의 픽셀에 각 센서 값을 색상 정보로 변환 및 삽입하는 기법이다. 또한, 획득한 이미지로 부터 간단한 변환 과정을 통하여 색상 정보로 기입된 시각동기화 된 센서 데이터를 추출할 수 있다.
본 논문에서는 GPS 시각 정보를 기준으로 시각동기화 된 영상 센서, 관성 센서와 OBD 측정치를 획득하는 기법을 제안하였다. 시각 정보와 위치 정보는 GPS 수신기로부터 획득할 수있으며, OBD를 활용하여 차량의 속력을 획득할 수 있다. MEMS-IMU를 활용하여 차량의 자세에 대한 측정치를 획득할 수 있다.
제안된 기법의 성능 평가를 수행하기 위하여 한국항공대에서 출발하여 제2자유로를 주행하고, 다시 한국항공대학교로 돌아오는 차량 실험을 수행하였다. 실험 결과를 통하여 임베디드 리눅스 보드를 기반으로 각 센서들을 통합하고 시각동기화를 수행하며, 영상으로 저장할 수 있음을 확인할 수 있었다.
대상 데이터
그림 7은 한국항공대에서 제2자유로를 주행하여 한국항공대로 돌아오는 실험 궤적을 나타낸다. 도시된 실험 궤적은 제안된 기법을 활용하여 GPS 수신기로부터 획득한 차량의 위치를 활용하였다.
표 6은 영상에 삽입되는 데이터와 각 데이터들의 길이를 나타낸다. 영상에 삽입되는 데이터는 총 117의 길이를 가지며, 468(=117x4)개의 픽셀을 활용한다. 표 7은 실험을 통하여 획득한 영상으로부터 추출한 시각동기화된 센서 데이터를 나타낸다.
성능/효과
실험 결과를 통하여 임베디드 리눅스 보드를 기반으로 각 센서들을 통합하고 시각동기화를 수행하며, 영상으로 저장할 수 있음을 확인할 수 있었다. 또한 획득한 주행 영상으로부터 시각동기화 된 센서 데이터를 추출할 수 있음을 확인하였다. 향후 본 논문에서 제안된 시각 동기화 기법은 지능형 자동차 및 무인 자동차 분야에서 효과적으로 활용될 수 있으리라 기대된다.
제안된 기법의 성능 평가를 수행하기 위하여 한국항공대에서 출발하여 제2자유로를 주행하고, 다시 한국항공대학교로 돌아오는 차량 실험을 수행하였다. 실험 결과를 통하여 임베디드 리눅스 보드를 기반으로 각 센서들을 통합하고 시각동기화를 수행하며, 영상으로 저장할 수 있음을 확인할 수 있었다. 또한 획득한 주행 영상으로부터 시각동기화 된 센서 데이터를 추출할 수 있음을 확인하였다.
후속연구
또한 획득한 주행 영상으로부터 시각동기화 된 센서 데이터를 추출할 수 있음을 확인하였다. 향후 본 논문에서 제안된 시각 동기화 기법은 지능형 자동차 및 무인 자동차 분야에서 효과적으로 활용될 수 있으리라 기대된다.
질의응답
핵심어
질문
논문에서 추출한 답변
시각동기화를 위한 기법은 어떻게 구분될 수 있는가?
시각동기화를 위한 기법으로는 하드웨어적인 기법과 소프 트웨어적인 기법이 있다. 하드웨어적인 기법은 PPS (pulse per second) 신호를 활용한 동기화 기법으로 PPS 신호를 수신할 수있는 별도의 장비가 필요하다는 단점이 있다[6].
OBD란 무엇인가?
OBD (on-board diagnostics)는 차량의 고장 검진을 위하여 활용되며, 차량의 속력을 주변 환경의 영향을 받지 않고 취득할수 있는 장치이다[7], [8]. 다중 경로 오차와 같은 주변 환경의 영향을 받아 GPS로 추정되는 속도 오차가 저하되는 단점을 OBD를 활용하여 보완할 수 있다.
GPS와 영상 센서, MEMS-IMU, OBD 데이터의 시각동기화를 위한 기법이란 무엇인가?
본 논문에서는 GPS와 영상 센서, MEMS-IMU, OBD 데이터의 시각동기화를 위한 기법을 제안한다. GPS를 활용하여 시각 정보와 차량의 위치 정보를 획득하며, MEMS-IMU를 활용하여 사용자의 자세 정보, OBD를 활용하여 차량의 속력을 획득하고, 영상 센서로부터 획득된 이미지의 픽셀에 각 센서 값을 색상 정보로 변환 및 삽입하는 기법이다. 또한, 획득한 이미지로 부터 간단한 변환 과정을 통하여 색상 정보로 기입된 시각동기화 된 센서 데이터를 추출할 수 있다.
참고문헌 (10)
A. Soloviev, and D. Venable, "Integration of GPS and vision measurements for navigation in GPS challenged environments," in Proceeding of the Position Location and Navigation Symposium (PLANS) 2010 IEEE/ION, California: CA, pp. 826-833, 2010.
J. H. Lim, K. H. Choi, J. Cho, and H. K. Lee, "Integration of GPS and monocular vision for land vehicle navigation in urban area," International Journal of Automotive Technology, Vol. 18, No. 2, pp. 345-356, Apr. 2017.
C. Shen, Z. Bai, H. Cao, K. Xu, C. Wang, H. Zhang, and J. Liu, "Optical flow sensor/INS/magnetometer integrated navigation system for MAV in GPS-denied environment," Journal of Sensors, Vol. 2016, pp. 1-10, Jan. 2016.
H. K. Lee, J. G. Lee, and G. I. Jee, "Calibration of Measurement Delay in GPS/SDINS Hybrid Navigation," AIAA Journal of Guidance, Control, and Dynamics, Vol. 25, No. 2, pp.240-247, 2002.
B. Li, C. Rizos, H. K. Lee, and H. K. Lee, "A GPS-slaved time synchronization system for hybrid navigation," GPS Solutions, vol. 10, no. 3, pp. 207-217, July. 2006.
L. Gasparini, O. Zadedyurina, G. Fontana, D. Macii, A. Boni, and Y. Ofek, "A digital circuit for jitter reduction of GPS-disciplined 1-pps synchronization signals," in Proceeding of the 2007 IEEE International Workshop, Sardagna: Italy, pp. 84-88, 2007.
J. Lin, S. C. Chen, Y. T. Shih, and S. H. Chen, "A study on remote on-line diagnostic system for vehicles by integrating the technology of OBD, GPS, and 3G," World Academy of Science, Engineering and Technology, Vol. 56, pp. 435-441, 2009.
J. H. Lim, Estimation for Displacement of Vehicle based on GPS and Monocular Vision sensor, Master dissertation, Korea Aerospace University, Korea, 2013.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.