자율주행 차량은 변화하는 도로환경에 스스로 대응 가능하여야 하여, 인간 운전자 수준의 도로환경 인지성능을 확보하여야 한다. 자율주행 차량의 센서 중 영상센서는 주행방향 결정 및 차로이탈 방지 등 조향제어 수행을 위하여 차선인식 기능을 수행한다. 현재 제시된 영상센서의 차선인식 성능기준은 ADAS(Advanced Driver Assistance System)과 관련된 '운전자 보조' 관점의 성능기준으로서, 자율주행 차량의 '주체적 인지'를 위한 성능조건과 상이할 것으로 판단된다. 본 연구에서는 자율주행 시 차선인식이 비정상적으로 지속되어, 직선구간에서 곡선구간으로 진입하는 차량이 조향실패에 따라 차로를 이탈하는 상황을 가정하였다. 차량 이동궤적을 기반하여 차로이탈 상황을 모형화하고, 차로이탈 허용 수준에 따른 자율주행 차량 영상센서 성능수준을 제시하였다. 분석 결과 승용차 조건에서 차선인식 기능이 1초 이상 연속적인 오작동을 일으킨다면 차로이탈에 의한 위험한 상황에 놓일 수 있으며, 자율주행 차량을 위하여 현재 ADAS 영상센서 성능평가 방법에서의 차로이탈조건보다 심각한 차로이탈상황을 고려한 영상센서 성능평가 방안이 필요할 것으로 판단된다.
자율주행 차량은 변화하는 도로환경에 스스로 대응 가능하여야 하여, 인간 운전자 수준의 도로환경 인지성능을 확보하여야 한다. 자율주행 차량의 센서 중 영상센서는 주행방향 결정 및 차로이탈 방지 등 조향제어 수행을 위하여 차선인식 기능을 수행한다. 현재 제시된 영상센서의 차선인식 성능기준은 ADAS(Advanced Driver Assistance System)과 관련된 '운전자 보조' 관점의 성능기준으로서, 자율주행 차량의 '주체적 인지'를 위한 성능조건과 상이할 것으로 판단된다. 본 연구에서는 자율주행 시 차선인식이 비정상적으로 지속되어, 직선구간에서 곡선구간으로 진입하는 차량이 조향실패에 따라 차로를 이탈하는 상황을 가정하였다. 차량 이동궤적을 기반하여 차로이탈 상황을 모형화하고, 차로이탈 허용 수준에 따른 자율주행 차량 영상센서 성능수준을 제시하였다. 분석 결과 승용차 조건에서 차선인식 기능이 1초 이상 연속적인 오작동을 일으킨다면 차로이탈에 의한 위험한 상황에 놓일 수 있으며, 자율주행 차량을 위하여 현재 ADAS 영상센서 성능평가 방법에서의 차로이탈조건보다 심각한 차로이탈상황을 고려한 영상센서 성능평가 방안이 필요할 것으로 판단된다.
As an autonomous driving vehicle (AV) need to cope with external road conditions by itself, its perception performance for road environment should be better than that of a human driver. A vision sensor, one of AV sensors, performs lane detection function to percept road environment for performing sa...
As an autonomous driving vehicle (AV) need to cope with external road conditions by itself, its perception performance for road environment should be better than that of a human driver. A vision sensor, one of AV sensors, performs lane detection function to percept road environment for performing safe vehicle steering, which relates to define vehicle heading and lane departure prevention. Performance standards for a vision sensor in an ADAS(Advanced Driver Assistance System) focus on the function of 'driver assistance', not on the perception of 'independent situation'. So the performance requirements for a vision sensor in AV may different from those in an ADAS. In assuming that an AV keep previous steering due to lane detection failure, this study calculated lane departure distances between the AV location following curved road alignment and the other one driving to the straight in a curved section. We analysed lane departure distance and time with respect to the allowance of lane detection malfunction of an AV vision sensor. With the results, we found that an AV would encounter a critical lane departure situation if a vision sensor loses lane detection over 1 second. Therefore, it is concluded that the performance standards for an AV should contain more severe lane departure situations than those of an ADAS.
As an autonomous driving vehicle (AV) need to cope with external road conditions by itself, its perception performance for road environment should be better than that of a human driver. A vision sensor, one of AV sensors, performs lane detection function to percept road environment for performing safe vehicle steering, which relates to define vehicle heading and lane departure prevention. Performance standards for a vision sensor in an ADAS(Advanced Driver Assistance System) focus on the function of 'driver assistance', not on the perception of 'independent situation'. So the performance requirements for a vision sensor in AV may different from those in an ADAS. In assuming that an AV keep previous steering due to lane detection failure, this study calculated lane departure distances between the AV location following curved road alignment and the other one driving to the straight in a curved section. We analysed lane departure distance and time with respect to the allowance of lane detection malfunction of an AV vision sensor. With the results, we found that an AV would encounter a critical lane departure situation if a vision sensor loses lane detection over 1 second. Therefore, it is concluded that the performance standards for an AV should contain more severe lane departure situations than those of an ADAS.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
한편 ‘도로의 구조·시설 기준에 관한 규칙’에는 도로를 설계하기 위한 기준자동차에 대한 정의가 내려져 있다. 본 연구에서는 다음 [Table 2]와 같은 차량 주행 환경 가정 하에 차선인식 성능 기준을 도출하고자 한다.
본 연구에서는 도로 평면선형 조건을 기반하여 자율주행 차량의 곡선 구간 차로이탈 허용 기준에 따른 영상센서 기반 성능 요구기준을 검토하는 연구를 수행하였다. 분석 결과 영상센서의 차선인식 기능은 승용차 조건에서 최소 0.
본 연구의 목적은 자율주행 차량의 차선인식 실패시 도로의 평면선형을 기반으로 허용 가능한 차로이탈 범위를 산정하는 것이다. 도로의 평면선형 조건은 도로의 곡률 및 차로의 폭원에 영향을 미치며, 이는 차량이 도로를 안전하게 주행하기 위한 조건과 연계된다.
자율주행 차량 주행 메커니즘에서, 차선인식 기능이 실패하였을 경우에는 타 시설물(예:연석)을 참조하여 조향을 수행하거나, 정밀도로지도에 입력된 3차원 도로 선형정보를 활용하는 것이 가능한 것으로 알려져 있다[11]. 이는 실차 환경에서 의도적으로 기능적 중복성(Redundancy)을 확보하여 특정 기능이 실패하더라도 다른 기능을 적용하여 문제를 해결할 수 있는 구조(Fail safety, 고장안전)를 확보하고자 하기 때문이다. 다만, 본 연구에서 가정하고자 하는 상황은 ‘타 유형의 참조정보 없이 차선인식 정보만으로 도로 선형을 추정하여 조향을 수행하여야 하는 상황’으로서, 현장에서 발생할 수 있는 최악의 상황을 가정하고자 한다.
본 연구에서는 도로의 설계속도별 곡률 및 차로폭원 조건에 따라 직선 구간에서 곡선 구간으로 차량이 진입하였을 때 차선인식 기능 실패로 직선 구간의 조향을 유지 시 곡선구간에서 차량의 횡방향 이탈거리를 산정하였다. 이를 활용하여 특정한 도로 평면선형 조건에서 자율주행 차량의 차선인식 성능 오류에 따른 차로이탈이 어느 정도 범위까지 허용될 것인가를 검토하였다.
가설 설정
다만, 본 연구에서 가정하고자 하는 상황은 ‘타 유형의 참조정보 없이 차선인식 정보만으로 도로 선형을 추정하여 조향을 수행하여야 하는 상황’으로서, 현장에서 발생할 수 있는 최악의 상황을 가정하고자 한다.
도로의 곡선반경은 편경사와 관련되는데, 본 연구에서는 설계속도에 따른 최소 곡선반경 상황을 검토하고자 편경사량을 최대로 가정하였다. 한편 ‘도로의 구조·시설 기준에 관한 규칙’에 제시된 곡선반경 기준은 도로중심선 기준의 곡선반경으로서, 차량의 주행 궤적을 추정하기 위한 곡선반지름으로 환산하기 위해서는 도로의 폭원을 고려할 필요가 있다.
이는 영상센서 기반 차선인식 성능이 직선구간보다는 곡선구간에서 떨어지기 때문으로서[10], 차선인식에 실패하면 관련 기능의 동작 자체가 불가능하다. 따라서 본 연구에서는 도로 선형이 차선인식 기능에 영향을 준다는 가정 하에 연구를 진행하고자 한다.
본 연구에서는 도로의 표준적 종단선형 조건(고속도로 및 다차로도로에 중앙분리대 영역 존재)을 고려하여, 최 내측차로 차로중심선 기준 곡선반경을 연산에 활용하였다. 본 연구에서 고속도로 및 다차로도로는 4차로를 가정하며, 이 때 차로이탈 발생 차량은 최 내측차로를 주행하는 것으로 가정하였다.
실 도로 환경에서, 도로 평면선형의 변화 상황은 크게 다음과 같이 세가지로 정리할 수 있다:첫째 직선구간 → 곡선구간, 둘째 곡선구간 → 직선구간, 셋째 곡선구간 → 곡선구간(배향곡선구간). 본 연구에서는 이 중 자율주행 차량이 직선구간에서 곡선구간으로 선형이 변화하는 과정에서 차선인식에 실패하는 상황을 가정하였다. 이것은 차선인식 알고리즘의 성능이 직선구간 보다는 곡선구간에서 떨어지므로[10], 곡선에서 직선으로 전이되는 구간보다 직선에서 곡선으로 전이되는 구간에서 일시적 차선인식 오류가 발생할 가능성이 상대적으로 크기 때문이다.
위급상황 시 자율주행 차량이 어떠한 주행전략을 채택할 것인가에 대한 판단 역시 다양한 경우가 존재할 수 있을 것으로 생각되나, 본 연구에서는 자율주행 차량이 ‘차선인식의 마지막 성공 시 조향방향을 유지하며 주행한다’라는 가정을 수립한다.
지금까지 제시된 수식과 차량 및 도로 관련 가정을 바탕으로 차로이탈 시간과 거리를 산정하였다. 인접차로 이탈 허용량은 LDWS 및 LKAS 관련 기준 중 가장 엄격한 MOLIT(2015)의 기준[1]을 적용, 0.3 m로 가정하였다.
차로 이탈 허용량은 수식 (2)에서 제시한 것과 같이, 차량과 차로 간의 횡방향 측방여유(차로 전체에 대한 측방여유의 1/2)와 인접차로에서 이탈이 허용된 범위(인접차로 이탈 허용량)의 합으로 나타낼 수 있다. 전술한 바와 같이 인접차로 이탈 허용량은 0.3m로 가정하였으며, 횡방향 측방여유의 값은 [Table 2]의 기준자동차 규격 및 [Table 3]의 도로 유형별 차로폭 기준을 적용하여 [Table 4]와 같이 산정하였다.
차선인식 성능 기준 도출을 위한 기준자동차 규격은 ‘도로의 구조·시설 기준에 관한 규칙’의 설계기준자동차 규격 중 승용자동차(폭원 1.7m) 및 세미트레일러(폭원 2.5m)를 가정하는데, 이는 장래 자율주행 기술의 주요 적용 대상은 승용차임을 고려하고, 조향 실패에 따른 차로이탈 상황을 상정하였을 때 차량의 폭원이 가장 넓어 조향 오류에 의한 차로이탈이 가장 쉽게 일어날 수 있는 유형인 세미트레일러의 경우를 모두 검토해보기 위함이다.
제안 방법
도로의 설계속도별 곡률 및 차로폭원 조건에 따라 직선 구간에서 곡선 구간으로 차량이 진입하였을 때 곡선구간에서 차량의 횡방향 차로 이탈량을 산정하였다. [Fig.
본 연구에서는 ‘도로의 구조·시설 기준에 관한 규칙’에서 제시한 도로 설계기준을 적용하여, 3장에서 제시한 평면선형 전이 구간에서의 횡방향 차로이탈 허용범위 산정 방법으로 자율주행 차량의 차로유지 성능 요구사항을 도출하였다.
본 연구에서는 도로의 설계속도별 곡률 및 차로폭원 조건에 따라 직선 구간에서 곡선 구간으로 차량이 진입하였을 때 차선인식 기능 실패로 직선 구간의 조향을 유지 시 곡선구간에서 차량의 횡방향 이탈거리를 산정하였다.
한편 ‘도로의 구조·시설 기준에 관한 규칙’에 제시된 곡선반경 기준은 도로중심선 기준의 곡선반경으로서, 차량의 주행 궤적을 추정하기 위한 곡선반지름으로 환산하기 위해서는 도로의 폭원을 고려할 필요가 있다. 본 연구에서는 도로의 표준적 종단선형 조건(고속도로 및 다차로도로에 중앙분리대 영역 존재)을 고려하여, 최 내측차로 차로중심선 기준 곡선반경을 연산에 활용하였다. 본 연구에서 고속도로 및 다차로도로는 4차로를 가정하며, 이 때 차로이탈 발생 차량은 최 내측차로를 주행하는 것으로 가정하였다.
자율주행 차량이 차로 이탈에 따라 인접 차로를침범할 때, 차로 이탈 허용량을 고려하여 허용시간을 산정하였다. 차로 이탈 허용량은 수식 (2)에서 제시한 것과 같이, 차량과 차로 간의 횡방향 측방여유(차로 전체에 대한 측방여유의 1/2)와 인접차로에서 이탈이 허용된 범위(인접차로 이탈 허용량)의 합으로 나타낼 수 있다.
지금까지 제시된 수식과 차량 및 도로 관련 가정을 바탕으로 차로이탈 시간과 거리를 산정하였다. 인접차로 이탈 허용량은 LDWS 및 LKAS 관련 기준 중 가장 엄격한 MOLIT(2015)의 기준[1]을 적용, 0.
특히 해당 연구에서는 차로의 폭원 및 도로 곡선반경 등에 대한 국내 기준인 ‘도로의 구조·시설 기준에 관한 규칙’[9]을 기반하여 LKAS 평가 기준 결정인자를 검토하였으며, LKAS 시험도로 조건을 제시하고 평가시스템을 구축하여 실차 기반 성능수행을 시행하였다.
횡방향 차로 이탈량과 차로 이탈 허용량이 같아지는 차로이탈 시간을 ‘차로 이탈 허용시간’으로 정의하며, 본 연구에서는 차로 이탈 허용시간을 자율주행 차량 영상센서의 차선인식 성능 오류 최대 허용시간으로 간주한다.
성능/효과
(2013)[7]은 LDWS 오작동 주행평가를 ISO 17361 기준을 기반으로 DGPS(Differential Global Positioning System)와 영상정보를 활용하여 수행하는 방법론을 개발하였다. 700m 직선주로에 이탈경계선을 표시하고, 경고 평균속도 72km/h로 주행한 후 LDWS 기능이 정상적인 조건에서 작동하였는지를 DGPS 기반 평가방법 및 영상 기반 평가방법으로 검증하여, 고가의 동역학 시뮬레이션 장비 없이 신뢰성있는 평가방법론 개발이 가능함을 확인하였다. 우현구 등은 승용자동차의 LKAS 주행 성능평가 방법론 개발을 위하여, 국내·외 LDWS 및 LKAS 관련 기준을 검토하였다[8].
본 연구에서는 도로 평면선형 조건을 기반하여 자율주행 차량의 곡선 구간 차로이탈 허용 기준에 따른 영상센서 기반 성능 요구기준을 검토하는 연구를 수행하였다. 분석 결과 영상센서의 차선인식 기능은 승용차 조건에서 최소 0.92초, 세미트레일러 조건에서 최소 0.7초 이상 오작동을 일으킨다면 차량이 차로이탈 상황에 놓일 수 있다. 한편 현재 LDWS, LKAS의 적용이 활발히 이뤄지고 있는 승용차 조건을 고려하였을 때, 자율주행 차량영상센서의 차선인식 기능이 대략적으로 1초 이상 오작동이연속적으로 발생하여 적절한 조향 방향을 확보하지못한다면 차량이 차로이탈 상황에 놓일 수 있음을확인할 수 있다.
[Table 5]에서 차로폭원이 허용시간에 영향을 미침을 확인할 수 있는데, 이는 차로폭원이 차로 이탈 허용량에 큰 영향을 미치기 때문이다. 분석 결과, 영상센서 차선인식 오류 발생 시 0.7초 이내에 신규로 영상센서에서 영상 프레임을 획득, 이를 활용하여 차선인식을 수행할 수 있어야 한다. 다만, 현재 LDWS, LKAS 기술 적용 사례가 많은 승용차의 경우에 영상센서의 성능 기준치는 0.
전술한 연구사례에서 LDWS 및 LKAS에 대한 성능기준은 기능 작동 여부에만 초점이 맞춰져, 영상인식 실패 환경에 대해서는 검토가 이뤄지지 않은 것으로 판단된다. 이는 해외 기준에서 LDWS 및 LKAS에 대한 성능기준을 ‘양호한 기상환경 및 차선도색상태’를 기준으로 수행하는 것을 권고하기 때문으로 해석된다[1, 3].
후속연구
본 방법론에서 제시한 차로이탈 허용시간 기준을 적용하여 자율주행 차량 운행구간의 차선 정비기준 수립에 활용 가능할 것으로 판단한다.
마지막으로 본 연구의 결과에 대한 해석과 결론을 정리하였다. 본 연구는 자동차 중심의 자율주행 평가 기준에 대하여 도로 조건을 고려하여 검토한 것으로 향후 관련 기술의 평가 기준 산정 시 공헌할 것으로 기대한다.
본 연구는 자율주행 차량의 차선인식 기능과 관련한 평가 방법론에 대하여, 자율주행 차량 관점에서 성능 요구기준을 도출하는 방법론을 개발하였다는 점에서 의의가 존재하나 실 도로 환경에서 적용 가능한 평가지표를 개발하기 위해서는 보다 정밀한 방법론의 적용이 필요할 것으로 판단된다. 특히 배향곡선 구간 및 곡선구간 내에서의 차량 거동에 대한 보다 면밀한 모형화가 필요하며, 이를 위해 차량 동역학 관련 모형의 적용이 가능할 것으로 판단한다.
본 연구는 자율주행 차량의 차선인식 기능과 관련한 평가 방법론에 대하여, 자율주행 차량 관점에서 성능 요구기준을 도출하는 방법론을 개발하였다는 점에서 의의가 존재하나 실 도로 환경에서 적용 가능한 평가지표를 개발하기 위해서는 보다 정밀한 방법론의 적용이 필요할 것으로 판단된다. 특히 배향곡선 구간 및 곡선구간 내에서의 차량 거동에 대한 보다 면밀한 모형화가 필요하며, 이를 위해 차량 동역학 관련 모형의 적용이 가능할 것으로 판단한다. 한편 자율주행 차량의 도로선형 추종방법에 대한 검토가 필요하며, 조향 정보 미 획득 시 차량 조향방향 설정에 대한 전략 수립 또한 검토하여야 할 것으로 판단한다.
8 m/s 수준까지 평가를 하는 것으로 제시되어 있다. 하지만 자율주행 차량이 실 도로상황에서 극복하여야 하는 횡방향 이탈속도는 최대 1.85 m/s까지 나타나는 것으로 확인되어, 차로의 급격한 횡방향 이동에 따른 차선인식 오류 발생 가능성을 고려한 평가 방법론이 적용되어야 할 것으로 판단한다.
한편 곡선부 주행 환경을 모형화하고, 차로이탈 허용 범위를 산정함에 있어 ‘공간적’인 범위가 아닌 ‘시간적’인 범위, 즉 차량의 주행속도와 곡선구간의 곡선반경, 차로폭원 등을 고려한 임계 시간에 대한 검토가 필요할 것으로 판단된다.
한편 현재 LDWS, LKAS의 적용이 활발히 이뤄지고 있는 승용차 조건을 고려하였을 때, 자율주행 차량영상센서의 차선인식 기능이 대략적으로 1초 이상 오작동이연속적으로 발생하여 적절한 조향 방향을 확보하지못한다면 차량이 차로이탈 상황에 놓일 수 있음을확인할 수 있다. 한편 도로 선형과 차량 진행방향의불일치로 인하여 발생하는 횡방향 이탈속도를ADAS 성능평가방안에서 제시하고 있는 기준값과비교하였을 때, 자율주행 조건에서는 보다 큰 횡방향 이탈속도 발생 상황에 대한 검토가 필요할 것으로 판단된다.
특히 배향곡선 구간 및 곡선구간 내에서의 차량 거동에 대한 보다 면밀한 모형화가 필요하며, 이를 위해 차량 동역학 관련 모형의 적용이 가능할 것으로 판단한다. 한편 자율주행 차량의 도로선형 추종방법에 대한 검토가 필요하며, 조향 정보 미 획득 시 차량 조향방향 설정에 대한 전략 수립 또한 검토하여야 할 것으로 판단한다. 한편 곡선부 주행 환경을 모형화하고, 차로이탈 허용 범위를 산정함에 있어 ‘공간적’인 범위가 아닌 ‘시간적’인 범위, 즉 차량의 주행속도와 곡선구간의 곡선반경, 차로폭원 등을 고려한 임계 시간에 대한 검토가 필요할 것으로 판단된다.
질의응답
핵심어
질문
논문에서 추출한 답변
자율주행 차량 주행 메커니즘에서 차선인식 실패 시, 타 시설물 또는 정밀도로지도의 3차원 도로선형정보를 활용하는 이유는 무엇인가?
자율주행 차량 주행 메커니즘에서, 차선인식 기능이 실패하였을 경우에는 타 시설물(예:연석)을 참조하여 조향을 수행하거나, 정밀도로지도에 입력된 3차원 도로 선형정보를 활용하는 것이 가능한 것으로 알려져 있다[11]. 이는 실차 환경에서 의도적으로 기능적 중복성(Redundancy)을 확보하여 특정 기능이 실패하더라도 다른 기능을 적용하여 문제를 해결할 수 있는 구조(Fail safety, 고장안전)를 확보하고자 하기 때문이다. 다만, 본 연구에서 가정하고자 하는 상황은 ‘타 유형의 참조정보 없이 차선인식 정보만으로 도로 선형을 추정하여 조향을 수행하여야 하는 상황’으로서, 현장에서 발생할 수 있는 최악의 상황을 가정하고자 한다.
영상센서는 무엇을 의미하는가?
영상센서는 인간의 눈과 유사한 역할을 수행하는 센서로서, 외부 환경의 영상을 취득, 이를 분석하여 차량 제어에 필요한 정보를 추출하는 센서를 의미한다. ADAS에서 영상센서는 차선인식1)(Lane detection) 및 표지판인식 기능을 담당한다.
ADAS는 어떤 기능을 수행하는가?
하지만 다양한 자율주행 차량 개발 선행 연구사례에서 공통적으로 적용된 센서군이 존재하는데, 이는 자율주행 기술개발 전략이 ADAS(Advanced Driver Assistance System)기능의 고도화라는 관점으로 상당부분 수립되어 있기 때문이다. ADAS에서는 차량 단독 및 차량 간 발생 가능한 교통사고 유형을 정의하고, 사고를 회피하기 위해 위험 상황을 센서를 통해 감지하여 상황 회피를 위한 알람 혹은 제어 메시지를 발생한다. ADAS에 활용되는 센서 중 핵심을 이루는 센서가 레이더(Radar) 및 영상센서(Vision sensor)이다.
참고문헌 (11)
MOLIT(2015), Standards for automotive safety evaluation tests.
Korea Standards Association(2012), Test method of lane departure warning system for passenger car-Road and ambient test conditions and test method, KS R 1172.
International Organization for Standardization(2007), Intelligent transport systems-Lane departure warning systems-Performance requirements and test procedures, ISO 17361.
NHTSA(2013), Lane departure warning system confirmation test and lane keeping support performance documentation, NHTSA-2015-0119-0033.
Choi I. S. and Cho S. W.(2014), "Active safety area of KNCAP," Auto Journal, vol. 36, no. 2, pp.26-31.
Cho S. S., Lim J. H., Cho S. W., Kim K. H. and Kim S. S.(2012), "A study on the performance test method of LDWS in a real road condition," KSAE Division General Conference 2012.5, pp.1060-1065.
Kim M. W., Moon S. C., Joo D. N., Lee J. K., Kim B. S. and Lee S. G.(2013), "Evaluation on performance of LDWS malfunction using DGPS by vision camera," KSAE Division General Conference 2013.5, pp.929-933.
Woo H. G., Yong B. J., Kim K. J. and Lim J. H.(2016), "Road test scenario and performance assessments of lane keeping assistance system for passenger vehicles," Transaction of the Korean Society of Automotive Engineers, vol. 24, no. 2, pp.255-263.
MOLIT(2013), Handbook for Rules about the Road Structure & Facilities Standards.
Seo W. I. and Kim S. W.(2012), "Vision based real-time curve land detection algorithms for ADAS," IEEK Fall Conference 2012.11, pp.947-949.
Chun C. M., Suh S. B., Lee S. H., Roh C. W., Kang S. C. and Kang Y. S.(2010), "Autonomous navigation of KUVE(KIST Unmanned Vehicle Electric)," Journal of Institute of Control, Robotics and Systems, vol. 16, no. 7, pp.617-624.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.