도시가 복잡해짐에 따라 보행도로에는 시각장애인들의 보행을 방해하는 다양한 장애물들이 점차 많아지고 있다. 대표적으로 볼라드, 주차차단기, 입간판 등을 예로 들 수 있는데, 이들은 일반적으로 보행에 심각한 방해가 되지 않지만, 시각장애인들에게는 오히려 충돌로 인한 부상의 위험을 발생시킬 수 있다. 이를 해결하기 위해 GPS를 비롯한 다양한 장치를 이용한 방법들이 제안되었으나, 장소의 제약, 장애물 감지의 부정확성, 특수한 장치에 대한 요구 등의 문제로 인해 대중적으로 사용하기에는 한계를 지니고 있다. 본 논문에서는 최신 스마트폰에 기본적으로 장착된 간단한 장치만을 활용하여 보행 중에 출현하는 각종 장애물을 자동인식하고 충돌의 위험을 사전에 알려주는 방법을 제안한다. 제안된 방법은 전방을 촬영한 동영상에서 장애물의 종류뿐만 아니라 거리를 파악하여 보행인에게 실시간으로 안내해줌으로써 장애물과의 충돌을 방지하도록 지원한다. 이를 위해 최신 딥러닝 알고리즘을 이용한 객체 인식 기술을 활용하여 장애물 출현 여부와 장애물의 종류를 인식하였다. 또한, 보행자의 보폭을 이용한 이동 거리를 계산하는 방법을 응용하여 장애물과의 거리를 측정하였다. 제안된 방법은 기존의 시각장애인을 위한 보행 안내 기술과 비교하여 실내외 장소에 구애받지 않으면서 간단한 장치만으로도 정확한 보행 안내가 가능하다는 장점을 갖는다.
도시가 복잡해짐에 따라 보행도로에는 시각장애인들의 보행을 방해하는 다양한 장애물들이 점차 많아지고 있다. 대표적으로 볼라드, 주차차단기, 입간판 등을 예로 들 수 있는데, 이들은 일반적으로 보행에 심각한 방해가 되지 않지만, 시각장애인들에게는 오히려 충돌로 인한 부상의 위험을 발생시킬 수 있다. 이를 해결하기 위해 GPS를 비롯한 다양한 장치를 이용한 방법들이 제안되었으나, 장소의 제약, 장애물 감지의 부정확성, 특수한 장치에 대한 요구 등의 문제로 인해 대중적으로 사용하기에는 한계를 지니고 있다. 본 논문에서는 최신 스마트폰에 기본적으로 장착된 간단한 장치만을 활용하여 보행 중에 출현하는 각종 장애물을 자동인식하고 충돌의 위험을 사전에 알려주는 방법을 제안한다. 제안된 방법은 전방을 촬영한 동영상에서 장애물의 종류뿐만 아니라 거리를 파악하여 보행인에게 실시간으로 안내해줌으로써 장애물과의 충돌을 방지하도록 지원한다. 이를 위해 최신 딥러닝 알고리즘을 이용한 객체 인식 기술을 활용하여 장애물 출현 여부와 장애물의 종류를 인식하였다. 또한, 보행자의 보폭을 이용한 이동 거리를 계산하는 방법을 응용하여 장애물과의 거리를 측정하였다. 제안된 방법은 기존의 시각장애인을 위한 보행 안내 기술과 비교하여 실내외 장소에 구애받지 않으면서 간단한 장치만으로도 정확한 보행 안내가 가능하다는 장점을 갖는다.
As city environments have recently become crowded, there are many obstacles that interfere with the walking of the visually impaired on pedestrian roads. Typical examples include ballads, parking breakers and standing signs, which usually do not get in the way, but blind people may be injured by col...
As city environments have recently become crowded, there are many obstacles that interfere with the walking of the visually impaired on pedestrian roads. Typical examples include ballads, parking breakers and standing signs, which usually do not get in the way, but blind people may be injured by collisions. To solve such a problem, many solutions have been proposed, but they are limited in applied in practical environments due to the several restrictions such as outside use only, inaccurate obstacle sensing and requirement of special devices. In this paper, we propose a new method to automatically detect obstacles while walking on the pedestrian roads and warn the collision risk in advance by using only sensors embedded in typical mobile phones. The proposed method supports the walking of the visually impaired by notifying the type of obstacles appearing in front of them as well as the distance remaining from the obstacles. To accomplish this goal, we utilized an object recognition technology applying the latest deep learning algorithms in order to identify the obstacles appeared in real-time videos. In addition, we also calculate the distance to the obstacles using the number of steps and the pedestrian's stride. Compared to the existing walking support technologies for the visually impaired, our proposed method ensures efficient and safe walking with only simple devices regardless of the places.
As city environments have recently become crowded, there are many obstacles that interfere with the walking of the visually impaired on pedestrian roads. Typical examples include ballads, parking breakers and standing signs, which usually do not get in the way, but blind people may be injured by collisions. To solve such a problem, many solutions have been proposed, but they are limited in applied in practical environments due to the several restrictions such as outside use only, inaccurate obstacle sensing and requirement of special devices. In this paper, we propose a new method to automatically detect obstacles while walking on the pedestrian roads and warn the collision risk in advance by using only sensors embedded in typical mobile phones. The proposed method supports the walking of the visually impaired by notifying the type of obstacles appearing in front of them as well as the distance remaining from the obstacles. To accomplish this goal, we utilized an object recognition technology applying the latest deep learning algorithms in order to identify the obstacles appeared in real-time videos. In addition, we also calculate the distance to the obstacles using the number of steps and the pedestrian's stride. Compared to the existing walking support technologies for the visually impaired, our proposed method ensures efficient and safe walking with only simple devices regardless of the places.
본 논문에서는 시각장애인의 보행 중에 충돌 위험이 있는 장애물에 접근했을 때 장애물의 종류와 거리를 음성으로 자동 안내 해주는 시각장애인 보행 안내방법을 제안하였다. 제안된 방법은 일반적인 스마트폰에 장착된 장치만을 활용하여 장소에 구애받지 않으면서 정확한 안내가 가능하도록 개발되었다.
지금까지 살펴본 바와 같이 기존의 연구들은 GPS나 기타 특수한 장치를 사용함으로써 현실적으로 활용하기에는 한계를 갖고 있다. 본 논문에서는 이러한 문제를 극복하기 위해서 보편적인 스마트폰에 내장된 간단한 장치들만으로 정확한 장애물 자동 인식과 안내가 가능한 시각장애인용 보행안내시스템의 개발 결과를 제시한다.
제안 방법
또한 GPS는 실내에서 사용하지 못한다는 단점도 있다. 따라서 본 논문에서는 보행자의 보폭을 사전에 측정한 후에 보폭과 걸음 수를 이용하여 비교적 정확한 이동거리를 계산할 수 있었다. 구체적인 방법은 다음 장에서 설명한다.
본 논문에서는 시각장애인의 이동거리를 계산하기 위해 개인별 보폭을 활용하였다. 각 사용자는 일정한 보폭을 유지하면서 보행하며, 보폭은 개인의 신체적 특징에 따라 제각각이다.
제안된 방법은 일반적인 스마트폰에 장착된 장치만을 활용하여 장소에 구애받지 않으면서 정확한 안내가 가능하도록 개발되었다. 이를 실현하기 위해 최신의 딥러닝을 이용한 객체 인식 기술을 활용하였으며, 정확한 이동거리 계산을 위해 보행자의 보폭과 걸음 수를 이용하였다. 본 논문이 제안한 방법은 인공지능 학습을 통해 장애물의 종류를 자동 인식할 수 있도록 개발되어 고정/비고정 등의 장애물 종류와 관계없이 보행 중 충돌 위험 이 있는 모든 장애물에 대해서 적용할 수 있다.
본 논문에서는 시각장애인의 보행 중에 충돌 위험이 있는 장애물에 접근했을 때 장애물의 종류와 거리를 음성으로 자동 안내 해주는 시각장애인 보행 안내방법을 제안하였다. 제안된 방법은 일반적인 스마트폰에 장착된 장치만을 활용하여 장소에 구애받지 않으면서 정확한 안내가 가능하도록 개발되었다. 이를 실현하기 위해 최신의 딥러닝을 이용한 객체 인식 기술을 활용하였으며, 정확한 이동거리 계산을 위해 보행자의 보폭과 걸음 수를 이용하였다.
성능/효과
본 논문이 제안한 방법은 인공지능 학습을 통해 장애물의 종류를 자동 인식할 수 있도록 개발되어 고정/비고정 등의 장애물 종류와 관계없이 보행 중 충돌 위험 이 있는 모든 장애물에 대해서 적용할 수 있다. 제안된 방법을 실제 시각장애인의 보행에 활용하기 위해서는 스 마트폰이 보행 중에 전방을 항상 촬영하고 있어야 한다는 현실적인 문제가 존재한다. 최근에 신체나 각종 휴대 기구에 스마트폰을 부착하는 방법들이 개발되고 있고, 바디캠과 같은 촬영 장비들이 발전하고 있어 실생활에 적용하는 데에는 큰 문제가 없을 것으로 판단된다.
후속연구
그러나 두 방법 모두 본 논문에서 필요한 보행자의 이동거리를 계산하기에는 많은 제약이 있다. 본 논문에서 계산하고자 하는 이동거리는 장애인이 보행 중 전방에 출현한 장애물을 최초로 인식하고 비교적 짧은 거리를 이동한 후에 재인식하여 이동거리를 추정하는 데 필요하다. 따라서 측정이 필요한 이동거리는 비교적 짧은 수미터에서 10미터 전후 수준이다.
이를 실현하기 위해 최신의 딥러닝을 이용한 객체 인식 기술을 활용하였으며, 정확한 이동거리 계산을 위해 보행자의 보폭과 걸음 수를 이용하였다. 본 논문이 제안한 방법은 인공지능 학습을 통해 장애물의 종류를 자동 인식할 수 있도록 개발되어 고정/비고정 등의 장애물 종류와 관계없이 보행 중 충돌 위험 이 있는 모든 장애물에 대해서 적용할 수 있다. 제안된 방법을 실제 시각장애인의 보행에 활용하기 위해서는 스 마트폰이 보행 중에 전방을 항상 촬영하고 있어야 한다는 현실적인 문제가 존재한다.
따라서 장애물과의 거리가 일정 거리 이내로 접근하는 상황에 대해서만 충돌 위험을 보행자에게 안내하면 된다. 장애물에 얼마나 가깝게 접근했을 때 충돌 위험을 안내하고, 얼마나 자주 안내해야 하는지 등의 구체적 방법에 대해서는 실제 상황에 따른 다양한 실험을 거쳐 결정해야 할 것으로 판단된다.
최근에 신체나 각종 휴대 기구에 스마트폰을 부착하는 방법들이 개발되고 있고, 바디캠과 같은 촬영 장비들이 발전하고 있어 실생활에 적용하는 데에는 큰 문제가 없을 것으로 판단된다. 현재 개발된 시스템은 일부 장애물만을 인식하도록 학습되었으나 향후에는 다양한 장애물을 인식하도록 학습 대상을 확대할 예정이며, 실용화를 위해 어떠한 방법으로 휴대하는 것이 가장 이상적인지 또한 어떠한 안내방법이 가장 적절한지 다양한 실험을 통해 검증할 계획이다.
참고문헌 (12)
T. K. Kim, Y. W. Hark, B. J. Choi, and K. B. Kim, "Design of GPS Module based Walking Assistant Device for Blind Persons", Proceedings of Conference on Korea Intelligent Information Systems Society, 2007.
J. H. Lee and B. S. Shin, "Outdoor Navigation System for Visually Impaired Persons Incorporating GPS and Multiple Sensors", The Journal of Korean Institute of Next Generation Computing, Vol. 6, No. 3, 2010.
J. M. Sim, H. W. Lee, J. Y. Shin, K. W. Kim, and Y. O. Han, "Walking Assistance Device for Prevention of Accidents of Visually Impaired People", The Journal of the Korea Institute of Electronic Communication Sciences, Vol. 14, No. 6, 2019. DOI: https://doi.org/10.13067/JKIECS.2019.14.6.1241
Y. J. Jeong, N. W. Park, and Dong-Hoi Kim, "Implementation of Smart Cane using Beacon Communication for Visually Impaired People", Journal of Digital Contents Society, Vol. 21, No. 3, 2020.DOI: http://dx.doi.org/10.9728/dcs.2020.21.3.453
Funzin Co., "Object Tracking System", Korea Patent No. 10-2016-0080583, Issued June 8, 2014.
J. Redmon, et al. "You only look once: Unified, real-time object detection" Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016. DOI: https://doi.org/10.48550/arXiv.1506.02640
D. Tzutalin, "LabelImg" GitHub repository https://github. com/tzutalin/labelImg, 2015.
J. H. Choi and S. J. Lee, "A Study on the Application Method of Police bodyCam", The Journal of Police Policies, Vol. 33, No. 3, 2019. DOI: 10.35147/knpsi.2019.33.3.139
W. Liu, "Ssd: Single shot multibox detector", European Conference on Computer Vision. Springer, Cham, 2016, DOI: https://doi.org/10.1007/978-3-319-46448-0_2
R. Girshick, "Fast r-cnn" Proceedings of the IEEE International Conference on Computer Vision. 2015, DOI: https://doi.org/10.48550/arXiv.1504.08083
Y. Han, "Two-dimensional Automatic Transformation Template Matching for Image Recognition", Journal of the Korea Academia- Industrial cooperation Society, Vol. 20, No. 9, 2019, DOI: https://doi.org/10.5762/KAIS.2019.20.9.1
G. Jo, H.-W. Cho and Y. J. Son, "Implementation of 360-degree Image Recognition System Using Lidar Sensors and Yolo v3 Libraries in Cloud Server Environment", The Journal of Korean Institute of Information Technology, Vol. 18, No. 2, 2020, DOI: https://doi.org/10.14801/jkiit.2020.18.2.1
※ AI-Helper는 부적절한 답변을 할 수 있습니다.