[국내논문]딥러닝 및 증강현실을 이용한 재난대응 역량 강화를 위한 네트워크 자원 확보 방안 Deployment of Network Resources for Enhancement of Disaster Response Capabilities with Deep Learning and Augmented Reality원문보기
본 논문에서는 재난상황에서 딥러닝과 증강현실 기술을 활용한 재난대응 방안과 그에 따른 네트워크 자원 확보 방안을 제안한다. 딥러닝과 증강현실 기술의 특징과 현황을 파악하고, 재난분야와의 연관성에 관하여 설명한다. 딥러닝 기술을 사용하여 재난 상황을 정확하게 인지하고 관련 재난 정보를 증강현실로 구현하여 재난대응 현장 및 통합지원본부, 재난안전대책본부 등에 제공함으로써 재난대응 역량을 강화할 수 있다. 각종 재난사례 중 화재상황을 중점으로, 딥러닝 기반 화재상황 인식 및 증강현실 정보제공을 통해 효과적으로 재난대응 역량을 강화할 수 있는 방안을 제시한다. 마지막으로, 본 논문의 재난대응 방안을 활용하기 위한 네트워크 자원 확보 기법을 제시한다.
본 논문에서는 재난상황에서 딥러닝과 증강현실 기술을 활용한 재난대응 방안과 그에 따른 네트워크 자원 확보 방안을 제안한다. 딥러닝과 증강현실 기술의 특징과 현황을 파악하고, 재난분야와의 연관성에 관하여 설명한다. 딥러닝 기술을 사용하여 재난 상황을 정확하게 인지하고 관련 재난 정보를 증강현실로 구현하여 재난대응 현장 및 통합지원본부, 재난안전대책본부 등에 제공함으로써 재난대응 역량을 강화할 수 있다. 각종 재난사례 중 화재상황을 중점으로, 딥러닝 기반 화재상황 인식 및 증강현실 정보제공을 통해 효과적으로 재난대응 역량을 강화할 수 있는 방안을 제시한다. 마지막으로, 본 논문의 재난대응 방안을 활용하기 위한 네트워크 자원 확보 기법을 제시한다.
In this paper, a disaster response scheme based on deep learning and augmented reality technology is proposed and a network resource reservation scheme is presented accordingly. The features of deep learning, augmented reality technology and its relevance to the disaster areas are explained. Deep le...
In this paper, a disaster response scheme based on deep learning and augmented reality technology is proposed and a network resource reservation scheme is presented accordingly. The features of deep learning, augmented reality technology and its relevance to the disaster areas are explained. Deep learning technology can be used to accurately recognize disaster situations and to implement related disaster information as augmented reality, and to enhance disaster response capabilities by providing disaster response On-site disaster response agent, ICS (Incident Command System) and MCS (Multi-agency Coordination Systems). In the case of various disasters, the fire situation is focused on and it is proposed that a plan to strengthen disaster response capability effectively by providing fire situation recognition based on deep learning and augmented reality information. Finally, a scheme to secure network resources to utilize the disaster response method of this paper is proposed.
In this paper, a disaster response scheme based on deep learning and augmented reality technology is proposed and a network resource reservation scheme is presented accordingly. The features of deep learning, augmented reality technology and its relevance to the disaster areas are explained. Deep learning technology can be used to accurately recognize disaster situations and to implement related disaster information as augmented reality, and to enhance disaster response capabilities by providing disaster response On-site disaster response agent, ICS (Incident Command System) and MCS (Multi-agency Coordination Systems). In the case of various disasters, the fire situation is focused on and it is proposed that a plan to strengthen disaster response capability effectively by providing fire situation recognition based on deep learning and augmented reality information. Finally, a scheme to secure network resources to utilize the disaster response method of this paper is proposed.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
딥러닝 및 증강현실을 위한 재난 통신이 이루어 질 때, 네트워크 관련 정보를 패킷에 실어서 보낸다. 그 정보를 보고, AR 서버에서 최종 결정하여, 백본 네트워크에 있는 라우터들에게 어느 정도의 Forwarding rate 성능을 보장하고 있어야 하는지 알려준다. 라우터들은 재난 상황에서 성능 보장을 위해, 재난 대응과 관련되지 않은 모든 통신 정보 처리를 후순위로 미룬다.
은닉계층의 계층의 숫자나, 노드의 숫자, 가중치의 숫자들은 모두 임의로 조정할 수 있다. 딥러닝의 최종 목적은, 테스트 데이터 (Test Set)를 인공신경망에 통과시켜서 원하는 결과(Output)를 얻는 것이다. 딥러닝에서는 은닉계층에 가중치를 훈련용 데이터 (Training Set)를 이용하여 훈련(Training) 시킨다.
특히, 재난 상황에서는 네트워크 트래픽 량이 폭주하기 때문에 더더욱 힘들어 진다. 본 논문에서는 이문제를 해결할 네트워크 모델 및 해결 방안을 제시한다.
본 논문에서는 재난 상황에서는 다른 통신보다 재난통신이 가장 중요하다는 점에 착안하여, 백본 네트워크에 있는 라우터들에게 일정 이상의 Forwarding rate를 확보하라는 패킷을 보내는 것을 제안한다. 딥러닝 및 증강현실을 위한 재난 통신이 이루어 질 때, 네트워크 관련 정보를 패킷에 실어서 보낸다.
본 논문에서는 재난대응 상황에서 딥러닝 및 증강현실 기술을 이용하여 재난대응 역량을 강화시킬 수 있는 방안을 제시하였다. 또한, 그에 따른 네트워크 성능 확보방안도 제시하였다.
본 논문에서는 최신 딥러닝 및 증강현실 기술을 통한 재난대응 역량을 향상시킬 수 있는 방안과 그에 따른 네트워크 자원 확보 방안을 제시한다. 본 논문의 구성은 다음과 같다.
소방대원의 HMD 장비의 카메라에 의해 현장의 영상 정보를 얻는다. 본 논문에서는 현장의 영상 정보를 딥러닝 과정을 통해 인식하는 방법을 제안한다. 딥러닝을 토대로 얻은 정보는 네트워크를 통해 서버로 전송되고, 서버내의 데이터베이스 (Database) 정보와의 매칭을 통해 관련 증강현실 정보를 현장 대원에게 전달한다.
가설 설정
그리고 AR 정보량을 IAR 로 정의한다. AR 정보를 받아 다시 유저에게 돌아가는 과정 및 시간은 이 전과 같다고 가정한다. 모델과 관련된 파라미터들은 표 3에 정리되어 있다.
또한 라우터에서 그리고 백본네트워크에 있는 마지막 라우터에서 AR서버 및 DB까지 걸리는 시간은 TRA이다. AR서버와 AR DB는 같은 장소에 있어서 통신시간이 없다고 가정한다. AR서버에서는 딥러닝 연산 결과를 받고 AR 관련 정보를 DB에서 찾아서 관련 정보를 내보낸다.
또한, 인간이 증강현실을 체험할 때 어지러움을 느끼지 않는 지연시간이 13ms 이므로 Tth 는 13ms로 설정하였다. IAR 은 1M bit, IDL 은 2M bit, IInput 은 5M bit로 가정하였다. 총 라우터의 개수 N은 5개로 가정하였다.
TUM , TMR , TRA 와 같은 통신 속도와 관련된 파라미터들은 1ms로 가정하였다. 라우터들의 거리는 매우 가까우므로 TRouters 는 0.
따라서, 본 네트워크 모델에서는 MEC 서버가 딥러닝 연산능력이 있다고 가정한다. MEC서버에서의 딥러닝 계산 속도는 CDL 로 정의한다.
MEC서버에서의 딥러닝 계산 속도는 CDL 로 정의한다. 또한, MEC 서버는 사전에 충분한 딥러닝 훈련이 되어있다고 가정하여, 테스트(test) 과정을 수행한다고 가정한다. 딥러닝 연산 결과 IDL 의 정보량이 나오며, 이 연산 결과를 AR 서버에 전송하여, 관련 정보를 획득하고자 한다.
MEC 서버에서 백본 네트워크에 있는 첫 번 째 라우터까지 걸리는 시간을 TMR 로 정의한다. 또한, 백본 네트워크에는 총 N 개의 라우터가 존재하고 그 중 M 개의 라우터를 사용한다고 가정한다. 또한, 라우터 간 통신 속도는 TRouters라고 정의한다.
와 같은 통신 속도와 관련된 파라미터들은 1ms로 가정하였다. 라우터들의 거리는 매우 가까우므로 TRouters 는 0.1ms로 가정하였다. 또한, 인간이 증강현실을 체험할 때 어지러움을 느끼지 않는 지연시간이 13ms 이므로 Tth 는 13ms로 설정하였다.
딥러닝 연산 결과 IDL 의 정보량이 나오며, 이 연산 결과를 AR 서버에 전송하여, 관련 정보를 획득하고자 한다. 이 때, AR 서버를 항상 근처에 두고 관련 DB를 확보하는 것은 힘들기 때문에 AR 서버와 DB (DataBase)는 재난 현장과 거리가 떨어져 있다고 가정한다. 따라서 AR서버에 접근하기 위해선 백본 네트워크 (Backbone Network)를 거치게 된다.
IAR 은 1M bit, IDL 은 2M bit, IInput 은 5M bit로 가정하였다. 총 라우터의 개수 N은 5개로 가정하였다.
제안 방법
본 실험은 MATLAB 2017a에서 진행되었다. 4번 식에서 CRouter 에 관한 요구 성능을 알아보기 위하여, CDL 값과 CAR 값을 조정하면서 CRouter 의 요구 성능을 측정해보았다. 네트워크 환경과 관련된 파라미터들은 다음과 같다고 가정되었다.
이때 소요되는 시간은 TUM 이다. 그 뒤, MEC 서버에서 딥러닝 연산을 수행한다. 5G 시대에서는 MEC 서버가 상용화 되어, 각종 ICT 연산에 도움을 줄 것으로 예상 되고 있다.
또한, MEC 서버는 사전에 충분한 딥러닝 훈련이 되어있다고 가정하여, 테스트(test) 과정을 수행한다고 가정한다. 딥러닝 연산 결과 IDL 의 정보량이 나오며, 이 연산 결과를 AR 서버에 전송하여, 관련 정보를 획득하고자 한다. 이 때, AR 서버를 항상 근처에 두고 관련 DB를 확보하는 것은 힘들기 때문에 AR 서버와 DB (DataBase)는 재난 현장과 거리가 떨어져 있다고 가정한다.
본 논문에서는 재난대응 상황에서 딥러닝 및 증강현실 기술을 이용하여 재난대응 역량을 강화시킬 수 있는 방안을 제시하였다. 또한, 그에 따른 네트워크 성능 확보방안도 제시하였다. 딥러닝 기술을 사용하는 모델인 인공신경망 중 합성곱 신경망을 사용한 모델은 현재 이미지 인식 분야에서 압도적인 성능을 내고 있다.
현재, Apple의 Siri, Amazon의 Alexa 등 대부분의 ICT기업에서 음성 인식모델로서 사용하고 있다. 본 논문에서는 재난상황을 인식하기 위한 방법으로 합성곱 신경망을 쓸 것은 제안하며, 합성곱 신경망을 중심으로 서술한다.
모델에 관한 설명은 다음과 같다. 첫 번째로, 모바일 기기, CCTV 등에서 재난 이미지나 영상을 획득하여 MEC(Mobile Edge Computing) 서버에 IInput 만큼 전송한다. 이때 소요되는 시간은 TUM 이다.
무인영상획득기기에게 화재감별능력을 부여하기 위하여 딥러닝 기술이 사용된다. 획득된 영상 이미지는 Incpetion, VGG, ResNet 등 합성곱 신경망 모델을 사용한 딥러닝 기술로 분석 된다.
대상 데이터
본 실험은 MATLAB 2017a에서 진행되었다. 4번 식에서 CRouter 에 관한 요구 성능을 알아보기 위하여, CDL 값과 CAR 값을 조정하면서 CRouter 의 요구 성능을 측정해보았다.
성능/효과
결론적으로, 딥러닝 및 증강현실 기술을 사용하여 실제 재난 대응 상황에서 현장요원 및 재난대응 담당자에게 정확하고 신속한 정보전달을 통해 재난 초기 대응 능력을 향상시킬 수 있다. 또한 통합지원본부, 지역재난대책본부와 같은 재난대책기관에 신속하게 현장상황을 보고하여 관련기관의 교통통제, 주민대피 등의 의사결정과정을 보다 신속하고 정확하게 처리할 수 있다.
딥러닝에서는 은닉계층에 가중치를 훈련용 데이터 (Training Set)를 이용하여 훈련(Training) 시킨다. 훈련된 가중치를 이용하여 테스트 데이터를 사용했을 때 정확한 결과를 얻게 한다. 인공신경망은 인간의 뇌를 참고하여 만든 것으로서, 노드는 뉴런(Neuron)을 가중치는 시냅스 (Synapse)를 참고하여 만들어졌다.
질의응답
핵심어
질문
논문에서 추출한 답변
재난대응의 성패는 어떠한 요소에 의해 좌우되는가?
재난대응의 성패는 크게 두 가지 요소에 달려있다. 첫 번째는 초동 대응의 속도이고, 두 번째는 초동 대응의 정확성이다. 앞서 언급했듯이, 재난 발생 시 인간이 바로 재난 상황을 포착하여 정확히 인지하기에는 큰 어려움이 있다.
머신러닝이란 무엇인가?
딥러닝 (Deep Learning)은 머신러닝 (Machine Learning)의 한 분야이다. 머신러닝은 컴퓨터에게 문제를 해결할 수 있는 정확한 알고리즘을 제공하지 않고, 문제 해결능력을 배우게 하는 방법이다. 딥러닝에서는 컴퓨터가 인공신경망 (Artificial Neural Network)을 사용하여 문제 해결능력을 배운다.
재난대응의 목표는 무엇인가?
최근 산불 및 화학물질 유출사고, 화재 등과 같이 전 국가적으로 다양한 유형의 사건, 사고가 발생하면서 재난 대응에 대한 관심이 집중되고 있다. 재난대응의 목표는 재난상황을 빠르게 인지하고 정확한 행동매뉴얼을 적용함으로써, 추가적인 인적 및 물적 피해를 최소화하는 것이다. 그러나 재난상황을 빠르게 인식하고 정확한 행동매뉴얼을 적용함에 있어서, 인간이 모든 과정을 정확히 이행하기에는 한계가 있다.
참고문헌 (17)
H. Nishiyama, M. Ito and N. Kato, "Relay-bysmartphone: Realizing Multihop Device-to-device Communications," IEEE Commun. Mag., vol. 52, no. 4, pp. 56-65, Apr. 2014. https://doi.org/10.1109/MCOM.2014.6807947
M. Kobayashi, "Experience of Infrastructure Damage Caused by the Great East Japan Earthquake and Countermeasures against Future Disasters," IEEE Commun. Mag., vol. 52, no. 3, pp. 23-29, Mar. 2014. https://doi.org/10.1109/MCOM.2014.6766080
T. Sakano, Z. Fadlullah, T. Ngo, H. Nishiyama, M. Nakazawa, F. Adachi, N. Kato, A. Takahara, T. Kumagai, H. Kasahara, and S. Kurihara, "Disaster-resilient Networking: a New Vision Based on Movable and Deployable Resource Units," IEEE Network, vol. 27, no. 4, pp. 40-46, Aug. 2013. https://doi.org/10.1109/MNET.2013.6574664
D. Chatzopoulos, C. Bermejo, Z. Huang, and P. Hui, "Mobile Augmented Reality Survey: From Where We Are to Where We Go," IEEE Access, vol. 5, pp. 6917-6950, 2017. https://doi.org/10.1109/ACCESS.2017.2698164
A. Krizhevsky, I. Sutskever, and G. Hinton, "ImageNet Classification with Deep Convolutional Neural Networks," Proc. Neural Information and Processing Systems, 2012. http://papers.nips.cc/paper/4824-imagenet-classificationwith- deep-convolutional-neural-networks
Y. Lecun, L. Bottou, Y. Bengio and P. Haffner, "Gradient-based Learning Applied to Document Recognition," Proc. IEEE, vol. 86, no. 11, pp. 2278-2324, Nov. 1998. https://doi.org/10.1109/5.726791
K. He, X. Zhang, S. Ren, and J. Sun, "Deep Residual Learning for Image Recognition," Proc. IEEE conf. on comp. vision and pattern recognition, pp. 770-778, 2016. https://doi.org/10.1109/CVPR.2016.90
C. Szegedy, S. Ioffe, V. Vanhoucke, "Inception-v4, Inception-resnet and the Impact of Residual Connections on Learning," arXiv:1602.07261v2, Aug. 2016. https://arxiv.org/abs/1602.07261
K. Simonyan, A. Zisserman, "Very Deep Convolutional Networks for Large-Scale Image Recognition," arXiv:1409.1556v6, Apr. 2015. https://arxiv.org/abs/1409.1556
D. Chatzopoulos, C. Bermejo, Z. Huang, and P. Hui, "Mobile Agumented Reality Survey : From Where We Are to Where We Go," IEEE Access, vol. 5, pp. 6917-6950, Apr. 2017. https://doi.org/10.1109/ACCESS.2017.2698164
R. Shea et al., "Location-Based Augmented Reality With Pervasive Smartphone Sensors: Inside and Beyond Pokemon Go!," IEEE Access, vol. 5, pp. 9619-9631, Apr. 2017. https://doi.org/10.1109/ACCESS.2017.2696953
B. Thomas and C. Sandor, "What Wearable Augmented Reality Can Do for You," IEEE Pervasive Comping, vol. 8, no. 2, pp. 8-11, Jun. 2009. https://doi.org/10.1109/MPRV.2009.38
C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, and Z. Wojna, "Rethinking the Inception Architecture for Computer Vision," arXiv:1512.00567v3, Dec. 2015. https://arxiv.org/abs/1512.00567
M. Potter, B. Wyble, C. Hagmann, and E. McCourt, "Detecting Meaning in RSVP at 13 ms per Picture," Attention, Perception, & Psychophysics, vol. 76, no. 2, pp.270-279, 2014. https://doi.org/10.3758/s13414-013-0605-z
N. Lane and P. Georgiev, "Can Deep Learning Revolutionize Mobile Sensing?," Proc. 16th ACM Int'l. Wksp. Mobile Computing Systems and Applications, pp. 117-122, 2015. https://doi.org/10.1145/2699343.2699349
D. Sabella, A. Vaillant, P. Kuure, U. Rauschenbach, and F. Giust, "Mobile-Edge Computing Architecture: The role of MEC in the Internet of Things," IEEE Consumer Electronics Magazine, vol. 5, no. 4, pp. 84-91, Oct. 2016. https://doi.org/10.1109/MCE.2016.2590118
※ AI-Helper는 부적절한 답변을 할 수 있습니다.