$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 컨볼루션 신경망을 이용한 도시 환경에서의 안전도 점수 예측 모델 연구
A Safety Score Prediction Model in Urban Environment Using Convolutional Neural Network 원문보기

정보처리학회논문지. KIPS transactions on software and data engineering. 소프트웨어 및 데이터 공학, v.5 no.8, 2016년, pp.393 - 400  

강현우 (가톨릭대학교 디지털미디어과) ,  강행봉 (가톨릭대학교 디지털미디어학부)

초록
AI-Helper 아이콘AI-Helper

최근, 컴퓨터 비전과 기계 학습 기술의 도움을 받아 효율적이고 자동적인 도시 환경에 대한 분석 방법의 개발에 대한 연구가 이루어지고 있다. 많은 분석들 중에서도 도시의 안전도 분석은 지역 사회의 많은 관심을 받고 있다. 더욱 정확한 안전도 점수 예측과 인간의 시각적 인지를 반영하기 위해서, 인간의 시각적 인지에서 가장 중요한 전역 정보와 지역 정보의 고려가 필요하다. 이를 위해 우리는 전역 칼럼과 지역 칼럼으로 구성된 Double-column Convolutional Neural Network를 사용한다. 전역 칼럼과 지역 칼럼 각각은 입력은 크기가 변환된 원 영상과 원 영상에서 무작위로 크로핑을 사용한다. 또한, 학습 과정에서 특정 칼럼에 오버피팅되는 문제를 해결하기 위한 새로운 학습방법을 제안한다. 우리의 DCNN 모델의 성능 비교를 위해 2개의 SVR 모델과 3개의 CNN 모델의 평균 제곱근 오차와 상관관계 분석을 측정하였다. 성능 비교 실험 결과 우리의 모델이 0.7432의 평균 제곱근 오차와 0.853/0.840 피어슨/스피어맨 상관 계수로 가장 좋은 성능을 보여주었다.

Abstract AI-Helper 아이콘AI-Helper

Recently, there have been various researches on efficient and automatic analysis on urban environment methods that utilize the computer vision and machine learning technology. Among many new analyses, urban safety analysis has received a major attention. In order to predict more accurately on safety...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 1절에서 설명하였듯이 우리는 깨진 창문 이론과 인간의 시각적 인지를 반영하기 위해서 전역 정보로부터 얻어지는 시각적 단서 정보(e.g. 배경, 컨텍스트 등)와 지역 정보로부터 얻어지는 시각적 단서 정보(e.g. 오브젝트 등)를 반영하는 CNN 모델을 학습하고자 한다. 하지만, 일반적으로 CNN은 고정된 크기의 영상(예를 들어, Alexnet의 경우 227 × 227× 3) 하나를 입력으로 사용한다.
  • 하지만, 깨진 창문 이론과 인간의 시각적 인지를 좀 더 정확하게 반영하기 위해서는 전역 정보로부터 얻을 수 있는 컨텍스트 같은 시각적 단서 정보뿐만 아니라 세부적인 지역 정보로부터 얻을 수 있는 오브젝트 같은 시각적 단서 정보의 반영이 필요하다. 때문에 우리는 전역 정보와 지역 정보를 추출하는 두 개의 칼럼을 가진 Doublecolumn CNN 구조(DCNN)[13, 14]를 통해 기존의 예측 방법에서 고려하지 못한 깨진 창문 이론과 인간의 시각적 인지를 좀 더 정확하게 반영하는 도시의 안전도 점수 예측 모델을 제안하고자 한다. DCNN에서 전역 정보와 지역 정보는 각각 Alexnet과 동일한 구조를 가지고 독립적으로 동작하는 두 개의 칼럼의 컨볼루션 층을 통해 추출하였고, 각 정보는 완전 연결 층에서 융합되어 도시의 안전도 예측에 사용된다.
  • 본 논문에서는 전역 정보와 지역 정보를 융합하는 DCNN 구조를 사용하여 도시의 영상으로부터 안전도 점수를 예측하는 방법을 보여주었다. 우리는 DCNN의 공동 학습의 문제점을 극복하기 위해 새로운 학습 방법을 통해 DCNN을 학습하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
우리의 모델인 DCNN 모델의 성능 비교를 위해 SVR 모델과 CNN 모델의 평균 제곱근 오차와 상관관계를 분석한 결과는 어떠한가? 우리의 DCNN 모델의 성능 비교를 위해 2개의 SVR 모델과 3개의 CNN 모델의 평균 제곱근 오차와 상관관계 분석을 측정하였다. 성능 비교 실험 결과 우리의 모델이 0.7432의 평균 제곱근 오차와 0.853/0.840 피어슨/스피어맨 상관 계수로 가장 좋은 성능을 보여주었다.
Salesses이 안전도 예측을 위해 수행한 쌍대비교실험을 어떤 이론을 기반으로 하는가? 안전도 예측 혹은 범죄 예측에 관련된 다양한 연구들이 존재한다. Salesses 등[2]은 깨진 창문 이론[10]을 기반으로 인간의 시각적 인지를 이용한 쌍대비교실험을 통해 도시 영상의 부유함, 독특함과 안전도 점수를 측정하였고 이를 활용하여 도시 환경의 분석 및 예측 방법을 실시했다. Ordonez 등[3]은 Salesses 등[2]의 데이터 셋을 뉴욕, 보스턴, 볼티모어 그리고 시카고에서 추가 수집한 데이터를 이용하여 확장했다.
CNN은 다른 딥러닝과 어떤 차이를 보이는가? CNN은 다른 딥 러닝 알고리즘과는 다르게 컨볼루션 층을 가지고 있고 때문에 컴퓨터 비전의 다양한 분야에서 뛰어난 성능을 보여주고 있다. Krizhevsky 등[11]은 CNN에 Rectified Linear Unit (ReLU), Local Response Normalization(LRN), Dropout 등을 적용하여 ILSVRC 2012에서 종전의 기록을 압도적인 성능으로 뛰어넘어 우승하였고 약 10% 정도의 성능 향상을 보여주면서 CNN을 알리게 되었다.
질의응답 정보가 도움이 되었나요?

참고문헌 (21)

  1. K. Lynch, "The image of the city," MIT press, 1960. 

  2. P. Salesses, S. Katja, and C. A. Hidalgo, "The collaborative image of the city: mapping the inequality of urban perception," PloS one, Vol.8, No.7, 2013. 

  3. V. Ordonez and T. L. Berg, "Learning high-level judgments of urban perception," in Proceedings of the European Conference on Computer Vision, pp.494-510, 2014. 

  4. A. Khosla, B. An, J. J. Lim, and A. Torralba, "Looking beyond the visible scene," in Proceedings of the Computer Vision and Pattern Recognition, pp.3710-3717, 2014. 

  5. N. Naik, J. Philipoom, R. Raskar, and C. Hidalgo, "Streetscore--Predicting the Perceived Safety of One Million Streetscapes," in Proceedings of the Computer Vision and Pattern Recognition Workshops, pp.793-799, 2014. 

  6. H. W. Kang and H. B. Kang, "A new context-aware computing method for urban safety," in International Conference on Image Analysis and Processing Workshops, pp.298-305, 2015. 

  7. G. O. Mohler, M. B. Short, P. J. Brantingham, F. P. Schoenberg, and G. E. Tita, "Self-exciting point process modeling of crime," Journal of the American Statistical Association, Vol. 106, pp.100-108, 2012. 

  8. M. S. Gerber, "Predicting crime using Twitter and kernel density estimation," Decision Support Systems, Vol.61, pp.115-125, 2014. 

  9. X. Chen, Y. Cho, and S. Jang, "Crime prediction using Twitter sentiment and weather," in Proceedings of the Systems and Information Engineering Design Symposium, pp.63-68, 2015. 

  10. J. Q. Wilson and G. L. Kelling, "Broken windows," Atlantic monthly, Vol.249, No.3, pp.29-38, 1982. 

  11. A. Krizhevsky, I. Sutskever, and G. E. Hinton, "Imagenet classification with deep convolutional neural networks," in Proceedings of the Advances in Neural Information Processing Systems, pp.1097-1105, 2012. 

  12. K. Simonyan and A. Zisserman, "Very deep convolutional networks for large-scale image recognition," in arXiv preprint arXiv:1409.1556, 2014. 

  13. X. Lu, Z. Lin, H. Jin, J. Yang, and J. Z. Wang, "Rapid: Rating pictorial aesthetics using deep learning," in Proceedings of the ACM International Conference on Multimedia, pp.457-466, 2014. 

  14. H. Jung, S. Lee, J. Yim, S Park, and J. Kim, "Joint Fine-Tuning in Deep Neural Networks for Facial Expression Recognition," in Proceedings of the International Conference on Computer Vision, pp.2983-2991, 2015. 

  15. J. Park and M. E. Newman, "A network-based ranking system for us college football," Journal of Statistical Mechanics: Theory and Experiment, Vol.10, 2005. 

  16. Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick, and T. Darrell, "Caffe: Convolutional architecture for fast feature embedding," in Proceedings of the ACM International Conference on Multimedia, pp.675-678, 2014. 

  17. N. Dalal and B. Triggs, "Histograms of oriented gradients for human detection," in Proceedings of Computer Vision and Pattern Recognition, pp.886-893, 2005. 

  18. A. Oliva and A. Torralba, "Modeling the shape of the scene: A holistic representation of the spatial envelope," International Journal of Computer Vision, Vol.42, No.3, pp.145-175, 2001. 

  19. F. Perronnin, J. Sanchez, and T. Mensink, "Improving the fisher kernel for largescale image classification," in Proceedings of the European Conference on Computer Vision, pp.143-156, 2010. 

  20. J. Donahue, Y. Jia, O. Vinyals, J. Hoffman, N. Zhang, E. Tzeng, and T. Darrell, "DeCAF: A Deep Convolutional Activation Feature for Generic Visual Recognition," in arXiv preprint arXiv:1310.1531, 2013. 

  21. R. E. Fan, K. W. Chang, C. J. Hsieh, X. R. Wang, and C. J. Lin, "LIBLINEAR: A library for large linear classification," The Journal of Machine Learning Research, Vol.9, pp.1871-1874, 2008. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

BRONZE

출판사/학술단체 등이 한시적으로 특별한 프로모션 또는 일정기간 경과 후 접근을 허용하여, 출판사/학술단체 등의 사이트에서 이용 가능한 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로