$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

Triplet CNN과 학습 데이터 합성 기반 비디오 안정화기 연구
Study on the Video Stabilizer based on a Triplet CNN and Training Dataset Synthesis 원문보기

방송공학회논문지 = Journal of broadcast engineering, v.25 no.3, 2020년, pp.428 - 438  

양병호 (서보산전) ,  이명진 (한국항공대학교 항공전자정보공학부)

초록
AI-Helper 아이콘AI-Helper

영상 내 흔들림은 비디오의 가시성을 떨어뜨리고 영상처리나 영상압축의 효율을 저하시킨다. 최근 디지털 영상처리 분야에 딥러닝이 본격 적용되고 있으나, 비디오 안정화 분야에 딥러닝 적용은 아직 초기 단계이다. 본 논문에서는 Wobbling 왜곡 경감을 위한 triplet 형태의 CNN 기반 비디오 안정화기 구조를 제안하고, 비디오 안정화기 학습을 위한 학습데이터 합성 방법을 제안한다. 제안한 CNN 기반 비디오 안정화기는 기존 딥러닝 기반 비디오 안정화기와 비교되었으며, Wobbling 왜곡은 감소하고 더 안정적인 학습이 이루어지는 결과를 얻었다.

Abstract AI-Helper 아이콘AI-Helper

The jitter in the digital videos lowers the visibility and degrades the efficiency of image processing and image compressing. In this paper, we propose a video stabilizer architecture based on triplet CNN and a method of synthesizing training datasets based on video synthesis. Compared with a conven...

주제어

표/그림 (8)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 논문에서는 Lfeature과 Lpixel 대신에 homography를 GT로 사용하는 Ltrans를 제안한다. Wang은 Lfeature과 Lpixel이 학습된 homography를 이용해 unsteady 비디오 프레임을 변환하고 변환된 비디오 프레임과 GT로 입력된 비디오 프레임을 비교하는 간접적인 접근법으로 인해 학습에 한계가 있었다.
  • 본 논문에서는 Wobbling 왜곡을 경감시킬 수 있는 triplet 형태의 CNN 기반 비디오 안정화기 구조를 제안한다. 제안한 CNN 기반 비디오 안정화기가 좋은 성능을 보이기 위해서는 양질의 학습데이터가 필요하며, 학습을 위해 별도로 촬영할 필요가 없는 영상합성 기반 학습데이터 확보 방법을 제안한다.
  • Wang은 Lfeature과 Lpixel이 학습된 homography를 이용해 unsteady 비디오 프레임을 변환하고 변환된 비디오 프레임과 GT로 입력된 비디오 프레임을 비교하는 간접적인 접근법으로 인해 학습에 한계가 있었다. 본 논문에서는 homography를 직접 비교하여 학습함으로써 이러한 한계를 극복할 수 있다. 이를 위해서는 GT로 사용할 흔들림 보정을 위한 homography를 확보할 수 있어야 하는데 이는 다음 절에서 설명한다.
  • 본 논문에서는 triplet 네트워크 구조를 응용해 프레임간 차이를 유사하게 유지함으로써 wobbling 왜곡을 억제하는 비디오 안정화기 네트워크를 제안하고 실험을 통해 그 성능을 입증하였다.
  • )를 이용한 시간방향 손실함수를 도입했다. 본 논문에서는 여기에 추가로 history frame을 이용해 wobbling 왜곡을 제거하는 네트워크 구조와 손실함수를 제안한다. 시간방향 손실함수 구성 시 바로 이전 비디오 프레임만을 이용할 경우 Wobbling 왜곡 억제가 효과적이지 못하기 때문에 \(\tilde{F}_t\), \(\tilde{F}_{t-1}\), \(\tilde{F}_{t-2}\)를 입력으로 하는 그림 2의 3-branch 네트워크 구조를 제안한다.

가설 설정

  • 둘째, Darknet에 구현을 하기위해서는 loss함수에 대한 미분이 필요해 이 부분을 별도 계산하여 구현하였다. 마지막으로 Wang은 online 사용을 가정하여 online 예측 시 history 비디오 프레임에 발생하는 black border를 학습에 반영하기 위해 학습을 위해 history 비디오 프레임에 random black border를 삽입하였는데, 본 논문에서 이 과정은 적용하지 않았다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
스마트폰과 같은 소형/저가 장치에서 디지털 보정을 선택하는 이유는 무엇인가? 스마트폰과 같은 소형/저가 장치에서는 크기와 가격 등의 요소로 인해 디지털 보정을 채택한다. 종래의 DIS는 특징점이나 카메라 궤적 추적에 기반한 방식들인데, 많은 연산량과 영상 보정 성능의 한계가 존재한다[6-8,11].
기계적 보정은 무엇인가? 영상의 흔들림을 보정하는 기술은 기계적 보정, 광학적 보정, 전자적 보정, 디지털 보정(digital image stabilization; DIS) 등으로 나누어 볼 수 있다. 기계적 보정은 무게 추, gimbal 등의 기계 장치를 이용한 흔들림 보정 기술이다. 근래의 기계적 보정은 관성센서를 이용한 흔들림 추정과 actuator 구동을 통해 CCD (Charge-Coupled Device) 플랫폼을 움직여 흔들림을 보정한다.
아마추어들이 촬영하는 디지털 영상에서 가시성이 떨어지는 주요 원인은 무엇인가? 디지털 이미징 기기의 급격한 증가와 함께 아마추어들이 촬영하는 디지털 영상 또한 가파르게 증가하고 있다. 그런데 개인 저작 영상은 촬영 환경의 열악함과 촬영자의 미숙함 등으로 인해 가시성이 많이 떨어지는데, 손 떨림에 의해 유발된 영상의 흔들림이 가시성을 저하시키는 주요 요인으로 지적되고 있다[1]. 또한, 야외 레저활동 과정에서 액션 캠, 드론, 로봇 등으로 촬영한 영상은 필연적으로 흔들림이 발생하므로 이들 영상을 시청하거나 혹은 영상의 활용 시 흔들림 보정이 필요하다[2].
질의응답 정보가 도움이 되었나요?

참고문헌 (22)

  1. P. Rawat and J. Singhai, "Efficient Video Stabilization Technique for Hand Held Mobile Videos," International Journal of Signal Processing, Image Processing and Pattern Recognition, Vol. 6, No. 3, pp.17-32, Jun. 2013. 

  2. W. J. Freeman, Digital Video Stabilization with Inertial Fusion, Master's Thesis of Virginia Polytechnic Institute, VA, 2013. 

  3. F. L. Rosa et al., Optical Image Stabilization (OIS), White paper. STMicroelectronics, 2015. 

  4. S. Bayrak, Video Stabilization: Digital and Mechanical Approaches, Master's Thesis of Middle East Technical University, Ankara, Turkey, 2008. 

  5. M. J. Smith et al., "Electronic Image Stabilization using Optical Flow with Inertial Fusion," Proceeding of IEEE/RSJ International Conference on Intelligent Robots and Systems, Taipei, Taiwan, pp.1146-1153, 2010. 

  6. J. Xu et al., "Fast feature-based video stabilization without accumulative global motion estimation," IEEE Transactions on Consumer Electronics, Vol. 58, No. 3, pp. 993-999, Sep. 2012, https://ieeexplore.ieee.org/document/6311347. 

  7. B. Pinto and P. R. Anurenjan, "Video stabilization using Speeded Up Robust Features," Proceeding of International Conference on Communications and Signal Processing, Calicut, India, pp. 527-531, 2011. 

  8. S. Battiato et al., "SIFT Features Tracking for Video Stabilization," Proceeding of 14th International Conference on Image Analysis and Processing, Modena, Italy, pp. 825-830, 2007. 

  9. C. Harris and M. Stephens, "A combined corner and edge detector," Proceeding of Fourth Alvey Vision Conference, Manchester, England, pp. 147-151, 1988. 

  10. D. G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints," International Journal of Computer Vision, Vol. 60, No. 2, pp. 91-110, 2004, https://doi.org/10.1023/B:VISI.0000029664.99615.94. 

  11. K. Veon, Video Stabilization using SIFT Features, Fuzzy Clustering, and Kalman Filtering, Master's Thesis of University of Denver, Denver, CO, 2011. 

  12. M. A. Fischler and R. C. Bolles "Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography," Comm. ACM, Vol. 24, No. 6, pp. 381-395, Jun. 1981, https://doi.org/10.1145/358669.358692. 

  13. C. Yin et al., "Removing Dynamic 3D Objects from Point Clouds of a Moving RGB-D Camera," Proceeding of International Conference on Information and Automation, Lijiang, China, pp. 1600-1606, 2015. 

  14. K. He et al., "Deep Residual Learning for Image Recognition," Proceeding of Computer Vision and Pattern Recognition, Las Vegas, NV, pp. 770-778, 2016. 

  15. S. Zagoruyko and N. Komodakis, "Learning to Compare Image Patches via Convolutional Neural Networks," Proceeding of Computer Vision and Pattern Recognition, Apr. 2015. 

  16. E. Hoffer and N. Ailon, "Deep metric learning using Triplet network," Proceeding of Computer Vision and Pattern Recognition, Mar. 2015. 

  17. M. Jaderberg et al., "Spatial Transformer Networks," Proceeding of the 28th International Conference on Neural Information Processing Systems, Montreal, Canada, pp. 2017-2025, 2015. 

  18. M. Wang et al., "Deep Online Video Stabilization," arXiv, Feb. 2018. 

  19. J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, "You Only Look Once:Unified, Real-Time Object Detection," Proceeding of Computer Vision and Pattern Recognition, Las Vegas, NV, pp. 779-788, 2016. 

  20. H. Qu, L. Song, and G. Xue, "Shaking video synthesis for video stabilization performance assessment," Proceeding of Visual Communications and Image Processing, Kuching, Malaysia, pp. 1-6, 2013. 

  21. S.-P. Lu et al., "Synthesis of Shaking Video Using Motion Capture Data and Dynamic 3D Scene Modeling," Proceeding of 25th IEEE International Conference on Image Processing, Athens, Greece, pp. 1438-1442, 2018. 

  22. M. Grundmann, V. Kwatra, and I. Essa, "Auto-Directed Video Stabilization with Robust L1 Optimal Camera Paths," Proceeding of Computer Vision and Pattern Recognition, Colorado Springs, CO, pp. 225-232, 2011. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

GOLD

오픈액세스 학술지에 출판된 논문

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로