$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

[국내논문] 샷 경계검출 개선을 위한 칼라, 엣지, 옵티컬플로우 기반의 혼합형 알고리즘 구현
The Implementing a Color, Edge, Optical Flow based on Mixed Algorithm for Shot Boundary Improvement 원문보기

멀티미디어학회논문지 = Journal of Korea Multimedia Society, v.21 no.8, 2018년, pp.829 - 836  

박서린 (Dept. of IT Media Engineering, Duksung Women's University) ,  임양미 (Dept. of IT Media Engineering, Duksung Women's University)

Abstract AI-Helper 아이콘AI-Helper

This study attempts to detect a shot boundary in films(or dramas) based on the length of a sequence. As films or dramas use scene change effects a lot, the issues regarding the effects are more diverse than those used in surveillance cameras, sports videos, medical care and security. Visual techniqu...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 비디오파싱은 비정형적인 비디오대용량 데이터를 보다 계층적이고 구조적인 형태로 재구성하기 위한 기술로 비디오 데이터를 기본 구성 단위인 샷으로 분할하기 위한 비디오 분할 단계와 분할된 비디오의 특성을 추출하여 특징 정보를 사용하기 위한 비디오 색인 단계로 구분할 수 있다[1]. 본 연구에서 비디오 분할 목적은 영화나 드라마에 사용된 클라이맥스 편집 패턴을 분석하고자 연구된 단계이다. 기존의 영상 분할을 위한 방법들은 감시카메라나 스포츠 영상, 이미지 검색을 위해 개발된 것들이 주류를 이루고 있어, 영화나 드라마에서 사용되는 특수한 편집기법으로 인한 샷 경계 검출에 사용하기에는 적합하지 않은 부분이 많아 검출 효율성을 높이기 위한 개선에 초점을 두었다.
  • 감독들은 장면의 이해를 돕기 위해 규칙적인 영상기법을 사용하는데 샷사이즈의 변화, 촬영각도의 변화를 이용하여 관객들에게 단절된 샷들 간의 상관관계를 파악할 수 있도록 연출기획을 한다[4]. 본 연구에서는 감독들의 의도를 분석하기 이전에 샷 경계검출을 통해 샷들의 데이터를 자동 수집하기 위해 진행되었다. 본 논문의 구성은 2장에서 관련연구, 3장에서는 영화나 드라마와 같은 영상에서 샷 경계검출을 하는데 있어서 많이 발생하는 문제점을 제시하고 이에 대한 개선 방안에 대한 혼합히스토그램 기반의 샷 경계검출 방법에 대한 연구를 설명한다.
  • 본 연구에서는 하나의 시퀀스에 대한 분석을 위해 20분정도의 영화 영상(하나의 시퀀스 길이 정도가 됨)에서 클라이막스가 담아있는 의미적 장면을 추출하기 위한 목적으로 샷경계 검출을 하였다. 실험으로는 Fig.

가설 설정

  • 2) 엣지히스토그램 알고리즘은 Fig. 4에서 (a)밝은 이미지의 히스토그램과 (b) 어두운 이미지의 히스토그램이 동일함을 볼 수 있다. (c) 엣지이미지 하단과 같이 8개의 방향으로 분류하여 gradient vector field 구하며, 분류된 배열 값을 V1 에서부터 V8로 정의한다.
  • openCV에서 옵티컬플로우의 라이브러리 지원하고 있어 바운딩 박스(bounding box)는 ‘automatic_shot_boundary_ditection’ 모듈을 사용하여 구현한다. 해당 바운딩 박스를 추적하여 추적 성공이면, 샷이 바뀌지 않은 것이고 추적 실패이면 샷이 바뀐 것으로 가정하여 문제의 프레임을 최소화하는 과정을 더 거쳤다. Fig.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
샷 1개의 단위는 무엇인가? 1은 샷과 프레임 용어의 정의를 돕기 위해 시퀀스 1개를 기준으로 하여 설명한 영상연출기법의 개념이다. 시퀀스(sequence) 1개는 씬(scene: 작은 이야기)들이 2개 이상이 모인 단위, 씬 1개는 샷(shot)들이 2개 이상 모여 작은 이야기 단위, 샷 1개는 카메라가 하나의 장면을 끊지 않고 계속 촬영한 단위, 프레임은 1초당 움직이는 영상을 만들어내기 위한 정지 이미지 단위이다[3]. 한국 비디오 표준 NTSC 방식은 1초당 30프레임을 갖는다.
CNN을 이용하여 각각의 샷마다 태그(label)을 달아서 샷 경계검출의 문제점은 무엇인가? Wenjing Tong은 CNN을 이용하여 각각의 샷마다 태그(label)을 달아서 샷 경계검출을 하였다[13]. 히스토그램 방법보다 정확한 결과가 나올 수 있지만 각각의 샷마다 라벨을 달아야하기 때문에 라벨이 없는 샷에서는 샷 경계검출의 잘못된 결과가 나올 수 있다. 그 외에 옵티컬플로우 기반의 샷 경계검출을 하고 있으나, 이 방법은 현재의 샷 내에서 관심영역의 물체를 지정하여 그 영역 내에서 이동 물체의 특징점을 추출하고[14] 이것의 변화를 보는 것이라 장면이 변화하지 않고 물체만 이동하여 프레임 밖으로 나갔을 때도 장면전환이 이루어졌다고 판단하기 때문에 단순히 이 방법만을 사용하는 것은 영화나 드라마와 같은 상황에서 적절치 않다.
샷경계 검출 방법에는 무엇이 있는가? 샷경계 검출 방법에는 픽셀밝기에 근거한 방법(pixel-based method), 히스토그램 기반(histogrambased method), 이미지엣지 기반(image edge-based method), 옵티컬플로우(optical flow-based method), 딥러닝 기반(deep-based method) 등 다양한 방법들이 있다[5]. 픽셀 기반의 경우는 두 프레임 간의 픽셀 밝기 차이를 계산하여 차이가 가장 많이 난 곳을 샷 경계 특징점으로 결정하는 방법이다.
질의응답 정보가 도움이 되었나요?

참고문헌 (15)

  1. S.Y. Kim, A Study on Scene Change Detection Using Frame Similarity in Video, Master's Thesis of Yonsei University, 2003. 

  2. H.W. Yoo, D.S. Jang, and Y.K. Na, "Video Shot Boundary Detection Using Correlation of Luminance and Edge Information," Journal of Institute of Control, Robotics and Systems, Vol. 7, No. 4, pp. 304-308, 2001. 

  3. J.E. Eom, S.R. Park, and Y.M. Lim, "The System Design and Implementation for Detecting the Types of Shot Size," Proceeding of International Conference of the Korea Multimedia Society, Vol. 21, No. 1, pp. 968-969, 2018. 

  4. Y.M. Lim, "The Climax Expression Analysis Based on the Shot-List Data of Movies," Journal of Broadcast Engineering, Vol. 21, No. 6, pp. 965-976, 2016. 

  5. M.O. Huy, K.M. Kim and B.T. Jang, "Deep Learning based Video Story Learning Technology," Journal of Korea Multimedia Society, Vol. 20, No. 3, pp. 23-40, 2016. 

  6. G. Pal, D. Rudrapaul, S. Acharjee, R. Ray, S. Chakraborty, and N. Dey, "Video Shot Boundary Detection: A Review," Emerging ICT for Bridging the Future-Proceedings of the 49th Annual Convention of the Computer Society of India CSI, Vol. 2, pp. 119-127, 2015. 

  7. A. Nagasaka and Y. Tanaka, "Automatic Video Indexing and Full-Video Search for Object Appearances," Proceedings of the IFIP TC2/WG 2.6 Second Working Conference on Visual Database Systems II , pp. 113-127, 1991. 

  8. S.Y. Shin and P.S. Bae, "Video Browsing Using An Efficient Scene Change Detection in Telematics," Journal of Korea Society of Computer Information, Vol. 11, No. 4, pp. 147-154, 2006. 

  9. S.Y. Shin, "New Shot Boundary Detection Using Local $X^2$ -Histogram and Normalization," Journal of the Korea Society of Computer and Information, Vol. 12, No. 2, pp. 103-109, 2007. 

  10. S.H. Yoen and J.M. Kim, "Robust Illumination Change Detection Using Image Intensity and Texture," Journal of Korea Multimedia Society, Vol. 16, No. 2, pp. 169-179, 2013. 

  11. H.J. Zhang, A. Kankanhalli, and S.W. Smoliar, "Automatic Partitioning of Full-motion Video," Journal of Multimedia Systems, Vol. 1, No. 1, pp. 10-28, 1993. 

  12. A.M. Alattar, "Detecting and Compressing Dissolve Regions in Video Sequences with DVI Multimedia Image Compression Algorithm," Proceeding of International Symposium on Circuits and Systems, pp. 13-16, 1993. 

  13. J.H. Song, R. Sakong, and J.H. Nang, "A Video Shot Boundary Detection Method Based on Video Partition and Convolutional Neural Network," Proceeding of Korea Information Science Society, pp. 865-867. 2017. 

  14. J.S. Lee, M.H. Tak, S.K. Kim, B.J. Uoo and Y.H. Joo, "Identification and Tracking of Moving Objects Using Optical Flow Algorithm And Histogram," Journal of The Korean Institute of Electrical Engineers, Vol. 7. pp. 1436-1437, 2014. 

  15. The GitHub, https://github.com/uoip/KCFpy. (accessed Aug., 30 2018) 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

이 논문과 함께 이용한 콘텐츠

유발과제정보 저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로