$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

특징 지도를 이용한 중요 객체 추출
Extraction of Attentive Objects Using Feature Maps 원문보기

電子工學會論文誌. Journal of the Institute of Electronics Engineers of Korea. SP, 신호처리, v.43 no.5 = no.311, 2006년, pp.12 - 21  

박기태 (한양대학교 컴퓨터공학과) ,  김종혁 ((주)코디콤) ,  문영식 (한양대학교 컴퓨터공학과)

초록
AI-Helper 아이콘AI-Helper

본 논문에서는 컬러 영상에서 배경의 복잡도와 객체의 위치에 관계없이 영상 내에 존재하는 중요 객체를 자동으로 추출하는 방법을 제안한다. 제안하는 방법은 중요 객체를 추출하기 위해 에지(edge) 정보와 색상(color) 정보를 이용한 특징 지도를 사용한다. 또한, 효과적인 객체 추출을 위해서 참조 지도(reference map)를 제안한다. 참조 지도를 생성하기 위해서는 영상에서 사람의 시각에 두드러지게 구분되는 영역을 표현하는 특징 지도(feature map)를 먼저 생성한다. 그런 다음, 특징 지도들을 효과적으로 결합하여 배경의 영향을 최소화 하면서, 중요 객체가 존재할 확률이 높은 영역들을 포함하는 참조 지도를 생성한다. 특징 지도를 생성하기 위해서는 밝기 차 정보를 나타내는 에지와 YCbCr 컬러와 HSV 컬러 공간에서의 색상 성분을 사용하며, 특징 지도에 대한 생성 방법은 영상 내에서 밝기차이와 색상차이에 의해서 나타나는 경계 부분을 추출하는 방법을 사용한다. 최종적으로 중요 객체가 존재하는 영역을 나타내기 위해서 참조 지도와 특징 지도들을 결합한 결합 지도(combination map)를 생성한다. 결합 지도는 중요 객체의 외곽선 정보만을 표현하기 때문에, 객체 전체를 표현할 수 있는 객체 후보 영역을 추출하는데, 이를 위해서는 객체 후보 영역을 추출하기 위해서 convex hull 알고리즘을 사용한다. Convex hull 알고리즘에 의해서 추출된 영역은 여전히 배경 부분을 포함하고 있으므로, 영상 분할 방법을 적용하여 배경을 제거한 후 영상에서의 중요 객체를 추출한다. 제안한 알고리즘의 성능을 실험적으로 확인한 결과, 평균적으로 84.3%의 정확율과 81.3%의 재현율의 성능을 보였다.

Abstract AI-Helper 아이콘AI-Helper

In this paper, we propose a technique for extracting attentive objects in images using feature maps, regardless of the complexity of images and the position of objects. The proposed method uses feature maps with edge and color information in order to extract attentive objects. We also propose a refe...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 그리고 이 예제들을 통해서 Itti가 제안한 방법처럼 생성된 특징 지도들을 결합한 후 평균 영상을 이용하여 객체정보를 추출한다면, 배경의 영향을 많이 받을 수 있다는 것을 알 수 있다. 그러므로 본 논문에서는 배경의 영향을 최대한 줄이면서 객체를 표현할 수 있는 참조 지도에 대한 생성 방법을 제안한다.
  • 따라서 본 논문에서는 영상 분할 알고리즘을 이용하여 영상 내의 중요 객체 영역만을 추출하기 위한 방법을 제안한다. 영상 분할 알고리즘은 속도와 성능이 좋은 것으로 알려진 W&w의 영상 분할 기법을 사용한다囲.
  • 본 논문에서는 CbCr 맵의 다양한 색상을 표현해 주지 못한다는 단점을 보완하기 위해 인간의 색상 인식 작용과 유사하면서, 충분한 색상정보를 표현할 수 있는 HVS 색상 모델의 H(hue) 성분도 이용한다. 앞에서 설명한 에지 지도 및 Cb, Cr 색상 지도들과 동일한 과정으로 구성되며 식(4)의 방법으로 하나의 H 색상 지도를 생성한다.
  • 본 논문에서는 밝기 차이 값을 갖는 에지 정보를 이용하여 에지 지도를 생성한다. 영상의 에지 정보를 표현하기 위해서 소 벨(Sobel) 알고리즘을 사용한다.
  • 본 논문에서는 색상 지도를 생성하기 위해서 YCbCr 색상 모델에서 Cb와 Cr, 그리고 HSV 색상 모델에서 H 채널를 사용하여 색상 지도를 생성한다. 기존 방법에서는 빨간색(Red), 녹색 (Green), 파란색(Blue)의 RGB 색상 모델에 노란색(Yellow)을 추가로 정의하여 색상지도를 생성하였다网.
  • 방법을 제안하였다. 본 논문에서는 에지 지도와 두 종류의 색상 지도를 이용해 중요 객체를 추출하는 방법을 제안 하였으며, 배경의 영향을 줄이기 위해서 참조 지도와 결합 지도를 생성하는 방법을 제안하였다. 실험 결과 정확율이 84.
  • 본 논문에서는 영상에 대한 사전 정보 없이 영상의 배경의 복잡도나 객체의 위치, 그리고 객체의 수에 관계없이 영상 내에 존재하는 중요 객체를 자동적으로 추출하는 방법을 제안하였다. 본 논문에서는 에지 지도와 두 종류의 색상 지도를 이용해 중요 객체를 추출하는 방법을 제안 하였으며, 배경의 영향을 줄이기 위해서 참조 지도와 결합 지도를 생성하는 방법을 제안하였다.
  • 본 논문에서는 효과적인 중요 객체 영역을 추출하기 위해 참조 지도를 생성한 후 중요 객체 영역이 아닌 영역들을 제거한다. 이를 위해, 먼저 참조 지도를 8×8 크기의 서브 블록으로 나눠준다.
  • 본 논문은 영상에서 배경의 복잡도나 객체의 위치에 관계없이 중요 객체를 자동으로 추출하는 방법을 제안한다. 그림 1은 본 논문에서 제안한 알고리즘의 전반적인 순서도를 보여주고 있다.

가설 설정

  • 영상 분할 알고리즘은 속도와 성능이 좋은 것으로 알려진 W&w의 영상 분할 기법을 사용한다囲. 중요 객체 추출 방법은 객체 후보 영역에서 convex hull 경계선에 인접한 영역들을 배경 영역으로 가정하고 객체 후보 영역에서 제거한다. 이러한 방법은 객체 후보 영역이 객체를 포함하는 최소의 영역이므로 적용이 가능 하다.
본문요약 정보가 도움이 되었나요?

참고문헌 (19)

  1. Y. Rui and T.S.Huang, 'Image Retrieval : Current Techniques, Promising Directions, and Open Issues,' Jouranl of Visual Communication and Image Representation, vol. 10, pp.39-62, 1999 

  2. A.W.M Smeulders, M. Worring, S. Santini, A. Gupta, and R. Jain, 'Content Based Image Retrieval at The End of The Early Years,' IEEE Trans. Pattern Analysis and Machine Intelligence, vol.22, pp.1349-1380, Dec. 2000 

  3. S. Michael, 'Next Generation Web Searches for Visual Content,' IEEE Computer, pp.46-52, Nov. 2000 

  4. M. Flicker, H. Sawhneyy, W. Niblack, J. Ashley and P. Yanker 'Query by Image and Video Content: The QBIC System,' IEEE Computer Special Issue on Content Based Picture Retrieval System, Vol. 28, pp.23-32, 1995 

  5. W.Y. Ma and B.S. Manjunath 'Netra: A Tool-box for Navigating Large Image Database,' IEEE Conference on Image Processing, Vol. 1, pp.568-571, 1997 

  6. J. Smith and S. Chang 'VisualSEEK: A Fully Automated Content-Based Image Query System,' ACM Multimedia, pp.87-98, 1996 

  7. C. Carson, M. Thomas, S. Belongie, J.M. Hellerstein and J. Malik, 'Blobworld: A System for Region-based Image Indexing and Retrieval,' International Conference of Visual Information System, Vol. 3, pp.509-516, 1999 

  8. W. Osberger and A.J. Maeder, 'Automatic Identification of Perceptually Important Regions in An Image,' IEEE International Conference on Pattern Recognition, pp.701-704, 1998 

  9. J. Luo and A. Singhal, 'On Measuring Low Level Saliency in Photographic Images,' IEEE Conference on Computer Vision and Pattern Recognition, vol. 1, pp.84-89, 2000 

  10. C. M. Privitera and L.W Stark, 'Algorithms for Defining Visual Regions of Interest: Comparison with Eye Fixations,' IEEE Transaction on Pattern Analysis and Machine Intelligence, vol. 22, pp.970-982, Sep. 2000 

  11. J. Senders, 'Distribution of Attention in Static and Dynamic Scenes,' Proceedings of SPIE Human Vision and Electronic Imaging II, vol. 3016, pp.186-194, Feb. 1997 

  12. Y. Lu and H. Guo, 'Background Removal in Image Indexing and Retrieval,' Proceedings of 10th International Conference on Image Analysis and Processing, pp.933-938, Sep. 1999 

  13. Q. Huang, B. Dom, D. Steels, J. Ashely, and W. Niblack, 'Foreground background segmentation of color images by integration of multiple cues,' International Conference on Image Processing, vol. 1, pp.246-249, 1995 

  14. T. Tamaki, T. Yamamura, and N. Ohnishi, 'Image Segmentation and Object Extraction Based on Geometric Features of Regions,' SPIE Conference on Visual Communications and Image Processing, vol. 3653, pp.937-945, Jan. 1999 

  15. J. R. Serra and J. B. Subirana, 'Texture Frame Curves and Regions of Attention Using Adaptive Non-cartesian Networks,' Pattern Recognition, vol. 32, pp.503-515, Mar. 1999 

  16. L. Itti, C. Koch, and E. Niebur, 'A Model of Saliency-based Visual Attention for Rapid Scene Analysis,' IEEE Transaction on Pattern Analysis and Machine Intelligence, Vol.20, No. 11, pp.1254- 1259, 1998 

  17. A. M. Andrew, 'Another Efficient Algorithm for Convex Hulls in Two Dimensions,' Information Processing Letters, pp. 216-219, 1979 

  18. D. Wang, 'Unsupervised Video Segmentation Based on Watersheds and Temporal Tracking,' IEEE Transaction on Circuits and System for Video Technology, Vol. 2, pp.539-546, 1998 

  19. Y. Hu, X. Xie, W. Y Ma, L. T. Chia, and D. Rajan, 'Salient Region Detection Using Weighted Feature Maps Based on The Human Visual Attention Model,' Proceedings of the Fifth IEEE Pacific-Rim Corference on Multimedia, Vol. 2, pp.993-1000, 2004 

저자의 다른 논문 :

관련 콘텐츠

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로