$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

이용자 중심의 이미지 접근과 이용 분석을 통한 차세대 멀티미디어 검색 패러다임 요소에 관한 연구
Towards Next Generation Multimedia Information Retrieval by Analyzing User-centered Image Access and Use 원문보기

한국문헌정보학회지 = Journal of the Korean Society for Library and Information Science, v.51 no.4, 2017년, pp.121 - 138  

정은경 (이화여자대학교 사회과학대학 문헌정보학과)

초록
AI-Helper 아이콘AI-Helper

멀티미디어 정보환경의 발전과 다양한 요구를 지닌 정보이용자는 멀티미디어의 접근과 이용에 있어서 기존 정보검색 패러다임에서 중요시하지 않았던 요소를 사용하는 추세이다. 특히 이미지를 포함한 멀티미디어의 감정 접근과 이용은 다양한 정보환경에서 이루어지고 있다. 따라서 효율적으로 추상적 개념인 감정을 이용자에게 접근점으로 제공할 필요성이 증가한다. 본 연구는 감정으로 접근이 가능한 게티 이미지 뱅크의 이미지를 5가지 기본 감정으로 검색하여 부여된 색인어 총 22,675건을 추출하였다. 추출된 색인어는 전체감정, 긍정감정, 부정감정의 세 가지 데이터셋으로 구분하여 분석되었다. 분석을 위해서는 동시출현단어행렬로 작성되어 가중 네트워크와 군집화기법으로 시각화되었다. 분석결과를 살펴보면, 전체감정은 대분류로써 긍정감정, 부정감정, 가족의 3개 군집과 하위 20개의 군집으로 나타났다. 긍정감정은 10개의 군집이며, 부정감정은 10개의 군집으로 구성되었다. 이와 같은 가중 네트워크와 군집구성 분석을 통해, 세 가지 중요한 차세대 멀티미디어 검색을 위한 요소로 논의하였다. 첫째는 이미지 감정 표현을 위한 인물 색인어 특성이다. 둘째는 명시적 단어와 감정을 표현하는 함축적 단어와의 네트워크 구성을 통해서 상대적으로 색인이 용이한 명시적 단어만으로도 함축적 단어 추론 가능성이다. 셋째는 감정으로 표현하는 함축적 단어의 유사어/동의어로의 확장은 이용자 중심의 접근을 제공하는 측면에서 중요하다는 점이다.

Abstract AI-Helper 아이콘AI-Helper

As information users seek multimedia with a wide variety of information needs, information environments for multimedia have been developed drastically. More specifically, as seeking multimedia with emotional access points has been popular, the needs for indexing in terms of abstract concepts includi...

주제어

질의응답

핵심어 질문 논문에서 추출한 답변
시각적 요인은 어떤 요소와 밀접한 관련이 있는가? 이미지의 감정 요인으로 주로 인식되는 시각적 요인은 얼굴표정, 인물의 동작, 행위, 선, 행태, 크기 등의 조형적 요소와 밀접하게 관련되어 있다는 점을 제시하였다. 정은경(2014)은 정보 기술과 인터넷 환경의 발전으로 인해 감정과 같은 추상적 개념의 정보 접근이 필연적이며, 이미지의 감정색인을 위해 감정 색인어와 빈번하게 같이 출현하는 용어를 규명하고자 하였다.
이용자 제공 색인어는 어느 측면에서 다소 불완전한가? Matusiak(2006)은 이용자가 제공하는 소셜 태그와 전통적으로 이미지 색인 전문가가 부여하는 색인어를 비교 하여 이용자 제공 소셜 태그의 효용성을 분석하였다. 그 결과 이용자 제공 색인어는 정확성, 기술 수준, 일관성의 측면에 있어서 다소 불완전하다고 밝혔으나, 이용자 중심의 이미지 색인은 이용자가 사용하는 용어로 색인되어 있어 실제로 이용자에 의해서 사용되어 해당 이미지가 접근되어 이용될 수 있는 가능성이 높다고 제시하였다. 한편 Rorissa(2008)는 일련의 실험을 통해 이용자가 제공하는 이미지 태그의 특성을 밝혔다.
이미지의 의미적 간극을 해결하기 위한 세 가지 흐름은? 첫째, 이용자가 이미지를 어떻게 인식하고 접근하는지에 관한 이해를 증진시키려는 시도이며 (Matusiak 2006; Rorissa 2008; 2010; Chung and Yoon 2009; Ménard and Smithglass 2012; Stvilia, Jörgensen and Wu 2012), 둘째는 이용자가 왜 이미지를 이용하는지 목적에 대한 이해를 통해 검색 개선을 추구하고자 하는 시도들이 있다(McCay-Peet and Toms 2009; Chung and Yoon 2011; Choi 2010; Chung and Yoon 2013). 셋째는 차세대 멀티미디어의 가장 핵심 적인 요소 중의 하나로써 감정(sentiment) 접근과 이용이라고 볼 수 있다(Rho and Yeo 2013; Tao and Tan 2005; 정선영, 정은경 2014; 정은경 2014).
질의응답 정보가 도움이 되었나요?

참고문헌 (27)

  1. 이재윤. 2006. 지적 구조 분석을 위한 새로운 클러스터링 기법에 관한 연구. 정보관리학회지, 23(4): 215-231. (Lee, Jae-Yun. 2006. "A Novel Clustering Method for Examining and Analyzing the Intellectual Structure of a Scholarly Field." Journal of the Korean Society for Information Management, 23(4): 215-231.) 

  2. 이재윤. COOC ver 0.4 프로그램 [cited 2017. 10. 7.] (Lee, Jae-Yun. COOC ver 0.4 Software. [cited 2017. 10. 7.]) 

  3. 이재윤. WNET ver 0.4.1 프로그램 [cited 2017. 10. 7.] (Lee, Jae-Yun. WNET ver 0.4.1 Software. [cited 2017. 10. 7.]) 

  4. 정선영, 정은경. 2014. 이미지 감정색인을 위한 시각적 요인 분석에 관한 탐색적 연구. 한국문헌정보학회지, 48(1): 53-73. (Chung, SunYoung and Chung, EunKyung. 2014. "An Exploratory Investigation on Visual Cues for Emotional Indexing of Image." Journal of the Korean Society for Library and Information Science, 48(1): 53-73.) 

  5. 정은경. 2014. 이용자 반응 기반 이미지 감정 접근점 확장에 관한 연구. 한국비블리아학회지, 25(3): 101-118. (Chung, EunKyung. 2014. "An Expansion of Affective Image Access Points Based on Users' Response on Image." The Korean Biblia Society For Library and Information Science, 25(3): 101-118.) 

  6. Chang, S. L. and Lee, Y. 2001. "Conceptualizing Context and Its Relationship to the Information Behaviour in Dissertation Research Process." The New Review of Information Behavior Research, 2(November): 29-46. 

  7. Choi, Y. 2010. "Effects of Contextual Factors on Image Searching on the Web." Journal of the American Society for Information Science and Technology, 61(10): 2011-2028. 

  8. Chung, E. and Yoon, J. 2009. "Categorical and Specificity Differences between User-supplied Tags and Search Query Terms for Images. An Analysis of Flickr Tags and Web Image Search Queries." Information Research: An International Electronic Journal, 14(3): 403-430. 

  9. Chung, E. and Yoon, J. 2011. "Image Needs in the Context of Image Use: An Exploratory Study." Journal of Information Science, 37(2): 163-177. 

  10. Chung, E. and Yoon, J. 2013. "An Analysis of Image Use in Twitter Message." Journal of the Korean Biblia Society for Library and Information Science, 24(4): 75-90. 

  11. Connis, L. R., Ashford, A. J. and Graham, M. E. 2002. "Information Seeking Behavior in Image Retrieval: VISOR I Final Report." Art Libraries Journal, 27(2): 46-47. 

  12. Coutright, C. 2007. "Context in Information Behavior Research." The Annual Review of Information Science and Technology, 41(1): 273-306. 

  13. Fidel, R. 1997. "The Image Retrieval Task: Implications for the Design and Evaluation of Image Databases." The New Review Hypermedia and Multimedia, 3: 181-200. 

  14. Johnson, J. D. 2003. "On Contexts of Information Seeking." Information Processing and Management, 39: 735-760. 

  15. Knautz, K. and Stock, W. G. 2011. "Collective Indexing of Emotions in Videos." Journal of Documentation, 67(6): 975-994. 

  16. Matusiak, K. K. 2006. "Towards User-centered Indexing in Digital Image Collections." OCLC Systems & Services: International Digital Library Perspectives, 22(4): 283-298. 

  17. McCay-Peet, L. and Toms, E. 2009. "Image Use within the Work Task Model: Images as Information and Illustration." Journal of the American Society for Information Science and Technology, 60(12): 2416-2429. 

  18. Menard, E. and Smithglass, M. 2012. "Digital Image Description: a Review of Best Practices in Cultural Institutions." Library Hi Tech, 30(2): 291-309. 

  19. Rho, S. and Yeo, S. S. 2013. "Bridging the Semantic Gap in Multimedia Emotion/Mood Recognition for Ubiquitous Computing Environment." The Journal of Supercomputing, 65(1): 274-286. 

  20. Rorissa, A. 2008. "User-generated Descriptions of Individual Images versus Labels of Groups of Images: A Comparison using Basic Level Theory." Information Processing & Management, 44(5): 1741-1753. 

  21. Rorissa, A. 2010. "A Comparative Study of Flickr Tags and Index Terms in a General Image Collection." Journal of the American Society for Information Science and Technology, 61(11): 2230-2242. 

  22. St. Jean, B. et al. 2012. "An Analysis of the Information Behavior, Goals, and Intentions of Frequent Internet Users: Findings from Online Activity Diaries." First Monday, 17(2). [online] [cited 2017. 10. 5.] 

  23. Stvilia, B., Jorgensen, C. and Wu, S. 2012. "Establishing the Value of Socially-created Metadata to Image Indexing." Library and Information Science Research, 34(2): 99-109. 

  24. Tao, J. and Tan, T. 2005. "Affective Computing: A Review." Quoted in Tao, J., Tan, T. and Picard R.W. eds. 2005. "Affective Computing and Intelligent Interaction." In Proceedings of the 1st International Conference, ACII 2005, Beijing, October 22-24, 2005, Beijing. Heidelberg: Springer-Verlag. 

  25. Westman, S. and Oittinen, P. 2006. "Image Retrieval by End-users and Intermediaries in a Journalistic Work Context." In Proceedings of the 1st International Conference on Information Interaction in Context, October 18-20, 2006, Copenhagen: 102-110. 

  26. Yoon, J. 2006. "An Exploration of Needs for Connotative Messages during Image Search Process." Proceedings of the Association for Information Science and Technology, 43(1): 1-19. 

  27. Yoon, J. and O'Connor, B. 2010. "Engineering an Image-browsing Environment: Re-purposing Existing Denotative Descriptors." Journal of Documentation, 66(5): 750-774. 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로