$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

추천 에이전트의 설명 방식과 상세도에 따른 사용자 경험 차이에 관한 연구
A Study on the User Experience according to the Method and Detail of Recommendation Agent's Explanation Facilities 원문보기

한국콘텐츠학회논문지 = The Journal of the Korea Contents Association, v.20 no.8, 2020년, pp.653 - 665  

강찬영 (연세대학교 정보대학원 UX트랙) ,  김혁 (연세대학교 정보대학원 UX트랙) ,  강현민 (연세대학교 정보대학원 UX트랙)

초록
AI-Helper 아이콘AI-Helper

추천 에이전트의 활용이 활발해지면서 사용자에게 내부 논리를 설명할 수 없던 블랙박스 문제를 해결하는 방법으로 '설명 기능'이 주목을 받고 있다. 본 연구는 '설명 기능'의 유무에 따른 사용자 경험을 살펴보는 것에서 한 걸음 더 나아가 설명 방식과 상세도에 따라 어떠한 영향이 있는지 살펴보고자 한다. 설명 방식은 '에이전트가 특정 행동을 한 이유'를 설명하는 why 방식과 '특정 행동을 하지 않는 이유'를 설명하는 why not 방식으로 구분하였으며 상세도 조건은 상세도 높음/상세도 낮음으로 구분하였다. 연구 결과 why 설명 방식이 사용자의 투명성, 신뢰도, 만족도, 재사용 행동 의도에 긍정적인 영향을 주는 것을 발견하였으며, 상세도가 높을수록 심리적 반발에 대한 인식이 높아진다는 것을 확인하였다. 또한, 설명 방식과 상세도는 상호작용을 통해 '설명' 인식에 영향을 주었으며, 만족도와 추천 수용 의도에 영향을 준다는 경향성이 발견되었다. 본 연구는 사용자 경험에 긍정적인 영향을 주는 설명 방식과 적절한 상세도에 대해서 시사점을 제시하였으며, 설명 방식과 상세도의 상호작용을 통해 사용자 경험에 영향을 준다는 연구 결과를 통해, 추천 에이전트 맥락에서 설명 기능의 방식과 상세도를 결정하기 위해서는 세심한 주의가 필요하다는 제안을 하였다.

Abstract AI-Helper 아이콘AI-Helper

As the use of recommended agents has become more active, the "Explain Facilities" is drawing attention as a way to solve the black-box problem that could not explain internal logic to users. This study wants to look at how the description Method and Detail affects to user experience. The Explanation...

주제어

표/그림 (6)

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구는 사용자 경험에 긍정적인 영향을 주는 적절한 설명 상세도를 발견하기 위하여 설명 상세도를 높고 낮음으로 구분하고자 한다. 높음 조건에서는 에이전트 행동의 원인과 예시를 들어 설명하고 낮음 조건에서는 에이전트 행동의 원인만을 설명하는 조건으로 구성하여 사용자 경험에 어떤 차이가 있는지 살펴보고자 한다.
  • 챗봇은 채팅(Chatting)과 로봇(Robot)의 합성어로, 인공지능 기술을 적용한 로봇과 사람이 상호작용 할 수 있는 시스템을 의미한다[5]. 따라서 본 논문에서 역시 추천 에이전트의 역할을 하는 챗봇과 사용자의 상호작용 맥락에서 연구를 진행하고자 한다. 추천 에이전트에 관한 선행연구들을 살펴보면 추천 성공률을 높이기 위한 알고리즘이나 추천 정확도 등에 관한 연구가 활발히 진행되고 있다.
  • 또한, 본 연구에서는 ‘설명 상세도’에 따라 사용자는 어떠한 영향을 받는지 그리고 설명 방식과 설명 상세도에서 상호작용 효과가 발견되는지 검증해보고자 한다.
  • 추천 에이전트의 설명 방식은 선행연구에 따라 ‘에이전트가 왜 그러한 행동을 하는지’(why), ‘에이전트가 왜 특정 행동을 하지 않는지’(why not)로 구분하였다. 또한, 설명 상세도가 높을수록 사용자 경험에 긍정적인 영향을 주는 것이 아니라 적절한 상세도가 필요하다[13]는 선행연구 결과를 참고하여 why/why not 설명 방식에 따라 적절한 설명 상세도에 차이가 있는지, 설명 상세도를 높음/낮음으로 구분하여 설명 상세도에 따라 사용자 경험에 차이가 발생하는지 살펴보고자 한다.
  • 첫째, 신뢰와 투명도 평가에 정적인 영향을 미치는 변인으로 사용자가 추천 에이전트의 설명을 인지했는지를 의미하는 설명(Explanation), 둘째, 추천 에이전트의 설명을 사용자가 이해할 수 있는지를 파악하는 투명성(Transparency), 셋째, 추천 에이전트가 선택의 폭을 제한하고 자유를 위협한다고 느끼는 정도를 파악하기 위한 심리적 반발(Psychological reactance). 또한, 신뢰도, 만족도, 재사용 행동 의도, 추천 수용 의도를 조사하여 전반적인 사용자 경험을 파악하고자 한다. 추천 에이전트의 설명 방식은 선행연구에 따라 ‘에이전트가 왜 그러한 행동을 하는지’(why), ‘에이전트가 왜 특정 행동을 하지 않는지’(why not)로 구분하였다.
  • 따라서 너무 높은 상세도의 설명이 심리적 반발을 유발하고 사용자 경험 전반에 부정적인 영향을 미치지 않는지 실증적인 연구가 필요한 상황이다. 본 연구는 사용자 경험에 긍정적인 영향을 주는 적절한 설명 상세도를 발견하기 위하여 설명 상세도를 높고 낮음으로 구분하고자 한다. 높음 조건에서는 에이전트 행동의 원인과 예시를 들어 설명하고 낮음 조건에서는 에이전트 행동의 원인만을 설명하는 조건으로 구성하여 사용자 경험에 어떤 차이가 있는지 살펴보고자 한다.
  • 본 연구는 추천 에이전트 맥락에서 설명 방식과 상세도에 따라 사용자 경험이 어떠한 영향을 받는지 구체적으로 파악하고 이를 실증적으로 검증해보고자 하였다. 설명 상세도는 에이전트 행동의 원인만을 제시하는 ‘낮음’ 집단과 에이전트 행동의 원인과 예시를 제공하는 ‘높음’ 집단으로 구분되었으며, 설명 방식은 ‘왜 에이전트가 특정 행동을 했는가’를 설명하는 방식(why)과 ‘왜 에이전트가 특정 행동을 하지 않았는가’를 설명하는 방식(why not)으로 구분하여 2x2 혼합설계 연구를 진행하였다.
  • 본 연구에서는 단순히 설명 기능의 유무에 따라 사용자 경험이 어떤 변화를 일으키는지 살펴보는 것이 아니라, 어떻게 설명을 하는 것이 긍정적인지, 얼마나 자세히 설명하는 것이 효과적인지 살펴보고자 한다. 이를 위해 설명 기능의 방식과 상세도가 사용자 경험에 어떠한 영향을 주는지 실증적인 연구방법을 통해 알아보고자 하였다.
  • 다섯째, 실험의 시나리오가 해외 여행지 추천으로 제한되었다. 본 연구에서는 사용자의 특성과 도메인 지식 수준에 따라 다른 설명이 필요하다는 선행연구 결과를 참고하여 참가자 간의 차이를 최소화하고자 해외 여행지 추천을 실험 처치물로 활용하였다[12]. 따라서 본 연구의 결과를 모든 분야에 적용하기에는 무리가 있다.
  • 추천 수용 의도(Intention to Adopt Recommendation)는 사용자가 추천 결과를 받아들일 의지를 확인할 수 있는 개념으로서[18], 온라인 쇼핑 맥락에서는 해당 제품을 구매할 것인지 판단하기 위해 구성된 문항이다. 본 연구에서는 추천 에이전트가 만들어낸 추천 결과를 받아들이고 향후 활용할 용의가 있는지 물어보는 것을 통해 사용자가 추천 결과를 받아들이려는 의도를 조사하고자 하였다. 따라서, ‘나는 추천된 여행지에 가보고 싶다.
  • 재사용 행동 의도(Behavioral Intention to Use)는 에이전트 사용 혹은 추천 결과의 제품 구매라는 사용자 의사결정에 영향을 주는지 판단할 수 있는 사용자의 태도를 의미한다[16]. 본 연구에서는 추천 에이전트에 관한 사용자의 태도 중 제품의 구매 측면이 아닌 에이전트를 다시 사용할 것인지를 알아보고자 하였다. 따라서 ‘나는 미래에 이런 유형의 추천 시스템을 선호할 것이다.
  • 본 연구에서는 추천 에이전트와 사용자가 상호작용하는 맥락에서 설명 기능의 방식과 상세도가 사용자 경험에 어떤 영향을 미치는지 실증적으로 살펴보고자 한다. 본 논문에서 살펴본 사용자 경험의 요인은 다음과 같다.
  • 본 연구에서는 단순히 설명 기능의 유무에 따라 사용자 경험이 어떤 변화를 일으키는지 살펴보는 것이 아니라, 어떻게 설명을 하는 것이 긍정적인지, 얼마나 자세히 설명하는 것이 효과적인지 살펴보고자 한다. 이를 위해 설명 기능의 방식과 상세도가 사용자 경험에 어떠한 영향을 주는지 실증적인 연구방법을 통해 알아보고자 하였다. 설명 방식은 ‘에이전트가 특정 행동을 한 이유’를 설명하는 why 방식과 ‘에이전트가 특정 행동을 하지 않은 이유’를 설명하는 why not 방식으로 구분하였으며, 설명 상세도는 ‘에이전트 행동의 원인’만을 설명하는 낮은 설명 상세도 조건과 원인과 ‘에이전트 행동 결과의 예시’를 설명하는 높은 설명 상세도 조건으로 구분하였다.
  • 따라서 본 연구의 결과를 모든 분야에 적용하기에는 무리가 있다. 하지만 본 연구에서는 추천 결과에 대한 만족도를 조사한 것이 아니라 설명 방식과 수준에 따른 사용자 경험 변화에 집중하여 살펴보았다. 따라서, 해당 분야의 사용자 특성을 고려한다면 충분한 시사점을 제공할 수 있다.

가설 설정

  • 본 연구는 챗봇을 통해 해외 여행지를 추천받는 상황을 가정하여 진행되었으며, 실제 온라인 상황을 반영하고자 온라인 환경에서 실험을 시행하였다. 또한, 현실과 유사한 실험환경 구성을 위해 구글 사이트 도구를 활용하여 가상의 홈페이지를 제작하여 활용하였고, 챗봇은 단비(Danbee Ai)를 활용하여 사용자와 챗봇이 자유롭게 대화하는 경험이 가능하도록 구현하였다.
  • 셋째, 실험에서 사용된 설명 방식이 한정되어 있다는 것이다. 본 연구에서는 선행연구에 따라 사용자의 why 질문에 답할 수 있는 두 가지 설명 방식(why/why not)을 사용하였다.
  • 아시아나 항공의 ‘아론’, 삼성 카드의 ‘샘’과 같이 에이전트에게 특정한 이름을 부여하는 것을 고려하여, 본 논문에서는 why 방식으로 설명하는 챗봇의 이름을 ‘레보’, why not 방식의 챗봇을 ‘토니’로 명명하였다. 챗봇과의 대화 시나리오는 온라인에서의 추천 상황의 현실성과 사용자의 과거 경험에 따라 평가가 달라지는 경향을 최소화하기 위해 해외 여행지를 추천받는 상황을 가정하였으며, 사용자들이 가보았을 법한 유명 여행지는 선택지에서 제외하였다. 설명 상세도를 높음/낮음으로 나누어 참가자 집단을 구분하였으며, 각 집단에 따라 why 방식과 why not 방식의 챗봇을 모두 경험하는 2X2 혼합 설계로 실험을 구성하였다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
추천 에이전트가 하는 역할은 무엇인가? 추천 에이전트(Recommendation Agents)는 사용자의 요구, 선호도, 인적사항, 과거 활동 등을 기반으로 조언을 제공하는 소프트웨어로 정의된다[1]. 또한, 온라인 소비 상황에서 일련의 단계를 거쳐 사용자의 의사결정 과정에 도움을 주는 도구로 활용되고 있다. 즉, 추천 에이전트는 과도한 정보로 인해 발생하는 구매자의 노력을 감소시키고 결정의 질을 향상하며, 제품 선택 확신에 긍정적인 영향을 주는 역할을 하고 있다[2]. 이러한 추천 에이전트는 현재 해외 아마존(Amazon)뿐 아니라 국내 아시아나 항공, 삼성 카드 등 다양한 산업 환경에서 활용되고 있다.
챗봇은 무엇인가? 이러한 추천 에이전트는 온라인 쇼핑, 미디어 콘텐츠 추천 등 다양한 분야에서 활용되고 있는데 주로 ‘챗봇’(Chat Bot)의 형태로 추천 에이전트를 형상화하여 사용자와 직접 대화하고 적합한 추천을 제공하는 형태가 대중적으로 활용되고 있다. 챗봇은 채팅(Chatting)과 로봇(Robot)의 합성어로, 인공지능 기술을 적용한 로봇과 사람이 상호작용 할 수 있는 시스템을 의미한다[5]. 따라서 본 논문에서 역시 추천 에이전트의 역할을 하는 챗봇과 사용자의 상호작용 맥락에서 연구를 진행하고자 한다.
투명도는 어떤 용도로 활용되고 있는가? 투명도란 추천 에이전트를 활용하는 사용자의 신뢰에 영향을 미치는 요인으로, 추천 결과가 생성된 이유를 설명하는 에이전트의 능력을 뜻한다. 또한, 추천 에이전트의 설명 기능이 사용자가 이해할 수 있는지 파악하기 위한 척도로 활용되고 있다[14]. Kizilcec(2016)은 시스템 투명도를 3가지 수준으로 조작하여 신뢰에 어떠한 영향을 미치는지 살펴보는 실험을 진행하였다.
질의응답 정보가 도움이 되었나요?

참고문헌 (21)

  1. 박원우, 구자록, "물품 유사도 기반의 추천 에이전트 시스템," 한국정보과학회 영남지부 학술발표논문집, 제12권, 제1호, pp.219-224, 2004. 

  2. A. Ansari, S. Essegaier, and R. Kohli, "Internet recommendation systems," Journal of Marketing Research, Vol.37, No.3, pp.363-375, 2000. 

  3. H. Johnson and P. Johnson, "Explanation facilities and interactive systems," In Proceedings of the 1st international conference on Intelligent user interfaces, ACM, pp.159-166, 1993. 

  4. W. Wang and I. Benbasat, "Recommendation agents for electronic commerce: Effects of explanation facilities on trusting beliefs," Journal of Management Information Systems, Vol.23, No.4, pp.217-246, 2007. 

  5. 변성혁, 조창환, "SAI 금융 챗봇 추천 메시지의 의인화와 개인화 수준이 고객 반응에 미치는 영향," 광고홍보학보, 제22권, 제2호, pp.466-502, 2020. 

  6. 김재경, 안도현, 이희애, "설명기능을 추가한 협업필터링 기반 개인별 상품추천시스템: WebCF-Exp," 한국지능정보시스템학회 학술대회논문집, pp.99-108, 2004. 

  7. T. Buchanan, C. Paine, A. N. Joinson, and U. D. Reips, "Development of measures of online privacy concern and protection for use on the Internet," Journal of the American society for information science and technology, Vol.58, No.2, pp.157-165, 2007. 

  8. C. Nugent and P. Cunningham, "A case-based explanation system for black-box systems," Artificial Intelligence Review, Vol.24, No.2, pp.163-178, 2005. 

  9. 강찬영, 최기은, 강현민, "대화형 에이전트의 설명 기능과 프라이버시 염려 수준에 따른 사용자 경험 차이에 관한 연구," 한국콘텐츠학회논문지, 제20권, 제2 호, pp.203-214, 2020. 

  10. A. Richardson and A. Rosenfeld, "A survey of interpretability and explainability in human-agent systems," In XAI Workshop on Explainable Artificial Intelligence, pp.137-143, 2018. 

  11. J. Zhang and S. P. Curley, "Exploring explanation effects on consumers' trust in online recommender agents," International Journal of Human-Computer Interaction, Vol.34, No.5, pp.421-432, 2018. 

  12. M. Ribera and A. Lapedriza, "Can we do better explanations?," A proposal of user-centered explainable AI. In IUI Workshops, 2019. 

  13. R. F. Kizilcec, "How much information? Effects of transparency on trust in an algorithmic interface," In Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems, pp.2390-2395, 2016. 

  14. M. Nilashi, D. Jannach, O. bin Ibrahim, M. D. Esfahani, and H. Ahmadi, "Recommendation quality, transparency, and website quality for trust-building in recommendation agents," Electronic Commerce Research and Applications, Vol.19, pp.70-84, 2016. 

  15. 하대권, 성용준, "선택에 관여하는 인공지능이 사용자 평가에 미치는 영향," 한국심리학회지: 소비자.광고, 제20권, 제1호, pp.55-83, 2019. 

  16. J. L. Hebrado, H. J. Lee, and J. Choi, "Influences of Transparency and Feedback on Customer Intention to Reuse Online Recommender Systems," Journal of Society for e-Business Studies, Vol.18, No.2, 2013. 

  17. S. Lee and J. Choi, "Enhancing user experience with conversational agent for movie recommendation: Effects of self-disclosure and reciprocity," International Journal of Human-Computer Studies, Vol.103, pp,95-105, 2017. 

  18. J. Zhang and S. P. Curley, "Exploring explanation effects on consumers' trust in online recommender agents," International Journal of Human-Computer Interaction, Vol.34, No.5, pp.421-432, 2018. 

  19. 최서원, 남재현, "SW 교육 보조 도구로서의 AI 챗봇활용," 한국정보통신학회논문지, 제23권, 제12호, pp.1693-1699, 2019. 

  20. J. P. Dillard and L. Shen, "On the nature of reactance and its role in persuasive health communication," Communication Monographs, Vol.72, No.2, pp.144-168, 2005. 

  21. A. B. Arrieta, N. Diaz-Rodriguez, J. Del Ser, A. Bennetot, S. Tabik, A. Barbado, and R. Chatila, "Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI," Information Fusion, Vol.58, pp.82-115, 2020. 

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로