$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

대화형 에이전트의 오류 상황에서 사회적 전략 적용: 사전 양해와 사과를 이용한 사례 연구
Applying Social Strategies for Breakdown Situations of Conversational Agents: A Case Study using Forewarning and Apology 원문보기

감성과학 = Science of emotion & sensibility, v.21 no.1, 2018년, pp.59 - 70  

이유미 (경일대학교 디자인학부) ,  박선정 (한국과학기술원 산업디자인학과) ,  석현정 (한국과학기술원 산업디자인학과)

초록
AI-Helper 아이콘AI-Helper

음성인식 기술의 비약적 발전으로 최근 몇 년 사이 대화형 에이전트는 스마트폰, 인공지능 스피커 등을 통해 널리 보급되었다. 음성인식 기술의 인식의 정확도는 인간의 수준까지 발전하였으나, 여전히 말의 의미나 의도를 파악하는 것과 긴 대화를 이해하는 것 등에는 한계를 보이고 있다. 이에 따라 사용자는 대화형 에이전트를 사용함에 있어 다양한 오류 상황들을 경험하고 있으며 이는 사용자 경험에 부정적인 영향을 미칠 수 있다. 또한, 목소리를 주 인터페이스로 하는 인공지능 스피커의 경우, 대화형 에이전트의 기능 및 한계에 대한 피드백의 부족은 지속적 사용을 저해하는 요소로 꼽히고 있다. 따라서 사용자가 대화형 에이전트의 기능 및 한계를 보다 잘 이해하고 오류 상황에서 부정적인 감정을 완화할 수 있는 방안에 대한 연구에 대한 필요성이 높으나, 아직 관련 연구는 미비한 실정이다. 이에 본 연구에서는 사회적 전략 중 '사전 양해'와 '사과'를 대화형 에이전트에 적용하고 이러한 전략이 사용자가 에이전트에 대해 느끼는 인식에 어떠한 영향을 미치는지 조사하였다. 이를 위해 사전 양해와 사과 여부를 나누어 사용자가 대화형 에이전트와 대화하는 데모 영상을 제작하였고, 실험참가자들에게 영상을 보여준 뒤 느끼는 호감도와 신뢰도를 설문을 통해 평가하도록 하였다. 총 104명의 응답을 분석한 결과, 문헌조사를 토대로 한 우리의 예상과는 상반되는 결과를 얻었다. 사전 양해는 오히려 사용자에게 부정적인 인상을 주었으며, 특히 에이전트에 대한 신뢰도에 부정적인 영향을 주었다. 또한 오류 상황에서의 사과는 사용자가 느끼는 호감도나 신뢰도에는 유의미한 영향을 미치지 않았다. 심층인터뷰를 통해 원인을 파악한 결과, 실험참가자들은 인공지능 스피커를 사람과 같은 인격체보다는 단순한 기계에 가깝다고 인식했기 때문에 인간관계에 작용하는 사회적 전략이 영향력을 발휘하지 못한 것으로 해석된다. 이러한 결과는 사용자가 에이전트를 얼마나 기계, 혹은 사람에 가깝게 인식하는지에 따라 오류 상황에 대한 에이전트의 대처 방식 또한 달라져야 함을 보여준다.

Abstract AI-Helper 아이콘AI-Helper

With the breakthrough of speech recognition technology, conversational agents have become pervasive through smartphones and smart speakers. The recognition accuracy of speech recognition technology has developed to the level of human beings, but it still shows limitations on understanding the underl...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 그 방안으로써 이전의 서비스 로봇의 연구를 통해 사용자에 미치는 효과가 검증된 방식인 ‘사전 양해’와 ‘사과’를 대화형 에이전트에 적용하여 그 효과를 검증하고자 한다.
  • 본 실험에서는 대화형 에이전트의 한계에 대한 사전 양해와 오류 상황에서의 정중한 사과가 사용자의 에이전트에 대한 호감도 및 신뢰도에 미치는 영향을 탐색하고자 하며, 이를 위해 설문조사와 심층인터뷰를 실시하였다.
  • 본 연구는 기술적 측면에서 오류 상황을 줄이기 위한 연구가 아니라, 현재의 기술적 한계로 인해 어쩔 수 없이 발생할 수밖에 없는 오류 상황에 대해 대처하는 방안에 대한 연구이다. 본 연구를 통해 사용자의 관점에서 대화형 에이전트에 대해 가지고 있는 기대와 실제 경험에 대하여 더 깊게 이해할 수 있을 것이다.
  • 본 연구는 대화형 에이전트의 오류 상황에 대한 사전 양해가 사용자의 에이전트에 대한 인식에 미치는 영향을 이해하고, 오류 상황에서의 정중한 사과가 사용자의 부정적 감정 완화에 미치는 영향을 검증하는 것을 목적으로 진행하였다. 총 104명을 대상으로 한 설문조사 결과, 에이전트의 사전 양해 여부는 에이전트의 호감도에는 영향을 미치지 않지만 신뢰도에는 크게 영향을 미쳤고, 에이전트의 오류 상황 이후 정중한 사과 여부는 에이전트의 호감도와 신뢰도에 영향을 미치지 않음을 발견할 수 있었다.
  • 본 연구는 대화형 에이전트의 오류 상황에 대한 사전 양해가 사용자의 에이전트에 대한 인식에 미치는 영향을 이해하고, 오류 상황에서의 정중한 사과가 사용자의 부정적 감정 완화에 미치는 영향을 검증하는 것을 목적으로 한다. 이 연구의 가설은 다음과 같으며, 이 가설은 문헌 연구 결과를 통해 도출하였다.
  • 본 연구는 사람과 사람 간의 상호작용에서 적용되는 사회적 전략을 사람과 대화형 에이전트 간의 상호작용에 적용시키고 그 효과를 검증하고자 하는 연구이다. HCI 분야에서는 컴퓨터를 사회적 행위자(social actor)로 인식하고 컴퓨터와 사람과의 관계에 어떠한 사회적 전략을 적용할 수 있는지에 대한 수많은 연구가 이루어져 왔다.
  • 하지만 대화형 에이전트에 대한 높은 관심에도 불구하고 관련 연구는 아직 매우 미흡한 실정이다. 본 연구에서는 사용자가 대화형 에이전트의 기능과 한계를 잘 이해할 수 있도록 돕고, 오류 상황에서 사용자의 부정적 감정을 완화할 수 있는 방안에 대해 탐색하고자 한다. 그 방안으로써 이전의 서비스 로봇의 연구를 통해 사용자에 미치는 효과가 검증된 방식인 ‘사전 양해’와 ‘사과’를 대화형 에이전트에 적용하여 그 효과를 검증하고자 한다.
  • 실험참가자들의 응답을 토대로 대화형 에이전트의 한계에 대한 사전 양해와 오류 상황에서의 에이전트의 정중한 사과가 에이전트에 대한 호감도와 신뢰도에 미치는 영향을 분석하고자 하였다. 이를 위해 먼저 실험참가자들의 설문 응답을 정량적으로 분석하여 사전 양해와 사과가 미치는 영향 정도를 파악하고자 하였으며, 이어진 심층 인터뷰를 통해 정량적 데이터가 의미하는 바를 구체적으로 이해하고자 하였다.
  • 이에 본 연구에서는 대화형 에이전트의 오류 상황에 주목하여 사람과 사람사이에 작용하는 사회적 전략 중, 서비스 로봇 연구(Lee et al., 2010)를 통해 검증된 방식인 ‘사전 양해’와 ‘정중한 사과’를 대화형 에이전트에 적용하여 그 효과를 사용자 평가를 통해 검증하고자 한다.

가설 설정

  • 가설 1: 대화형 에이전트의 발생 가능한 오류 상황에 대한 사전 양해는 사용자가 에이전트에 대해 느끼는 호감도와 신뢰도에 긍정적인 영향을 줄 것이다.
  • 가설 2: 오류 상황에서 대화형 에이전트의 정중한 사과는 사용자가 에이전트에 대해 느끼는 부정적 감정을 완화하는데 긍정적인 영향을 끼칠 것이다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
사전 양해는 사용자들에게 어떤 영향을 미치는가? 총 104명의 응답을 분석한 결과, 문헌조사를 토대로 한 우리의 예상과는 상반되는 결과를 얻었다. 사전 양해는 오히려 사용자에게 부정적인 인상을 주었으며, 특히 에이전트에 대한 신뢰도에 부정적인 영향을 주었다. 또한 오류 상황에서의 사과는 사용자가 느끼는 호감도나 신뢰도에는 유의미한 영향을 미치지 않았다.
시중의 대화형 에이전트는 어떤 것들이 있는가? 음성인식 기술과 인공지능 기술의 발전으로 최근 몇 년 사이 대화형 에이전트(Conversational Agent)는 스마트폰, 인공지능 스피커 등을 통해 일상생활에 널리 보급되고 있다. Apple의 Siri, Google의 Google Now, Microsoft의 Cortana, Amazon의 Alexa, 삼성의 빅스비 등에 이르기까지 다양한 대화형 에이전트들이 등장하였으며, 이러한 에이전트들은 제품의 부가 기능이 아니라 운영 시스템을 작동하는 주 인터페이스로써 자리잡고 있다. Apple의 HomePod, Amazon의 Echo, Google의 Google Home, SKT의 누구, 네이버의 웨이브, KT의 기가지니 등에 이르기까지 국내외 주요 IT업체들은 대화형 에이전트를 탑재한 인공지능 스피커를 경쟁적으로 출시하고 있다.
사람들이 로봇 혹은 얼굴이 있는 가상 에이전트에 비해 대화형 에이전트를 단순한 기계로 인식하는 이유는 무엇인가? 사람들은 로봇 혹은 얼굴이 있는 가상 에이전트는 보다 사람 같은 존재로 인식을 하는 반면 대화형 에이전트의 경우 단순한 기계에 가깝다고 느끼는 경향이 크게 나타났다. 이는 본 실험의 데모 동영상에 사용된 대화형 에이전트 및 사람들의 기존 인식 속의 대화형 에이전트가 단순한 외형을 갖고 있기 때문인 것으로 판단된다. 사람들이 대화형 에이전트를 기계에 가깝게 인식하였기 때문에 사전 양해나 사과와 같은 인간관계에 흔히 사용되는 사회적 전략들이 큰 영향력을 발휘하지 못하였다.
질의응답 정보가 도움이 되었나요?

참고문헌 (15)

  1. Appel, J., von der Putten, A., Kramer, N. C., & Gratch, J. (2012). Does humanity matter? Analyzing the importance of social cues and perceived agency of a computer system for the emergence of social reactions during human-computer interaction. Advances in Human-Computer Interaction, 13(2012), 1-10. DOI: 10.1155/2012/324694 

  2. Bickmore, T., & Cassell, J. (2001). Relational agents: a model and implementation of building user trust. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, 396-403. DOI: 10.1145/365024.365304 

  3. Cassell, J. (2000). Embodied conversational interface agents. Communications of the ACM, 43(4), 70-78. DOI: 10.1145/332051.332075 

  4. Jarnow, J. (2016, April 8). Why our crazy-smart AI still sucks at transcribing speech. Retrieved from https://www.wired.com/2016/04/long-form-voice-transcription/ 

  5. Lee, M. K., Kielser, S., Forlizzi, J., Srinivasa, S., & Rybski, P. (2010). Gracefully mitigating breakdowns in robotic services. Proceedings of the 5th ACM/IEEE International Conference on Human-robot Interaction, 203-210. DOI: 10.1145/1734454.1734544 

  6. Li, A. (2017). Google's speech recognition is now almost as accurate as humans. Retrieved from https://9to5google.com/2017/06/01/google-speech-recognition-humans/ 

  7. Luger, E., & Sellen, A. (2016). "Like Having a Really bad PA": The Gulf between User Expectation and Experience of Conversational Agents. Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems, 5286-5297. DOI: 10.1145/2858036.2858288 

  8. Mennicken, S., Zihler, O., Juldaschewa, F., Molnar, V., Aggeler, D., & Huang, E. M. (2016). It's like living with a friendly stranger. Proceedings of the 2016 ACM International Joint Conference on Pervasive and Ubiquitous Computing, 120-131. DOI: 10.1145/2971648.2971757 

  9. Nass, C., & Moon, Y. (2000). Machines and mindlessness: social responses to computers. Journal of Social Issues, 56(1), 81-103. DOI: 10.1111/0022-4537.00153 

  10. Park, J.Y. (2007) Effects of the interaction with computer agents on users' psychological experiences. Science of Emotion & Sensibility, 10(2), 155-168. 

  11. Price, R. (2017). Microsoft's AI is getting crazily good at speech recognition. Retrieved from http://uk.businessinsider.com/microsofts-speech-recognition-5-1-error-rate-human-level-accuracy-2017-8 

  12. Purington, A., Taft, J. G., Sannon, S., Bazarova, N. N., & Taylor, S. H. (2017). "Alexa is my new BFF": Social roles, user satisfaction, and personification of the Amazon echo. Proceedings of the 2017 CHI Conference Extended Abstracts on Human Factors in Computing Systems, 2853-2859. DOI: 10.1145/3027063.3053246 

  13. Song, H.S., Kim, M.J., Jeong, S.H., Suk, H.J., Kwon, D.S., & Kim, M.S. (2008). The behavioral patterns of neutral affective state for service robot using video ethnography. Science of Emotion & Sensibility, 11(4), 629-636. 

  14. von der Putten, A. M., Kramer, N. C., Gratch, J., & Kang, S.-H. (2010). "It doesn't matter what you are!" Explaining social effects of agents and avatars. Computers in Human Behavior, 26(6), 1641-1650. DOI: 10.1016/j.chb.2010.06.012 

  15. Woods, S., Walters, M., Koay, K. L., & Dautenhahn, K. (2006). Comparing human robot interaction scenarios using live and video based methods: towards a novel methodological approach. In Proceedings of the 9th International Workshop on Advanced Motion Control. 750-755. DOI: 10.1109/AMC.2006.1631754 

저자의 다른 논문 :

LOADING...
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로