최소 단어 이상 선택하여야 합니다.
최대 10 단어까지만 선택 가능합니다.
다음과 같은 기능을 한번의 로그인으로 사용 할 수 있습니다.
NTIS 바로가기감성과학 = Science of emotion & sensibility, v.21 no.1, 2018년, pp.59 - 70
이유미 (경일대학교 디자인학부) , 박선정 (한국과학기술원 산업디자인학과) , 석현정 (한국과학기술원 산업디자인학과)
With the breakthrough of speech recognition technology, conversational agents have become pervasive through smartphones and smart speakers. The recognition accuracy of speech recognition technology has developed to the level of human beings, but it still shows limitations on understanding the underl...
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
핵심어 | 질문 | 논문에서 추출한 답변 |
---|---|---|
사전 양해는 사용자들에게 어떤 영향을 미치는가? | 총 104명의 응답을 분석한 결과, 문헌조사를 토대로 한 우리의 예상과는 상반되는 결과를 얻었다. 사전 양해는 오히려 사용자에게 부정적인 인상을 주었으며, 특히 에이전트에 대한 신뢰도에 부정적인 영향을 주었다. 또한 오류 상황에서의 사과는 사용자가 느끼는 호감도나 신뢰도에는 유의미한 영향을 미치지 않았다. | |
시중의 대화형 에이전트는 어떤 것들이 있는가? | 음성인식 기술과 인공지능 기술의 발전으로 최근 몇 년 사이 대화형 에이전트(Conversational Agent)는 스마트폰, 인공지능 스피커 등을 통해 일상생활에 널리 보급되고 있다. Apple의 Siri, Google의 Google Now, Microsoft의 Cortana, Amazon의 Alexa, 삼성의 빅스비 등에 이르기까지 다양한 대화형 에이전트들이 등장하였으며, 이러한 에이전트들은 제품의 부가 기능이 아니라 운영 시스템을 작동하는 주 인터페이스로써 자리잡고 있다. Apple의 HomePod, Amazon의 Echo, Google의 Google Home, SKT의 누구, 네이버의 웨이브, KT의 기가지니 등에 이르기까지 국내외 주요 IT업체들은 대화형 에이전트를 탑재한 인공지능 스피커를 경쟁적으로 출시하고 있다. | |
사람들이 로봇 혹은 얼굴이 있는 가상 에이전트에 비해 대화형 에이전트를 단순한 기계로 인식하는 이유는 무엇인가? | 사람들은 로봇 혹은 얼굴이 있는 가상 에이전트는 보다 사람 같은 존재로 인식을 하는 반면 대화형 에이전트의 경우 단순한 기계에 가깝다고 느끼는 경향이 크게 나타났다. 이는 본 실험의 데모 동영상에 사용된 대화형 에이전트 및 사람들의 기존 인식 속의 대화형 에이전트가 단순한 외형을 갖고 있기 때문인 것으로 판단된다. 사람들이 대화형 에이전트를 기계에 가깝게 인식하였기 때문에 사전 양해나 사과와 같은 인간관계에 흔히 사용되는 사회적 전략들이 큰 영향력을 발휘하지 못하였다. |
Appel, J., von der Putten, A., Kramer, N. C., & Gratch, J. (2012). Does humanity matter? Analyzing the importance of social cues and perceived agency of a computer system for the emergence of social reactions during human-computer interaction. Advances in Human-Computer Interaction, 13(2012), 1-10. DOI: 10.1155/2012/324694
Bickmore, T., & Cassell, J. (2001). Relational agents: a model and implementation of building user trust. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, 396-403. DOI: 10.1145/365024.365304
Cassell, J. (2000). Embodied conversational interface agents. Communications of the ACM, 43(4), 70-78. DOI: 10.1145/332051.332075
Jarnow, J. (2016, April 8). Why our crazy-smart AI still sucks at transcribing speech. Retrieved from https://www.wired.com/2016/04/long-form-voice-transcription/
Lee, M. K., Kielser, S., Forlizzi, J., Srinivasa, S., & Rybski, P. (2010). Gracefully mitigating breakdowns in robotic services. Proceedings of the 5th ACM/IEEE International Conference on Human-robot Interaction, 203-210. DOI: 10.1145/1734454.1734544
Li, A. (2017). Google's speech recognition is now almost as accurate as humans. Retrieved from https://9to5google.com/2017/06/01/google-speech-recognition-humans/
Luger, E., & Sellen, A. (2016). "Like Having a Really bad PA": The Gulf between User Expectation and Experience of Conversational Agents. Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems, 5286-5297. DOI: 10.1145/2858036.2858288
Mennicken, S., Zihler, O., Juldaschewa, F., Molnar, V., Aggeler, D., & Huang, E. M. (2016). It's like living with a friendly stranger. Proceedings of the 2016 ACM International Joint Conference on Pervasive and Ubiquitous Computing, 120-131. DOI: 10.1145/2971648.2971757
Nass, C., & Moon, Y. (2000). Machines and mindlessness: social responses to computers. Journal of Social Issues, 56(1), 81-103. DOI: 10.1111/0022-4537.00153
Park, J.Y. (2007) Effects of the interaction with computer agents on users' psychological experiences. Science of Emotion & Sensibility, 10(2), 155-168.
Price, R. (2017). Microsoft's AI is getting crazily good at speech recognition. Retrieved from http://uk.businessinsider.com/microsofts-speech-recognition-5-1-error-rate-human-level-accuracy-2017-8
Purington, A., Taft, J. G., Sannon, S., Bazarova, N. N., & Taylor, S. H. (2017). "Alexa is my new BFF": Social roles, user satisfaction, and personification of the Amazon echo. Proceedings of the 2017 CHI Conference Extended Abstracts on Human Factors in Computing Systems, 2853-2859. DOI: 10.1145/3027063.3053246
Song, H.S., Kim, M.J., Jeong, S.H., Suk, H.J., Kwon, D.S., & Kim, M.S. (2008). The behavioral patterns of neutral affective state for service robot using video ethnography. Science of Emotion & Sensibility, 11(4), 629-636.
von der Putten, A. M., Kramer, N. C., Gratch, J., & Kang, S.-H. (2010). "It doesn't matter what you are!" Explaining social effects of agents and avatars. Computers in Human Behavior, 26(6), 1641-1650. DOI: 10.1016/j.chb.2010.06.012
Woods, S., Walters, M., Koay, K. L., & Dautenhahn, K. (2006). Comparing human robot interaction scenarios using live and video based methods: towards a novel methodological approach. In Proceedings of the 9th International Workshop on Advanced Motion Control. 750-755. DOI: 10.1109/AMC.2006.1631754
※ AI-Helper는 부적절한 답변을 할 수 있습니다.