[학위논문]대화형 인공지능을 이용한 인터페이스의 의인화 수준이 사용자의 도덕적 판단에 미치는 영향: 어시스턴트 상황을 중심으로 The Effect of the Anthropomorphism Level of Interfaces Using Conversational Artificial Intelligence on Users' Moral Judgment원문보기
대화형 에이전트를 사람처럼 느끼게 하는 인터랙션 설계인 의인화는 긍정적인 사용자 경험 구축 목표에 긍정적 효과를 가질 것으로 전제하여 많은 연구가 축적되어 왔다. 그러나 대부분의 연구가 사용자가 느끼는 사용성과 친밀도에 따른 향후 이용 의도에 관해서만 이루어졌다는 데에서 한계를 갖는다. 대화형 ...
대화형 에이전트를 사람처럼 느끼게 하는 인터랙션 설계인 의인화는 긍정적인 사용자 경험 구축 목표에 긍정적 효과를 가질 것으로 전제하여 많은 연구가 축적되어 왔다. 그러나 대부분의 연구가 사용자가 느끼는 사용성과 친밀도에 따른 향후 이용 의도에 관해서만 이루어졌다는 데에서 한계를 갖는다. 대화형 인터페이스는 아직 인간처럼 가치판단을 하거나 유창한 대화를 할 수 있는 수준에는 이르지 못했기 때문에 다양한 도덕적 문제를 일으키는 경우가 발생하고 있다. 따라서 본 연구에서는 사용자가 AI 서비스에게 어떠한 양상으로 도덕적 귀인을 하는지, 그리고 AI 인터페이스의 의인화 수준에 따라 그 영향이 달라지는지 알아보고자 한다. 실험 1에서는 의인화 수준이 높을수록 대화형 AI 에이전트가 잘못에 대해 가지는 ‘책임’이 높다고 판단한다는 것을 밝혔다. 실험 2에서는 의인화 수준과 AI의 내집단 유무에 따른 도덕적 판단 과정의 차이를 알아보고자 하였으며, 높은 의인화 수준의 AI 챗봇이 저질러진 잘못에 대해 미리 알고 있었다고 판단한다는 사실을 밝혔다. 두 가지 실험을 통해 AI에 대한 도덕적 판단 과정에 영향을 미치는 요인을 탐색하고자 하였다.
대화형 에이전트를 사람처럼 느끼게 하는 인터랙션 설계인 의인화는 긍정적인 사용자 경험 구축 목표에 긍정적 효과를 가질 것으로 전제하여 많은 연구가 축적되어 왔다. 그러나 대부분의 연구가 사용자가 느끼는 사용성과 친밀도에 따른 향후 이용 의도에 관해서만 이루어졌다는 데에서 한계를 갖는다. 대화형 인터페이스는 아직 인간처럼 가치판단을 하거나 유창한 대화를 할 수 있는 수준에는 이르지 못했기 때문에 다양한 도덕적 문제를 일으키는 경우가 발생하고 있다. 따라서 본 연구에서는 사용자가 AI 서비스에게 어떠한 양상으로 도덕적 귀인을 하는지, 그리고 AI 인터페이스의 의인화 수준에 따라 그 영향이 달라지는지 알아보고자 한다. 실험 1에서는 의인화 수준이 높을수록 대화형 AI 에이전트가 잘못에 대해 가지는 ‘책임’이 높다고 판단한다는 것을 밝혔다. 실험 2에서는 의인화 수준과 AI의 내집단 유무에 따른 도덕적 판단 과정의 차이를 알아보고자 하였으며, 높은 의인화 수준의 AI 챗봇이 저질러진 잘못에 대해 미리 알고 있었다고 판단한다는 사실을 밝혔다. 두 가지 실험을 통해 AI에 대한 도덕적 판단 과정에 영향을 미치는 요인을 탐색하고자 하였다.
Anthropomorphism, an interactive design method that makes interactive AI agents be felt like human, has been explored by many studies assuming that it will have a positive effect on the goal of building a positive user experience. However, most studies have been made only for the future usage intent...
Anthropomorphism, an interactive design method that makes interactive AI agents be felt like human, has been explored by many studies assuming that it will have a positive effect on the goal of building a positive user experience. However, most studies have been made only for the future usage intentions based on usability and intimacy felt by users. Conversational AI interfaces can cause a variety of moral problems because they have not yet reached the level where they can judge values like human or have fluent conversations. Therefore, in this study, I want to find out the properties that can be used by users when they morally attributable to AI services, and how these properties’ effect can vary depends on the level of anthropomorphism of AI interfaces. In Experiment 1, I revealed that the higher the level of anthropomorphism, the higher the degree of responsibility to moral violations of interactive AI agents. In Experiment 2, I investigated whether the moral judgment process differs according to the group information of AI agent and the level of anthropomorphism. Through two experiments, I tried to explore factors that affect the users’ moral judgment process for AI.
Anthropomorphism, an interactive design method that makes interactive AI agents be felt like human, has been explored by many studies assuming that it will have a positive effect on the goal of building a positive user experience. However, most studies have been made only for the future usage intentions based on usability and intimacy felt by users. Conversational AI interfaces can cause a variety of moral problems because they have not yet reached the level where they can judge values like human or have fluent conversations. Therefore, in this study, I want to find out the properties that can be used by users when they morally attributable to AI services, and how these properties’ effect can vary depends on the level of anthropomorphism of AI interfaces. In Experiment 1, I revealed that the higher the level of anthropomorphism, the higher the degree of responsibility to moral violations of interactive AI agents. In Experiment 2, I investigated whether the moral judgment process differs according to the group information of AI agent and the level of anthropomorphism. Through two experiments, I tried to explore factors that affect the users’ moral judgment process for AI.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.