[학위논문]ChatGPT 지속사용의도에 관한 연구 : AI 리터러시 조절효과를 중심으로 A Study on Continuance Usage Intention of ChatGPT : Focusing on the Moderating Effect of AI Literacy원문보기
생성형 AI인 ChatGPT는 GPT아키텍처를 기반으로 한 대형 언어모델로, 뛰어난 자연어처리 능력을 보유하고 있다. 이를 통해 사용자와 자연스러운 대화가 가능하며, 상호작용 과정에서 사용자의 언어 이해와 맥락을 파악하여 요구사항에 맞춘 개인화된 맞춤형 ...
생성형 AI인 ChatGPT는 GPT아키텍처를 기반으로 한 대형 언어모델로, 뛰어난 자연어처리 능력을 보유하고 있다. 이를 통해 사용자와 자연스러운 대화가 가능하며, 상호작용 과정에서 사용자의 언어 이해와 맥락을 파악하여 요구사항에 맞춘 개인화된 맞춤형 콘텐츠를 제공한다. 그러나 ChatGPT는 이러한 이점에도 불구하고 개인정보보호에 대한 우려, 훈련데이터의 편향이 반영된 정보, 부적절하거나 관련 없는 답변을 생성하는 할루시네이션, 부정확한 정보를 제공하는 오류 등의 여러 문제점이 나타나고 있다. 이런 문제점들로 인해 최근에는 ChatGPT가 제공하는 정보의 신뢰성, 상호작용 과정에서의 프라이버시 염려, 지각된 위험, AI에 대한 이해와 활용에 대한 AI 리터러시에 대한 관심이 증가하고 있다. 그러나 대부분의 ChatGPT 수용 과 관련된 선행 연구들이 ChatGPT의 긍정적인 기대 효용에 초점을 맞추어 연구되고 있다. ChatGPT의 지속사용의도에 영향을 미칠 수 있는 신뢰와 위험 요인을 포함한 연구는 제한적이다. 또한, AI 리터러시의 중요성이 강조되고 있음에도 불구하고, AI 리터러시 개념적 차원과 및 수준별 차이에 대한 실증분석은 이루어지고 있지 않다. 본 연구는 ChatGPT의 지속사용의도에 미치는 다양한 영향 요인들의 관계를 분석하였다. 구체적으로 ChatGPT 사용과 관련한 긍정적 측면의 동기 요인으로 개인화, 사회적 영향으로 구분하고, 부정적 측면의 위험 요인을 프라이버시 염려, 지각된 위험으로 분류했다. 이러한 요인들이 정보 신뢰, 성과 기대, 노력 기대를 매개로 지속사용의도에 미치는 영향을 분석하였다. 전체 구성개념 간에 AI 리터러시의 조절 효과를 확인했다. 이를 위해 본 연구에서는 ChatGPT 서비스의 이용 경험이 있는 20대 이상의 성인들을 대상으로 설문조사를 수행하였으며, 이를 통해 총 265개의 유효한 데이터 샘플을 수집하였다. 실증분석 결과, 개인화와 사회적 영향은 정보 신뢰, 성과 기대, 노력 기대에 대해 정(+)의 영향 관계를 확인하였다. 프라이버시 염려의 경우, 성과 기대에는 부(-)의 영향 관계가 입증되었지만, 노력 기대에는 유의하지 않는 것 로 나타났다. 지각된 위험은 성과 기대와 노력 기대에 부(-)의 영향을 미 치는 것이 확인되었다. 그리고 정보 신뢰, 성과 기대, 노력 기대는 지속사용 의도에 정(+)의 영향을 미치는 것으로 나타났다. AI 리터러시의 경우, AI 개념이해도와 AI 기술이해도의 수준에 따라 사회적 영향과 정보 신뢰, 프라이버시 염려와 성과 기대, 지각된 위험과 성과 기대, 정보 신뢰와 지속사용의도, 성과 기대와 지속사용의도 간의 조절 효과가 나타나는 것을 확인하였다. 본 연구의 학술적 시사점은 첫째, ChatGPT의 사용과 관련하여 긍정적 동기 측면의 변수뿐만 아니라 정보 신뢰와 프라이버시 염려, 지각된 위험 요인을 함께 살펴보았다는 점이다. 둘째, AI 리터러시 차원과 수준에 따라 ChatGPT 지속사용의도에 미치는 영향요인 간의 차이를 실증분석을 통해 확인했다는 점이다. 본 연구의 실무적 시사점은 첫째, ChatGPT는 개인정보보호 염려와 다양한 지각된 위험 인식을 감소시켜 정보에 대한 신뢰를 확보하고 개인화된 결과에 대한 유용성을 높여 지속사용의도를 높일 필요가 있다. 둘째, 기업은 ChatGPT와 같은 AI 기술의 작동원리와 효과적인 사용법에 대해 사용자들에게 기본 교육과 훈련을 제공함으로써 AI 리터러시를 향상시킬 필요가 있다.
생성형 AI인 ChatGPT는 GPT 아키텍처를 기반으로 한 대형 언어모델로, 뛰어난 자연어처리 능력을 보유하고 있다. 이를 통해 사용자와 자연스러운 대화가 가능하며, 상호작용 과정에서 사용자의 언어 이해와 맥락을 파악하여 요구사항에 맞춘 개인화된 맞춤형 콘텐츠를 제공한다. 그러나 ChatGPT는 이러한 이점에도 불구하고 개인정보보호에 대한 우려, 훈련데이터의 편향이 반영된 정보, 부적절하거나 관련 없는 답변을 생성하는 할루시네이션, 부정확한 정보를 제공하는 오류 등의 여러 문제점이 나타나고 있다. 이런 문제점들로 인해 최근에는 ChatGPT가 제공하는 정보의 신뢰성, 상호작용 과정에서의 프라이버시 염려, 지각된 위험, AI에 대한 이해와 활용에 대한 AI 리터러시에 대한 관심이 증가하고 있다. 그러나 대부분의 ChatGPT 수용 과 관련된 선행 연구들이 ChatGPT의 긍정적인 기대 효용에 초점을 맞추어 연구되고 있다. ChatGPT의 지속사용의도에 영향을 미칠 수 있는 신뢰와 위험 요인을 포함한 연구는 제한적이다. 또한, AI 리터러시의 중요성이 강조되고 있음에도 불구하고, AI 리터러시 개념적 차원과 및 수준별 차이에 대한 실증분석은 이루어지고 있지 않다. 본 연구는 ChatGPT의 지속사용의도에 미치는 다양한 영향 요인들의 관계를 분석하였다. 구체적으로 ChatGPT 사용과 관련한 긍정적 측면의 동기 요인으로 개인화, 사회적 영향으로 구분하고, 부정적 측면의 위험 요인을 프라이버시 염려, 지각된 위험으로 분류했다. 이러한 요인들이 정보 신뢰, 성과 기대, 노력 기대를 매개로 지속사용의도에 미치는 영향을 분석하였다. 전체 구성개념 간에 AI 리터러시의 조절 효과를 확인했다. 이를 위해 본 연구에서는 ChatGPT 서비스의 이용 경험이 있는 20대 이상의 성인들을 대상으로 설문조사를 수행하였으며, 이를 통해 총 265개의 유효한 데이터 샘플을 수집하였다. 실증분석 결과, 개인화와 사회적 영향은 정보 신뢰, 성과 기대, 노력 기대에 대해 정(+)의 영향 관계를 확인하였다. 프라이버시 염려의 경우, 성과 기대에는 부(-)의 영향 관계가 입증되었지만, 노력 기대에는 유의하지 않는 것 로 나타났다. 지각된 위험은 성과 기대와 노력 기대에 부(-)의 영향을 미 치는 것이 확인되었다. 그리고 정보 신뢰, 성과 기대, 노력 기대는 지속사용 의도에 정(+)의 영향을 미치는 것으로 나타났다. AI 리터러시의 경우, AI 개념이해도와 AI 기술이해도의 수준에 따라 사회적 영향과 정보 신뢰, 프라이버시 염려와 성과 기대, 지각된 위험과 성과 기대, 정보 신뢰와 지속사용의도, 성과 기대와 지속사용의도 간의 조절 효과가 나타나는 것을 확인하였다. 본 연구의 학술적 시사점은 첫째, ChatGPT의 사용과 관련하여 긍정적 동기 측면의 변수뿐만 아니라 정보 신뢰와 프라이버시 염려, 지각된 위험 요인을 함께 살펴보았다는 점이다. 둘째, AI 리터러시 차원과 수준에 따라 ChatGPT 지속사용의도에 미치는 영향요인 간의 차이를 실증분석을 통해 확인했다는 점이다. 본 연구의 실무적 시사점은 첫째, ChatGPT는 개인정보보호 염려와 다양한 지각된 위험 인식을 감소시켜 정보에 대한 신뢰를 확보하고 개인화된 결과에 대한 유용성을 높여 지속사용의도를 높일 필요가 있다. 둘째, 기업은 ChatGPT와 같은 AI 기술의 작동원리와 효과적인 사용법에 대해 사용자들에게 기본 교육과 훈련을 제공함으로써 AI 리터러시를 향상시킬 필요가 있다.
ChatGPT, a generative AI(Artificial Intelligence) based on the GPT architecture, exhibits exceptional natural language processing capabilities, enabling smooth conversations with users. It provides personalized content by understanding users' language and context. Despite these advantages, concerns ...
ChatGPT, a generative AI(Artificial Intelligence) based on the GPT architecture, exhibits exceptional natural language processing capabilities, enabling smooth conversations with users. It provides personalized content by understanding users' language and context. Despite these advantages, concerns about privacy, bias in training data, hallucinations leading to irrelevant or inappropriate responses, and misinformation are prevalent issues with ChatGPT. These concerns have raised interest in the reliability of information provided by ChatGPT, privacy in interactions, perceived risks, and AI literacy. Most existing studies on ChatGPT adoption focus on its positive expected utility, with limited research incorporating trust and risk factors that influence its continuance usage intention. Furthermore, empirical analysis on the conceptual dimensions of AI literacy and the differences at various levels is lacking. This study analyzes various factors affecting the continuance usage intention of ChatGPT. Specifically, we categorize motivational factors associated with using ChatGPT into personalization and social influence, and risk factors into privacy concern and perceived risks. We examine how these factors, mediated by information trust, performance expectancy, and effort expectancy, influence continuance usage intention. The moderating effect of AI literacy on the relationships among the overall constructs was verified. A survey was conducted among adults over 20 years old with experience using ChatGPT services, yielding 265 valid responses. The empirical analysis revealed that personalization and social influence positively impact information trust, performance expectancy, and effort expectancy. Privacy concern negatively affect performance expectancy but are insignificant for effort expectancy. Perceived risks negatively influence both performance and effort expectancy. Information trust, performance expectancy, and effort expectancy positively impact continuance usage intention. The moderating effects of AI literacy, including understanding of AI concepts and technology, are observed in the relationships between social influence and information trust, privacy concern and performance expectancy, perceived risks and performance expectancy, information trust and continuance usage intention, and performance expectancy and continuance usage intention. Academically, this study highlights the importance of considering not only positive motivational factors but also information trust, privacy concern, and perceived risks related to ChatGPT use. It empirically identifies differences in factors influencing continuance usage intention based on AI literacy dimensions and levels. Practically, to enhance continuance usage intention, ChatGPT needs to address privacy concern and reduce perceived risks to increase trust in information and the perceived usefulness of personalized results. Companies should provide basic education and training on the workings and effective use of AI technologies like ChatGPT to improve AI literacy.
ChatGPT, a generative AI(Artificial Intelligence) based on the GPT architecture, exhibits exceptional natural language processing capabilities, enabling smooth conversations with users. It provides personalized content by understanding users' language and context. Despite these advantages, concerns about privacy, bias in training data, hallucinations leading to irrelevant or inappropriate responses, and misinformation are prevalent issues with ChatGPT. These concerns have raised interest in the reliability of information provided by ChatGPT, privacy in interactions, perceived risks, and AI literacy. Most existing studies on ChatGPT adoption focus on its positive expected utility, with limited research incorporating trust and risk factors that influence its continuance usage intention. Furthermore, empirical analysis on the conceptual dimensions of AI literacy and the differences at various levels is lacking. This study analyzes various factors affecting the continuance usage intention of ChatGPT. Specifically, we categorize motivational factors associated with using ChatGPT into personalization and social influence, and risk factors into privacy concern and perceived risks. We examine how these factors, mediated by information trust, performance expectancy, and effort expectancy, influence continuance usage intention. The moderating effect of AI literacy on the relationships among the overall constructs was verified. A survey was conducted among adults over 20 years old with experience using ChatGPT services, yielding 265 valid responses. The empirical analysis revealed that personalization and social influence positively impact information trust, performance expectancy, and effort expectancy. Privacy concern negatively affect performance expectancy but are insignificant for effort expectancy. Perceived risks negatively influence both performance and effort expectancy. Information trust, performance expectancy, and effort expectancy positively impact continuance usage intention. The moderating effects of AI literacy, including understanding of AI concepts and technology, are observed in the relationships between social influence and information trust, privacy concern and performance expectancy, perceived risks and performance expectancy, information trust and continuance usage intention, and performance expectancy and continuance usage intention. Academically, this study highlights the importance of considering not only positive motivational factors but also information trust, privacy concern, and perceived risks related to ChatGPT use. It empirically identifies differences in factors influencing continuance usage intention based on AI literacy dimensions and levels. Practically, to enhance continuance usage intention, ChatGPT needs to address privacy concern and reduce perceived risks to increase trust in information and the perceived usefulness of personalized results. Companies should provide basic education and training on the workings and effective use of AI technologies like ChatGPT to improve AI literacy.
주제어
#ChatGPT 개인화 신뢰 위험 AI 리터러시 UTAUT 지속사용의도 AI(Artificial Intelligence)
학위논문 정보
저자
이동영
학위수여기관
동의대학교 대학원
학위구분
국내박사
학과
경영정보.e비지니스학과
지도교수
정석찬
발행연도
2023
총페이지
100
키워드
ChatGPT 개인화 신뢰 위험 AI 리터러시 UTAUT 지속사용의도 AI(Artificial Intelligence)
※ AI-Helper는 부적절한 답변을 할 수 있습니다.