본 연구는 간호 학생을 대상으로 아동 간호학 실습 교육의 시뮬레이션 상황에서 일어나는 임상적 판단과정을 파악하고자 한다. 이를 위해 LCJR을 적용한 기술적 서술 연구(descriptive study)로 진행되었다. S시에 소재한 2개의 대학의 간호대학생을 대상으로 2013년 9월부터 2014년 12월 까지 모의 환자를 포함한 발열 시나리오와 무호흡 시나리오를 사용하여 시뮬레이션이 진행되었다. 본 연구 결과 간호 대학생의 임상판단 점수는 남학생 30.50(${\pm}2.77$)점, 여학생29.32(${\pm}2.67$)점이었으며, 무호흡 시나리오 임상판단 점수($31.20{\pm}2.84$)가 발열 시나리오 점수($28.71{\pm}2.63$)보다 높았고, 학습자의 자가평가(.911)와 교수자의 평가(.921)에서 반응(responding)영역이 유의한 상관관계가 있는 것으로 나타났다. 교수자와 학습자의 자가 평가 간 비교에서는 해석(interpreting)영역과 반영(reflecting)영역이 유의하게 나타났다. 본 연구는 간호 대학생의 임상 판단력을 높일 수 있는 실습과정을 수정 및 개발하는데 있어 기초 자료가 될 수 있다. 이 후 시뮬레이션 프로그램 내에 디브리핑 동안에 학생들의 간호 수행과 판단을 토론할 수 있는 경험을 제공하는 것이 필요하다.
본 연구는 간호 학생을 대상으로 아동 간호학 실습 교육의 시뮬레이션 상황에서 일어나는 임상적 판단과정을 파악하고자 한다. 이를 위해 LCJR을 적용한 기술적 서술 연구(descriptive study)로 진행되었다. S시에 소재한 2개의 대학의 간호대학생을 대상으로 2013년 9월부터 2014년 12월 까지 모의 환자를 포함한 발열 시나리오와 무호흡 시나리오를 사용하여 시뮬레이션이 진행되었다. 본 연구 결과 간호 대학생의 임상판단 점수는 남학생 30.50(${\pm}2.77$)점, 여학생29.32(${\pm}2.67$)점이었으며, 무호흡 시나리오 임상판단 점수($31.20{\pm}2.84$)가 발열 시나리오 점수($28.71{\pm}2.63$)보다 높았고, 학습자의 자가평가(.911)와 교수자의 평가(.921)에서 반응(responding)영역이 유의한 상관관계가 있는 것으로 나타났다. 교수자와 학습자의 자가 평가 간 비교에서는 해석(interpreting)영역과 반영(reflecting)영역이 유의하게 나타났다. 본 연구는 간호 대학생의 임상 판단력을 높일 수 있는 실습과정을 수정 및 개발하는데 있어 기초 자료가 될 수 있다. 이 후 시뮬레이션 프로그램 내에 디브리핑 동안에 학생들의 간호 수행과 판단을 토론할 수 있는 경험을 제공하는 것이 필요하다.
This study was a descriptive study, analyzing the clinical judgment process that occurs in a simulation of practice education for nursing students applying to LCJR. Subjects were two nursing college students in S city. Fever scenario and apnea scenario, including mock patient, were implemented. Data...
This study was a descriptive study, analyzing the clinical judgment process that occurs in a simulation of practice education for nursing students applying to LCJR. Subjects were two nursing college students in S city. Fever scenario and apnea scenario, including mock patient, were implemented. Data collection was conducted between September, 2013 and December, 2014. Data analysis was performed using descriptive statistics, paired t-test, and Pearson's correlation of PASW statistics 18.0 program. The result of this study revealed that the clinical judgment scores of nursing college students were 30.50 for males and 29.32 for females. Nursing Clinical judgment score for the apnea scenario was higher than the score for the febrile scenario, and nursing students' self-evaluation and professors' evaluation showed a significant correlation with respect to the responding domain. In comparison the student and faculty ratings, domain of interpreting and domain of reflecting were significant This study will provide educators with foundational knowledge of program development to enhance nursing students' clinical judgment abilities. We suggest more discussion on their nursing practice and judgment during debriefing session may be beneficial for students.
This study was a descriptive study, analyzing the clinical judgment process that occurs in a simulation of practice education for nursing students applying to LCJR. Subjects were two nursing college students in S city. Fever scenario and apnea scenario, including mock patient, were implemented. Data collection was conducted between September, 2013 and December, 2014. Data analysis was performed using descriptive statistics, paired t-test, and Pearson's correlation of PASW statistics 18.0 program. The result of this study revealed that the clinical judgment scores of nursing college students were 30.50 for males and 29.32 for females. Nursing Clinical judgment score for the apnea scenario was higher than the score for the febrile scenario, and nursing students' self-evaluation and professors' evaluation showed a significant correlation with respect to the responding domain. In comparison the student and faculty ratings, domain of interpreting and domain of reflecting were significant This study will provide educators with foundational knowledge of program development to enhance nursing students' clinical judgment abilities. We suggest more discussion on their nursing practice and judgment during debriefing session may be beneficial for students.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
또한 간호 대학생 대상의 임상 판단력 평가 시 해석(interpreting)과 인지(noticing) 영역은 관찰 평가가 어렵다[8,13,30]고 보고되고 있다. 따라서 이 연구는 간호대학생의 자가 평가 방식을 적용하여 시뮬레이션 실습 기반의 임상 판단력과 간호 수행능력의 상관관계를 파악함으로써 주도적인 학습방법으로 자리매김하는 시뮬레이션실습의 교육적 효과를 더욱 높이기 위한 기초자료를 제공하고자 한다.
본 연구는 간호학생을 대상으로 아동간호학 실습 교육의 시뮬레이션 상황에서 일어나는 임상적 판단 과정을 LCJR을 적용하여 분석하기 위한 기술적 서술 연구(descriptive study)이다.
본 연구는 시뮬레이션 상황에서의 LCJR 의 임상판단과정 평가를 통해서 간호 학생의 임상판단 과정을 분석하고자 수행된 연구로, 구체적인 목표는 다음과 같다.
본 연구는 시뮬레이션을 활용한 실습 교육 내에서 일어나는 임상적 판단 과정을 분석하여 임상적 판단 능력점수의 관계를 확인하고자 하였다. 시뮬레이션 실습에서 임상 판단 점수는 LCJR 로 측정 하였으며 한국의 간호학생들의 임상 판단 점수는 평균 29점이었다.
제안 방법
2) 학습자의 자가 평가 점수와 교수자의 수행평가 점수를 비교 분석한다.
본 연구에서 교수자는 시뮬레이션 과정 동안이나 과정 직후에 시뮬레이션 수행을 직접 관찰하고 평가하였다. 교수자는 반영(reflecting)을 평가 할 때 학생들의 말을 듣고 충분한 성찰을 하고 있어서 개선의 여지가 있다고 생각하는 반면 학생은 자신에 대한 평가를 낮춰서하기 때문에 차이가 나타난 것으로 보인다.
Victor-Chmil[15]은 간호사의 비판적 사고, 임상 추론, 임상 판단에 대한 개념정의를 통해 임상 판단은 인지적 과정 뿐만 아니라 행동을 통해 사정이 가능한 다면적인 개념으로 소개 하고 있다. 본 연구의 분석 틀인 LCJR은 Tanner의 임상적 판단 모델에서[8] 4가지 영역(Noticing, Interpreting, Responding, Reflecting)과 11가지 하부 영역으로 구성되며, 각 영역은 4가지 수준으로 평가된다. 총점의 범위는 11-44점으로 점수가 높을수록 임상 판단능력이 높음을 의미 하였다.
본 시뮬레이션의 시나리오는 A, B 두 가지로 구성되어 있으며 아동간호 실습교육에서 활용된 환자 시뮬레이터(High-fidelity Patient Simulator, HPS)로 실제 6∼9개월의 영아와 유사한 크기 및 해부학적 구조를 갖추고 비정상적 호흡음(악설음, 나음 등), 청색증 등의 생리적 기능을 구현하며 울음, 딸꾹질 등을 포함한 음성 자료의 표현이 가능한 인체 마네킹이다. 시나리오 A는 High-fidelity Patient Simulator와 표준화 환자(Standard Patient: SP)로 구성되어 있으며, 시나리오 B는 Hybrid simulation으로 진행 하였다. 시뮬레이션 과정은 다음과 같다(Figure 1).
임상 판단 LCJR를 활용하여 간호대학생이 실제로 수행하는 시뮬레이션 내에서 나타나는 임상 판단을 확인하고 학습자의 자가 평가와 교수자의 평가를 비교 분석하고 평가 점수의 상관성을 확인하였다. 간호 대학생 시뮬레이션 실습에서 나타난 임상 판단 과정 평균 점수는 29.
교수자의 평가와 학생 자가 평가의 비교에서는 해석영역과 반영 영역에서 유의한 차이가 있었다. 한국의 간호학생들의 임상 판단을 객관적으로 보여 주기위해 각 영역별 교수자 평가 및 학생 자가 평가를 비교분석하였다.
대상 데이터
이 중에서 교수자의 평가가 이루어진 389명 LCJR 평가 점수와 학생 자가 평가로 LCJR 를 제출한 219명, 교수자 평가과 자가 평가의 쌍(Dyad)을 이루는 138명이 분석 대상이었다. 389개의 교수자의 평가 중 138명의 점수는 2013년 한국 LCJR 타당도 분석 논문에 활용된 데이터가 이차 분석되었다.
본 시뮬레이션의 시나리오는 A, B 두 가지로 구성되어 있으며 아동간호 실습교육에서 활용된 환자 시뮬레이터(High-fidelity Patient Simulator, HPS)로 실제 6∼9개월의 영아와 유사한 크기 및 해부학적 구조를 갖추고 비정상적 호흡음(악설음, 나음 등), 청색증 등의 생리적 기능을 구현하며 울음, 딸꾹질 등을 포함한 음성 자료의 표현이 가능한 인체 마네킹이다.
연구 대상은 S시내 소재 2개의 간호대학에서 운영된 시뮬레이션(High Fidelity Simulation)을 활용한 아동간호학 실습 교육에서 연구의 참여를 동의한 3, 4학년 학생 490명을 대상으로 하였다. 이 중에서 교수자의 평가가 이루어진 389명 LCJR 평가 점수와 학생 자가 평가로 LCJR 를 제출한 219명, 교수자 평가과 자가 평가의 쌍(Dyad)을 이루는 138명이 분석 대상이었다.
연구 대상은 S시내 소재 2개의 간호대학에서 운영된 시뮬레이션(High Fidelity Simulation)을 활용한 아동간호학 실습 교육에서 연구의 참여를 동의한 3, 4학년 학생 490명을 대상으로 하였다. 이 중에서 교수자의 평가가 이루어진 389명 LCJR 평가 점수와 학생 자가 평가로 LCJR 를 제출한 219명, 교수자 평가과 자가 평가의 쌍(Dyad)을 이루는 138명이 분석 대상이었다. 389개의 교수자의 평가 중 138명의 점수는 2013년 한국 LCJR 타당도 분석 논문에 활용된 데이터가 이차 분석되었다.
연구 참여자는 시뮬레이션 실습 후에 수행하는 자가 평가의 경우 학습자가 원하지 않은 경우는 시행하지 않도록 공지 하였으며 참여자는 비디오 녹화 및 평가 내용에 대해서는 연구 목적 외에 자료를 사용하지 않을 것임을 설명한 후 동의를 받았다. 자료 수집은 2013년 9월부터 2014년 12월까지이며, 연구의 참여자는 모두 이전에 시뮬레이션 실습 경험이 있으며, 아동간호학 이론 수업을 이수하였다. 시뮬레이션 실습 교육에서 나타나는 임상적 판단 과정을 분석하기 위해 LCJR 평가 도구를 활용 하였으며 본 도구는 간호학 교수, 시뮬레이션 운영경험이 있는 박사과정 이상의 3명의 평가자가 교수 평가에 직접 참여하였다.
데이터처리
대상자의 LCJR 점수는 항목별로 평균과 표준 편자를 산출 하였고, 교수 평가점수와 학생 자가 평가 점수는 Pearson's correlation coefficient 로 검증하였다.
수집된 자료에서 LCJR의 11가지 하부 영역별 점수는 PASW statistics 18.0을 사용하여 분석하였다. 대상자의 LCJR 점수는 항목별로 평균과 표준 편자를 산출 하였고, 교수 평가점수와 학생 자가 평가 점수는 Pearson's correlation coefficient 로 검증하였다.
대상자의 LCJR 점수는 항목별로 평균과 표준 편자를 산출 하였고, 교수 평가점수와 학생 자가 평가 점수는 Pearson's correlation coefficient 로 검증하였다. 일반적 특성은 실수와 백분율로 산출하고 학습자 자가 평가와 교수자의 수행평가 평균 비교는 t-test 로 분석 하였다.
이론/모형
본 연구의 분석은 Lasater Clinical Judgment Rubric(LCJR)를 활용하여 평가한 점수이다. LCJR은 시뮬레이션을 활용한 교육에서 임상적 판단 능력(clinical judgement skill)을 평가하기 위해 Lasater에 의해 개발된 도구이다[10].
자료 수집은 2013년 9월부터 2014년 12월까지이며, 연구의 참여자는 모두 이전에 시뮬레이션 실습 경험이 있으며, 아동간호학 이론 수업을 이수하였다. 시뮬레이션 실습 교육에서 나타나는 임상적 판단 과정을 분석하기 위해 LCJR 평가 도구를 활용 하였으며 본 도구는 간호학 교수, 시뮬레이션 운영경험이 있는 박사과정 이상의 3명의 평가자가 교수 평가에 직접 참여하였다. 평가자들은 아동간호학 실습 교육에 참여한 서울 소재 2개의 간호대학 시뮬레이션 실습 장소를 사전에 방문하여 각 학교의 시뮬레이션 환경을 확인하는 절차를 가졌으며, 사전 오리엔테이션과 간호 대학생에게 연구의 목적, LCJR 평가 방법 등에 대해 자세히 안내하였다.
또한, Tanner[8]는 임상판단과정을 4단계(Noticing, Interpreting, Responding, Reflecting)로써 1)데이터와 근거를 수집하여 대상자의 요구를 인식하고 2)데이터를 우선순위 화하여 이해할 수 있어야 하고 3)가장 최선의 행위를 위한 결론에 도달할 수 있어야 하며 4)이러한 과정을 통한 결과물은 이 후 간호사의 행위와 학습에 영향을 준다는 것이다. 이러한 과정을 시뮬레이션 상황 내에서 임상판단 능력을 측정하기 위해 Lasater의 임상판단 루브릭(Lasater clinical judgment rubric; LCJR)으로 개발되었다.[10] LCJR의 반영(reflection) 영역은 디브리핑 시간에 별도로 측정하기도 하지만 시뮬레이션 실습 후 반영 일지(reflection diary)를 통해서 학생의 임상판단 과정을 파악할 수 있다[11-12].
성능/효과
CPR 관련 수강 경험이 없는 29%(n=113)의 LCJR점수는 29.56(±2, 9)으로 CPR 수강 경험이 있는 학생 71.6%(n=276)의 LCJR 점수(29.32±2,67) 보다 높게 나타났다(table 1).
17점이다. 가장 높은 평균 점수를 보인 영역은 반영(Reflecting)이었고, 이어 해석(Interpreting), 반응(Responding), 해석(Noticing) 순이었다. LCJR 의 구성타당도를 평가하기 위해 집단비교법을 이용하여 3학년과 4학년 학기말 간호 대학생들 사이의 LCJR 각 영역별 평균 점수를 비교한 Sideras의[16] 연구에서 두 집단 모두 LCJR 의 4가지 영역 중 Reflecting의 평균 점수가 가장 높은 것으로 보고되었다.
간호 대학생의 시뮬레이션 중재를 관찰한 교수자(N=389)가 LCJR으로 평가한 점수 총합의 상관관계를 확인한 결과 임상판단의 하부항목인 반응(responding)이 가장 높았으며(r=.911, p<.001), 인지(noticing), 해석(interpreting), 반영(reflecting) 순으로 유의한 상관관계를 갖고 있었다(Table 2).
간호 대학생이 시뮬레이션 참여 후 LCJR로 자가 평가한 점수(N=219)의 총합의 상관관계를 확인한 결과 임상판단의 하부항목인 반응(responding)이 가장 높았으며(r=.921, p<.001), 인지(noticing), 해석(interpreting), 반영(reflecting) 순으로 유의한 상관관계가 있는 것으로 나타났으며(Table 2).
교수자가 평가한 간호 대학생 임상판단 항목 간 상관관계와 학습자의 자가 평가의 상관관계에서 두 집단 모두 반응(responding)이 가장 높은 상관 계수를 보였고, 인지(noticing), 해석(interpreting), 반영(reflecting) 순으로 나타났다. 임상판단 총점은 눈에 보이는 행동에 대한반응 (responding)영역 점수가 총점이랑 상관관계가 높은 것으로 나타났는데, 이는 임상 판단 과정이 수행과정위주로 판단하고 해석 되고 있는 것으로, 결과적으로 임상판단은 간호 중재라고 오해 할 수 있으므로 추후 연구가 필요하다.
교수자가 평가한 점수( N=389)의 상관관계 또한 임상판단과정의 하부영역이 반응(responding)이 가장 높았으며 (r=.911, p<.001), 인지(noticing), 해석(interpreting), 반영(reflecting) 순으로 유의한 상관관계가 있는 것으로 나타났다(Table 3).
교수자의 평가와 학습자의 자가 평가를 쌍(dyad)으로 비교한 결과 임상판단평가 영역에 따른 학습자가 LCJR로 측정한 자가 평가점수는 29.34(±5.80) 으로 교수자의 평가 점수인 29.14점(±5.46)보다 높게 나타났다.
구체적으로 살펴보면 비판적 사고 수강 경험이 없는 학생들은 임상 판단 모든 영역에서 수강 경험이 없는 학생들보다 높게 나타났으나 심폐 소생술 경험이 있는 학생은(7.59±2.53) 수강 경험이 없는 학생 보다 인지(Noticing) 영역에서 높게 나타났다.
본 연구와 같이 대상자의 수행을 평가하기 위해 활용된 도구의 신뢰도는 관찰자 요인과 시뮬레이션 케이스 요인에 의해 영향을 받을 수 있으므로, 연구자는 대상자의 실제 수행의 차이를 평가하기 위해 관찰자 요인과 시뮬레이션 케이스 요인을 최소화 할 필요가 있다[14]. 따라서 관찰자 요인으로 인한 가변성을 감소시키기 위해 평가자 3인과 교수 1인이 3번의 소모임을 개최 하여, 시나리오 A, B 의 시뮬레이션 교육 시간에 녹화된 비디오를 여러 번 반복 시청하며 LCJR 의 4가지 영역과 11가지 하부 문항의 평가기준에 대해 확인하였으며, 평가자간 신뢰도는 .83(95% CI)로 측정되었다
52점이었다. 본 연구에서는 아동간호학 실습에 참여한 3,4학년 간호 대학생들의 LCJR 전체 점수는 Lasater[10] 연구의 3학년 점수와 Sideras[16]의 3학년 학생 대상 연구에서 제시한 점수에 비해 높았고, 4학년 학기말 학생들의 점수는 본 연구의 점수보다 0.2점 높았다. Sideras[16]의 연구에서는 임상 실습 경험이 풍부한 4학년 학기말 대상으로 하였으나 본 연구에는 3학년과 4학년 학생을 모두 연구 대상으로 하여 점수 차이가 있었던 것으로 사료 된다.
시나리오별 LCJR 점수는 무호흡 시나리오 LCJR 점수가 31.20점(±2.84)으로 발열 시나리오보다 (28.7±2.61) 높게 나타났다.
이와 같은 결과는 시뮬레이션 교육에서 임상적 판단의 4단계를 평가하기 위한 LCJR 도구가 시뮬레이션 교육의 강점을 가지고 있으며, 시뮬레이션을 활용한 교육이 궁극적으로 추구하는 학습 성과를 잘 반영한 결과로 사료된다. 시뮬레이션 시나리오와 모의 환자에 따른 시뮬레이션 운영에 있어 무호흡 시나리오는 31.20점으로 모의환자를 활용한 발열시나리오의 28.71점보다 높았으며, 무호흡 시나리오에서 LCJR 의 4가지 영역 점수가 모의환자를 활용한 발열시나리오에 비해 모두 높았다. 이는 교수자가 학생들의 시뮬레이션을 수행 하는 동안 평가하게 되어 복잡한 시나리오 상황이, 단순한 시나리오 상황보다 간호 수행을 해석하고 파악하는 데 어려운 면이 있다[19].
본 연구는 시뮬레이션을 활용한 실습 교육 내에서 일어나는 임상적 판단 과정을 분석하여 임상적 판단 능력점수의 관계를 확인하고자 하였다. 시뮬레이션 실습에서 임상 판단 점수는 LCJR 로 측정 하였으며 한국의 간호학생들의 임상 판단 점수는 평균 29점이었다. 학생 자가평가에서 임상 판단 영역별 상관관계는 반응, 인지, 반영, 해석 순으로 나타났으며, 교수자의 임상 판단 과정영역별 상관관계 또한 반응, 인지, 반영, 해석 순으로 확인 되었다.
예를 들어 심폐소생술시행, 정맥주사 투여 등의 단순한 기술적 측면을 측정하기 위한 시나리오에서 임상적 판단 과정을 측정할 수는 없으므로, 과목별 실습 목표에 따른 시나리오의 특성을 고려하여 평가도구를 선택하여야 하며 지속적으로 평가도구를 발전 시켜야 한다[21]. 연구 결과에서 비판적 사고 수강 경험과 심폐 소생술 수강 경험 여부와 임상 판단 점수와의 관계에서 수강 경험이 없는 학생이 임상 판단 점수가 더 높게 나타났다. 구체적으로 살펴보면 비판적 사고 수강 경험이 없는 학생들은 임상 판단 모든 영역에서 수강 경험이 없는 학생들보다 높게 나타났으나 심폐 소생술 경험이 있는 학생은(7.
본 연구의 분석 틀인 LCJR은 Tanner의 임상적 판단 모델에서[8] 4가지 영역(Noticing, Interpreting, Responding, Reflecting)과 11가지 하부 영역으로 구성되며, 각 영역은 4가지 수준으로 평가된다. 총점의 범위는 11-44점으로 점수가 높을수록 임상 판단능력이 높음을 의미 하였다.
시뮬레이션 실습 교육에서 나타나는 임상적 판단 과정을 분석하기 위해 LCJR 평가 도구를 활용 하였으며 본 도구는 간호학 교수, 시뮬레이션 운영경험이 있는 박사과정 이상의 3명의 평가자가 교수 평가에 직접 참여하였다. 평가자들은 아동간호학 실습 교육에 참여한 서울 소재 2개의 간호대학 시뮬레이션 실습 장소를 사전에 방문하여 각 학교의 시뮬레이션 환경을 확인하는 절차를 가졌으며, 사전 오리엔테이션과 간호 대학생에게 연구의 목적, LCJR 평가 방법 등에 대해 자세히 안내하였다.
시뮬레이션 실습에서 임상 판단 점수는 LCJR 로 측정 하였으며 한국의 간호학생들의 임상 판단 점수는 평균 29점이었다. 학생 자가평가에서 임상 판단 영역별 상관관계는 반응, 인지, 반영, 해석 순으로 나타났으며, 교수자의 임상 판단 과정영역별 상관관계 또한 반응, 인지, 반영, 해석 순으로 확인 되었다. 교수자의 평가와 학생 자가 평가의 비교에서는 해석영역과 반영 영역에서 유의한 차이가 있었다.
또한, 임상판단 과정을 수행평가 단독으로 결정하기에는 무리가 있으므로 개념지도나 성찰일지를 통해서 간호 학생들의 임상판단 능력을 키워 줄 수 있는 다양한 접근들이 필요하다. 학생의 자가 평가의 상관관계 결과에서 반응(responding)과의 관련성이 있는 영역은 인지(interpreting)와 해석(noticing)으로 확인되었다. 이는 학생들의 임상판단이 학생의 행위에 내재된 것임을 보여주는 것이며 교수자도 반응(responding)과의 관련성이 해석(interpreting)과 인지(noticing)인 것으로 학생의 간호 수행을 통해서 해석과 인지 부분을 파악할 수 있었던 것으로 사료된다.
학습자의 자가 평가와 교수자의 수행평가간의 비교에서 전체적으로 임상판단과정 총점은 교수자 평가와 학습자의 자가 평가 간에 평균점의 큰 차이는 없었고, 이 중 해석과 반영 영역의 점수 차이는 즉 교수자가 학생보다 높고 해석의 점수 차가 학생이 교수자가 높은 것이 통계적으로 유의하였다. 간호 학생을 대상으로 한 LCJR 평가 점수에서 학생 자가 평가 점수(33.
후속연구
이러한 루브릭은 학생들이 스스로임상 판단을 평가하고 확인 할 수 있으며 교수자의 평가와 비교 할 수 있는 것에 의의가 있다. 또한, 시뮬레이션 또는 실제 환자 간호에서 자신의 행동과 생각을 반영하여 임상 판단력을 향상 시키는 데에 사용할 수 있으며,실질적으로 보이지 않는 해석과 반영 영역은 실습일지와 디브리핑 시간을 통해서 보완해 나갈 수 있을 것으로 사료된다. 향후 학생들은 교수자의 관찰과 평가를 통해 자신의 간호수행에 대한 보다 균형 잡힌 검토를 하는 방법으로 응용할 수 있을 것으로 생각한다.
본 연구는 한국의 간호대학생의 임상판단력을 높일 수 있는 실습과정을 수정 및 개발하는데 있어 기초자료로 사용한 연구를 제언하는 바이며, 시뮬레이션 프로그램 내에 디브리핑 동안에 학생들의 간호 수행과 판단을 토론 할 수 있는 환경을 제공 한 후 효과를 확인하는 반복연구를 제언하는 바이다.
교수자가 평가한 간호 대학생 임상판단 항목 간 상관관계와 학습자의 자가 평가의 상관관계에서 두 집단 모두 반응(responding)이 가장 높은 상관 계수를 보였고, 인지(noticing), 해석(interpreting), 반영(reflecting) 순으로 나타났다. 임상판단 총점은 눈에 보이는 행동에 대한반응 (responding)영역 점수가 총점이랑 상관관계가 높은 것으로 나타났는데, 이는 임상 판단 과정이 수행과정위주로 판단하고 해석 되고 있는 것으로, 결과적으로 임상판단은 간호 중재라고 오해 할 수 있으므로 추후 연구가 필요하다. 또한, 임상판단 과정을 수행평가 단독으로 결정하기에는 무리가 있으므로 개념지도나 성찰일지를 통해서 간호 학생들의 임상판단 능력을 키워 줄 수 있는 다양한 접근들이 필요하다.
또한, 시뮬레이션 또는 실제 환자 간호에서 자신의 행동과 생각을 반영하여 임상 판단력을 향상 시키는 데에 사용할 수 있으며,실질적으로 보이지 않는 해석과 반영 영역은 실습일지와 디브리핑 시간을 통해서 보완해 나갈 수 있을 것으로 사료된다. 향후 학생들은 교수자의 관찰과 평가를 통해 자신의 간호수행에 대한 보다 균형 잡힌 검토를 하는 방법으로 응용할 수 있을 것으로 생각한다.
질의응답
핵심어
질문
논문에서 추출한 답변
시뮬레이션 교육이 사례연구 방법에 비해 가지는 장점은?
선행 시뮬레이션연구에서는 간호 대학생 및 간호사의 임상판단 및 문제점으로 제시되고 있는 것은 임상판단이 간호에 미치는 요소들이 규명되지 않아 시뮬레이션 교육 내에서 임상판단이 어떻게 나타나는지 깊이 있게 접근되지 않았다. 기존의 간호학 교육에서 임상판단 능력을 향상시키기 위한 사례연구 방법은 학생의 행동양상을 직접 관찰할 수 없는 반면에 시뮬레이션 교육은 직접적인 문제행동을 관찰하고 즉각적인 피드백이 가능하다는 측면이 있다. 특히 디브리핑(debriefing) 시간 동안에는 구성주의를 토대로 한 학생 스스로의 통찰, 통합 및 분석능력 등을 기대할 수 있으며[13,21] 시뮬레이션 과정 동안 학생의 임상판단능력을 훈련하고 확인 및 평가 할 수 있다.
간호학 교육의 주요한 목적은?
간호학 교육의 주요한 목적은 학생이 독립적으로 의사 결정을 할 수 있도록 이론과 실습을 통하여 역량 있는 간호실무자를 키워내는 것으로 정서적·인지적·기술적 영역을 아우르는 교육이 중요하며 이를 위해 교육의 평가 또한 세 가지 영역을 균형 있게 다루어야 함은 크게 강조되고 있다. 정서적인 측면은 전문적 간호수행의 표준과 일치하는 가치, 태도, 신념 등을 개발하는 것이며, 인지적 측면은 사실, 개념, 원리 등을 학습하고 문제 해결능력을 높이는 것이고 기술적인 측면은 간호 기술을 학습하는 것을 의미한다[1].
LCJR의 평가도구는 어떻게 구성되어 있는가?
LCJR은 시뮬레이션을 활용한 교육에서 임상적 판단 능력(clinical judgement skill)을 평가하기 위해 Lasater에 의해 개발된 도구이다[10]. 평가도구는 4가지 영역(Noticing, Interpreting, Responding, Reflecting)과 11가지 하부 영역으로 구성되어있다. 각 영역은 초보단계(beginning, 1점), 개발단계(developing, 2점), 성취단계(accomplished, 3 점), 모범단계(exemplary, 4점)인 4개의 척도로 배점 처리되며 총점의 범위는 11∼44점으로 점수가 높을수록 임상적 판단 능력이 높음을 의미한다.
참고문헌 (30)
S. Kardong-Edgren, K. A. Adamson, C. Fitzgerald, "A Review of Currently Published Evaluation Instruments for Human Patient Simulation", Clinical Simulation in Nursing, Vol.6, No.1, pp.e25-e35, 2010. DOI: https://dx.doi.org/10.1016/j.ecns.2009.08.004
P. R. Jeffries, B. Norton, Selecting learning experiences to achieve curriculum outcomes. In D. M. Billings & J. A. Halstead(Eds.), Teaching in nursing: A guide for faculty (2nd ed., pp. 187-212). St. Louis, MO: Elsevier, 2005.
K. C. Lim, "Simulation-based Clinical Judgment and Performance Ability for Tracheal Suction in Nursing Students", The Journal of Korean Academic Society of Nursing Education, Vol.23, No.3, pp.330-340, 2017. DOI: https://dx.doi.org/10.5977/jkasne.2017.23.3.330
Korean Accreditation Board of Nursing Education, Accreditation assessment standards for education of Korea(the course of the nursing bachelor's degree). Seoul: Korean Nurses Association, 2017.
K. I. Jeong, J. Y. Choi, "Effect of Debriefing Based on the Clinical Judgment Model on Simulation Based Learning Outcomes of End-of-Life Care for Nursing Students: A Non-Randomized Controlled Trial", Journal of Korean Academy of Nursing, Vol.47, No.6, pp.842-853, 2017. DOI: https://dx.doi.org/10.4040/jkan.2017.47.6.842
K. Lasater, "Clinical judgement: The last frontier for evaluation", Nurse Education in Practice, Vol.11, No.2, pp.86-92, 2011. DOI: https://dx.doi.org/10.1016/j.nepr.2010.11.013
J. A. Kim, J. K. Ko, "A Study on Clinical Reasoning Ability and Academic Achievements in Nursing Students", Journal of the Korea Academia-Industrial cooperation Society, Vol.16, No.3, pp.1874-1883, 2015. DOI: https://dx.doi.org/10.5762/KAIS.2015.16.3.1874
C. A. Tanner, "Thinking like a nurse: A research-based model of clinical judgement in nursing", Journal of Nursing Education, Vol.45, No.6, pp.204-211, 2006.
P. Benner, C. A. Tanner, C. A. Chesla, Expertise in nursing practice: Caring, clinical judgement, and ethics. New York: Springer, 1996.
K. Lasater, "Clinical judgement development: Using simulation to create an assessment rubric", Journal of Nursing Education, Vol.46, No.11, pp.496-503, 2007.
M. L. Cato, K. Lasater, A. I. Peeples, "Nursing students' self-assessment of their simulation experiences", Nursing Education Perspectives, Vol.30, No.2, pp.105-108, 2009.
K. Lasater, A. Nielsen, "Reflective Journaling for Clinical Judgment Development and Evaluation", Journal of Nursing Education, Vol.48, No.1, pp.40-44, 2009. DOI: https://dx.doi.org/10.3928/01484834-20090101-06
E. H. Ha, "Attitudes toward Video-Assisted Debriefing after simulation in undergraduate nursing students: An application of Q methodology", Nurse Education Today, Vol.34, No.6, pp.978-984, 2014. DOI: https://dx.doi.org/10.1016/j.nedt.2014.01.003
K. A. Adamson, P. Gubrud, S. Sideras, K. Lasater, "Assessing the Reliability, Validity, and Use of the Lasater Clinical Judgment Rubric: Three Approaches", Journal of Nursing Education, Vol.51, No.2, pp.66-73, 2012. DOI: https://dx.doi.org/10.3928/01484834-20111130-03
S. Sideras, An examination of the construct validity of a clinical judgement evaluation tool in the setting of high-fidelity simulation (Unpublished dissertation). Oregon Health & Science University, Portland, OR, 2007.
R. A. Kuiper, C. Heinrich, A. Matthias, M. J. Graham, L. Bell-Kotwall, "Debriefing with the OPT model of clinical reasoning during high fidelity patient simulation", International Journal of Nursing Education Scholarship, Vol.5, No.1, pp.1-14, 2008. DOI: https://dx.doi.org/10.2202/1548-923X.1466
S. B. Issenberg, W. C. McGaghie, E. R. Petrusa, D. L. Gordon, R. J. Scalese, "Features and uses of high-fidelity medical simulations that lead to effective learning: A BEME systematic review", Medical Teacher, Vol.27, No.1, pp.10-28, 2005. DOI: https://dx.doi.org/10.1080/01421590500046924
H. Shin, Y. Lee, D. H. Rim, "Evaluation of Algorithm-Based Simulation Scenario for Emergency Measures with High-Risk Newborns Presenting with Apnea", Child Health Nursing Research, Vol.21, No.2, pp.98-106, 2015. DOI: https://dx.doi.org/10.4094/chnr.2015.21.2.98
P. Benner, C. Tanner, "Clinical Judgment: How Expert Nurses Use Intuition", The American Journal of Nursing, Vol.87, No.1, pp.23-31, 1987. DOI: https://dx.doi.org/10.2307/3470396
K. Shim, H. Shin, "The Reliability and Validity of the Lasater Clinical Judgement Rubric in Korean Nursing Students", Child Health Nursing Research, Vol.21, No.2, pp.160-167, 2015. DOI: https://dx.doi.org/10.4094/chnr.2015.21.2.160
J. Kim, S. Kim, K. Bang, C. Koh, N. Lee, J. Yu, "Study on the Academic Achievements, Satisfaction, and Educational Demands of Nursing Students at a College of Nursing", Perspectives in Nursing Science, Vol.9, No.2, pp.127-135, 2012.
H. P. Strickland, M. H. Cheshire, A. L. March, "Clinical Judgment During Simulation: A Comparison of Student and Faculty Scores", Nursing Education Perspectives, Vol.38, No.2, pp.85-86, 2017. DOI: https://dx.doi.org/10.1097/01.NEP.0000000000000109
R. Jensen, "Clinical reasoning during simulation: Comparison of student and faculty ratings", Nurse Education in Practice, Vol.13, No.1, pp.23-28, 2013. DOI: https://dx.doi.org/10.1016/j.nepr.2012.07.001
S. Decker, K. T. Dreifuerst, Integrating guided reflection into simulated learning experiences. Simulation in nursing education: From conceptualization to evaluation, pp.73-85, 2007.
J. C. Childs, S. Sepples, "Clinical teaching by simulation: Lessons learned from a complex patient care scenario", Nursing Education Perspectives, Vol.27, No.3, pp.154-158, 2006.
I. Colthart, G. Bagnall, A. Evans, H. Allbutt, A. Haig, J. Illing, B. McKinstry, "The effectiveness of self-assessment on the identification of learner needs, learner activity, and impact on clinical practice: BEME Guide no. 10", Medical Teacher, Vol.30, No.2, pp.124-145, 2008. DOI: https://dx.doi.org/10.1080/01421590701881699
D. A. Davis, P. E. Mazmanian, M. Fordis, R. Van Harrison, K. E. Thorpe, L. Perrier, "Accuracy of physician self-assessment compared with observed measures of competence: a systematic review", JAMA, Vol.296, No.9, pp.1094-1102, 2006. DOI: https://dx.doi.org/10.1001/jama.296.9.1094
A. H. Davis, L. P. Kimble, "Human Patient Simulation Evaluation Rubrics for Nursing Education: Measuring The Essentials of Baccalaureate Education for Professional Nursing Practice", Journal of Nursing Education, Vol.50, No.11, pp.605-611, 2011. DOI: https://dx.doi.org/10.3928/01484834-20110715-01
E. H. Ha, H. S. Song, "The Effects of Structured Self-Debriefing Using on the Clinical Competency, Self-Efficacy, and Educational Satisfaction in Nursing Students after Simulation", The Journal of Korean Academic Society of Nursing Education, Vol.21, No.4, pp.445-454, 2015. DOI: https://dx.doi.org/10.5977/jkasne.2015.21.4.445
※ AI-Helper는 부적절한 답변을 할 수 있습니다.