In this study, we analyzed elementary school teachers' self-diagnosis on their competency for assessment in science. A questionnaire was administered to 217 elementary school teachers and in-depth group interviews with 6 teachers were also conducted. The results revealed that the mean scores of five...
In this study, we analyzed elementary school teachers' self-diagnosis on their competency for assessment in science. A questionnaire was administered to 217 elementary school teachers and in-depth group interviews with 6 teachers were also conducted. The results revealed that the mean scores of five subcategories, 'choosing assessment methods', 'developing assessment instruments', 'administering, scoring, and grading', 'analyzing, interpreting, using, and communicating assessment results', and 'recognizing ethics in assessment', were 3.82, 3.50, 3.92, 3.76, and 4.09 on a scale of 5 points, respectively. Teachers having more teaching experience showed higher mean scores in all subcategories. However, only the teachers having more than 20 years of teaching experience were statistically better than those having less than 5 years of teaching experience in four subcategories except for 'recognizing ethics in assessment'. There were no significant differences in terms of major, whereas the mean scores of the teachers having master's degree were statistically higher than their counterpart in some subcategories. In addition, the teachers who had completed training for assessment exhibited statistically higher mean scores than their counterpart in four subcategories except for 'recognizing ethics in assessment'. Educational implications of these findings are discussed.
In this study, we analyzed elementary school teachers' self-diagnosis on their competency for assessment in science. A questionnaire was administered to 217 elementary school teachers and in-depth group interviews with 6 teachers were also conducted. The results revealed that the mean scores of five subcategories, 'choosing assessment methods', 'developing assessment instruments', 'administering, scoring, and grading', 'analyzing, interpreting, using, and communicating assessment results', and 'recognizing ethics in assessment', were 3.82, 3.50, 3.92, 3.76, and 4.09 on a scale of 5 points, respectively. Teachers having more teaching experience showed higher mean scores in all subcategories. However, only the teachers having more than 20 years of teaching experience were statistically better than those having less than 5 years of teaching experience in four subcategories except for 'recognizing ethics in assessment'. There were no significant differences in terms of major, whereas the mean scores of the teachers having master's degree were statistically higher than their counterpart in some subcategories. In addition, the teachers who had completed training for assessment exhibited statistically higher mean scores than their counterpart in four subcategories except for 'recognizing ethics in assessment'. Educational implications of these findings are discussed.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
즉, 많은 초등학교 교사들이 과학 평가의 윤리성, 평가 실시․채점․성적 부여, 평가 방법의 선정, 평가 결과의 분석․해석․ 활용․의사소통 측면에서는 전반적으로 전문성이 있을 가능성이 있다. 반면, 교수․학습과정에서 학생이 겪는 어려움을 진단하거나 특별한 지도를 필요로 하는 학생을 변별하는 데 적합한 평가 방법의 선정 및 규준 참조 평가와 준거 참조 평가에 관한 전문성이 부족할 가능성을 확인하였다. 또한, 정량적 자료 분석과 해석 및 평가 도구의 개발과 관련된 전문성은 상대적으로 부족할 가능성을 확인할 수 있었다.
이 연구에서는 초등학교 교사의 과학 평가 전문성에 대한 자가진단 내용을 분석하였다. 연구 결과, 초등학교 교사들은 ‘평가의 윤리성’, ‘평가 실시․ 채점․성적 부여’, ‘평가 방법의 선정’, ‘평가 결과의 분석․해석․활용․의사소통’, ‘평가 도구의 개발’ 영역 순으로 자신의 전문성 수준에 대하여 높게 평가하는 것으로 나타났다.
즉, 초등학교 교사가 과학 평가를 수행하는 데 필요한 총체적인 전문성 수준 관련 정보는 현재로서는 매우 부족한 실정이다. 이에 이 연구에서는 초등학교 교사의 과학 평가 전문성에 대한 자가진단 내용을 체계적으로 분석하였다.
제안 방법
교사의 배경 변인(교직 경력, 전공, 학력, 연수 이수 여부 등)에 따른 각 하위 영역의 평균을 비교하기 위해 일원변량분석 (One-way ANOVA) 또는 독립표본 t-검증을 실시하였다. 또한 교사들과의 집단 면담 동영상 및 전사본을 반복적으로 분석하면서 의미 있다고 판단되는 내용들을 추출한 후, 추출한 내용의 타당성을 점검 하고 대표적인 응답 사례를 선정하여 기술하였다.
이 연구에서는 서울, 경인, 춘천 교육대학교의 초등 과학교육 관련 대학원 강좌나 교사 직무연수를 수강하고 있는 교사 217명을 대상으로 설문 조사를 실시하였으며, 연구 대상의 구체적인 특징은 Table 1과 같다. 또한, 6명의 교사들을 편의 표집하여 집단 면담을 약 60분 동안 실시하였다.
답변 내용이 충분하지 않은 경우에는 반복적으로 질문하여 교사들의 생각을 가능한 충분하게 이해하기 위해 노력하였다. 이때, 교사들이 허용적인 분위기에서 자유롭게 응답 할 수 있도록 하기 위해 면담은 강사와 수강생의 라포르가 충분히 형성된 강좌의 후반부에 실시하였다. 모든 면담 과정은 디지털 카메라로 촬영하였고, 녹음 내용은 전사하였다.
이에 이 연구에서는 교사들이 과학 평가 상황에 한정하여 응답할 수 있도록 하기 위해, 설문지의 제목을 ‘교사의 과학학습평가 전문성 수준 자가진단 설문지’로 제시하였다.
집단 면담은 설문 응답의 원인을 자세히 조사하기 위한 형태로 이루어졌다. 즉, 1개 초등 과학교육 대학원 강좌의 일부 시간을 할애하여 6명의 수강 교사들에게 설문지에 응답하도록 하였고, 응답 직후 각 문항에 대한 응답 이유에 대하여 자세하게 설명하도록 요구하였다. 답변 내용이 충분하지 않은 경우에는 반복적으로 질문하여 교사들의 생각을 가능한 충분하게 이해하기 위해 노력하였다.
집단 면담은 설문 응답의 원인을 자세히 조사하기 위한 형태로 이루어졌다. 즉, 1개 초등 과학교육 대학원 강좌의 일부 시간을 할애하여 6명의 수강 교사들에게 설문지에 응답하도록 하였고, 응답 직후 각 문항에 대한 응답 이유에 대하여 자세하게 설명하도록 요구하였다.
대상 데이터
, 2006)’를 사용하였다. 이 설문지는 전국의 평가 전문가들과 교사들을 대상으로 한 타당화 작업을 통해 타당도가 확보된 상태이며, 5개 하위 영역에 대한 총 60개 의 5단계 리커트 척도 문항으로 구성되어 있다. 즉, 평가 유형과 평가 방법에 대한 이해 및 선정 능력과 관련된 ‘평가 방법의 선정’ 영역 13문항, 평가 도구의 개발 및 선정 능력과 관련된 ‘평가 도구의 개발’ 영역 13문항, 평가의 실시와 채점 및 성적 부여 능력과 관련된 ‘평가 실시·채점·성적 부여’ 영역 9문항, 평가 결과의 분석과 해석 및 활용 능력뿐만 아니라 평가 결과에 대한 관련자들과의 의사소통 능력과 관련된 ‘평가 결과의 분석·해석·활용·의사소통’ 영역 18문항, 전반적인 평가 과정에서의 윤리성과 관련된 ‘평가의 윤리성’ 영역 7문항으로 구성되어 있다.
이 연구에서는 서울, 경인, 춘천 교육대학교의 초등 과학교육 관련 대학원 강좌나 교사 직무연수를 수강하고 있는 교사 217명을 대상으로 설문 조사를 실시하였으며, 연구 대상의 구체적인 특징은 Table 1과 같다. 또한, 6명의 교사들을 편의 표집하여 집단 면담을 약 60분 동안 실시하였다.
데이터처리
문항별 및 하위 영역별로 평균과 표준편차를 산출하였고, 문항별로는 긍정 응답(4=그렇다, 5=매우 그렇다)의 비율도 산출하였다. 교사의 배경 변인(교직 경력, 전공, 학력, 연수 이수 여부 등)에 따른 각 하위 영역의 평균을 비교하기 위해 일원변량분석 (One-way ANOVA) 또는 독립표본 t-검증을 실시하였다. 또한 교사들과의 집단 면담 동영상 및 전사본을 반복적으로 분석하면서 의미 있다고 판단되는 내용들을 추출한 후, 추출한 내용의 타당성을 점검 하고 대표적인 응답 사례를 선정하여 기술하였다.
문항별 및 하위 영역별로 평균과 표준편차를 산출하였고, 문항별로는 긍정 응답(4=그렇다, 5=매우 그렇다)의 비율도 산출하였다. 교사의 배경 변인(교직 경력, 전공, 학력, 연수 이수 여부 등)에 따른 각 하위 영역의 평균을 비교하기 위해 일원변량분석 (One-way ANOVA) 또는 독립표본 t-검증을 실시하였다.
이론/모형
설문지는 한국교육과정평가원에서 개발한 ‘교사의 학생평가 전문성 진단도구(Nam et al., 2006)’를 사용하였다.
성능/효과
교직 경력이 증가할 수록 모든 하위 영역의 전문성 수준에 대하여 높게 평가하였으며, 특히 교직 경력이 20년 이상인 교사가 5년 미만인 교사보다 ‘평가의 윤리성’ 영역을 제외한 모든 하위 영역의 전문성 수준에 대하여 유의미하게 높게 평가하였다.
그러나 규준 참조 평가와 준거 참조 평가의 특징과 장단점에 대한 이해(평균 3.33, 긍정 46.0%), 교수․학습 과정에서 학생이 겪는 어려움을 진단하기에 적합한 평가 방법 선정(평균 3.63, 긍정 59.3%), 특별한 지도가 필요한 학생을 변별하기에 적합한 평가 방법 선정(평균 3.64, 긍정 60.8%) 측면에 대한 긍정적인 인식은 상대적으로 낮았다. 이는 예비 및 현직 교사 교육과정에서 이 부분들에 대한 교육이 강조되지 않았거나 학습 기회가 적었기 때문일 수 있다.
반면, 교수․학습과정에서 학생이 겪는 어려움을 진단하거나 특별한 지도를 필요로 하는 학생을 변별하는 데 적합한 평가 방법의 선정 및 규준 참조 평가와 준거 참조 평가에 관한 전문성이 부족할 가능성을 확인하였다. 또한, 정량적 자료 분석과 해석 및 평가 도구의 개발과 관련된 전문성은 상대적으로 부족할 가능성을 확인할 수 있었다.
또한, 평가 전문성 관련 연수 이수 여부에 따라서는 이수 교사가 미이수 교사보다 ‘평가의 윤리성’ 영역을 제외한 모든 하위 영역에서 자신의 전문성 수준을 더 높게 평가하였다.
모든 하위 영역에서 교직 경력이 증가할수록 평균이 증가하였으며, ‘평가의 윤리성’ 영역을 제외한 4개 하위 영역에서 주효과가 유의미 하였다(p<0.05).
문항별로 분석한 결과에서도 평가의 목적과 내용에 적합한 평가 도구 선정(평균 3.84, 긍정 76.5%), 타당도 개념 이해 및 타당도 평가 실제(평균 3.66, 긍정 64.1%), 신뢰도 개념 이해 및 신뢰도 평가 실제(평균 3.65, 긍정 61.3%), 문항 난이도 개념 이해 및 문항 난이도 평가 실제 (평균 3.69, 긍정 65.0%), 문항 변별도 개념 이해 및 문항 변별도 평가 실제(평균 3.60, 긍정 59.9%) 문항만이 ‘평가 전문성이 있음’에 해당되었다.
82 점으로 ‘평가 전문성이 있음’에 해당되었다. 문항별로는 3.33~4.25점의 다양한 분포를 보였으며, 특히 학생이 달성해야 할 학습 목표 확인 및 평가할 학습 목표의 진술(평균 4.23, 긍정 91.2%)과 진단․형성․총합평가의 목적과 특징의 이해(평균 4.25, 긍정 90.3%), 양적평가와 질적평가의 특징과 장․단점 이해(평균 3.94, 긍정 79.7%), 학생의 성취 수준을 파악하기에 적합한 평가 방법 선정(평균 3.95, 긍정 80.6%) 측면에 대한 인식이 매우 긍정적이었다. 즉, 많은 교사들이 대체적으로 평가 방법의 유형에 대한 이해 및 선정과 관련된 자신의 전문성 수준에 대하여 높게 인식했음을 알 수 있다.
반면, 학생들의 점수 분포나 문항 특성에 대한 기초 통계 자료 산출(평균 3.46, 긍정 50.9%), 평가 방법에 따라 동일한 학생에 대한 평가 결과가 일치하지 않을 경우 그 원인에 대한 분석 및 해석(평균 3.59, 긍정 60.4%), 학생, 평가 도구, 평가 환경, 평가자 등에 의한 오차를 고려한 평가 결과 해석(평균 3.59, 긍정 59.9%), 표준화 검사에서 보고되는 여러 가지 검사 점수에 대한 정확하고 타당한 해석(평균 3.51, 긍정 52.5%), 검사의 규준에 근거한 학생들의 상대적 위치에 대한 해석 및 설명(평균 3.62, 긍정 54.8%), 검사의 준거에 기초하여 학생들이 무엇을 알고 할 수 있는지에 대한 해석 및 설명(평균 3.65, 56.7%) 등과 같이 정량적 자료 분석 및 해석과 관련된 전문성에 대한 인식은 다른 항목에 비하여 상대적으로 낮은 편이었다. 이는 최근 정성적인 평가가 상대적으로 강조되고 있는 초등학교 현장의 특성이 반영된 결과라 해석된다.
연구 결과, 초등학교 교사들은 ‘평가의 윤리성’, ‘평가 실시․ 채점․성적 부여’, ‘평가 방법의 선정’, ‘평가 결과의 분석․해석․활용․의사소통’, ‘평가 도구의 개발’ 영역 순으로 자신의 전문성 수준에 대하여 높게 평가하는 것으로 나타났다.
이 연구에서 구한 신뢰도 계수(Cronbach’s alpha)는 ‘평가 방법의 선정’, ‘평가 도구의 개발’, ‘평가 실시․채점․성적 부여’, ‘평가 결과의 분석․ 해석·활용·의사소통’, ‘평가의 윤리성’ 영역에 대하여 각각 0.89, 0.93, 0.86, 0.94, 0.87로 높게 나타났다.
이보다는 약간 부족하나 평가 도구에 성별이나 사회경제적 배경에 따라 불리하게 작용할 수 있는 내용이나 방법의 선정 여부 확인(평균 3.80, 긍정 69.9%), 평가 활동에 대한 반성적 평가(평균 3.82, 긍정 71.4%) 측면에서 자신의 전문성을 긍정적으로 인식한 교사도 많은 편이었다.
전공에 따른 독립표본 t-검증 결과(Table 4), 모든 하위 영역에서 과학 전공과 비전공의 평균 차이가 통계적으로 유의미하지 않았다(p>0.05).
34점의 점수 분포를 보였다. 즉, 대부분의 교사들이 평가 관련 지침 및 규정 준수(평균 4.05, 긍정 81.6%), 평가 도구(평균 4.28, 긍정 87.1%) 및 평가 결과(평균 4.34, 긍정 89.4%)의 보안과 유지, 합리적이고 공정한 절차에 의한 평가 실시(평균 4.31, 긍정 88.0%) 측면에서 전문성을 갖추고 있다고 인식하는 것으로 나타났다. 이보다는 약간 부족하나 평가 도구에 성별이나 사회경제적 배경에 따라 불리하게 작용할 수 있는 내용이나 방법의 선정 여부 확인(평균 3.
92 점으로 ‘평가 전문성이 있음’에 해당되었으며, 특히 평가 실시나 채점과 관련된 문항들의 경우에는 4점 이상의 높은 점수를 보였다. 즉, 대부분의 교사들이 학생에게 평가 계획에 대하여 사전 공지하고 있고(평균 4.12, 긍정 82.0%), 평가 실시에 적합한 물리적․심리적 환경을 조성 및 관리하고 있으며(평균 4.00, 긍정 79.7%), 평가 과정에서 학생들을 효과적으로 지도 및 감독하고 있고(평균 4.43, 긍정 93.1%), 채점 기준을 정확하게 숙지하여 채점하고 있으며 (평균 4.34, 긍정 94.0%), 학생의 답안을 점검하여 채점 기준을 수정 및 보완할 수 있고(평균 4.24, 긍정 90.3%), 학생에게 부여한 점수의 범위를 확인하여 학생의 능력을 제대로 변별하고 있는지 확인할 수 있다(평균 3.99, 긍정 81.1%)고 인식하였다. 이는 많은 교사들이 피험자로서의 경험, 교육대학 또는 교사 직무연수 과정에서의 학습 경험, 교사로서의 평가 실시 경험, 매체와 선배 교사의 조언 등을 통한 간접 경험을 바탕으로 평가 실시와 관련된 경험과 기술을 지니게 되었다고 인식한 것으로 볼 수 있다.
다음 면담 사례가 이 주장을 뒷받침해준다. 즉, 첫 번째 사례에서는 초등학교의 경우 구체적인 정량적 평가 및 이에 기초한 피드백을 요구하고 있지 않음을 보여주고 있 고, 두 번째 사례에서는 평가 결과에 대한 정량적인 분석 및 해석 기회가 부족함을 보여주고 있다.
96점으로 점수가 다양하게 분포하였다. 진단평가 결과에 기초하여 학생들의 수준과 요구에 적합한 수업 계획 수립(평균 3.95, 긍정 80.2%), 형성평가 결과에 기초하여 학생들의 학습 곤란 정도와 문제점 진단 및 해결 방안 제공(평균 3.95, 긍정 77.4%), 총합평가 결과에 기초 하여 학생의 성취 변화 정도 파악 및 차기 수업 계획을 위한 정보로 활용(평균 3.94, 긍정 77.4%), 학생, 학부모, 교육 관련자들에게 평가의 목적, 결과, 해석 방법 설명(평균 3.92, 긍정 75.1%), 평가 결과에 기초하여 학생과 학부모에게 학생의 강점과 약점에 대해 설명하고 개선 방향 제시(평균 3.96, 긍정 79.3%) 등에서는 인식이 비교적 긍정적이었다. 이는 학교 차원에서 평가 결과를 분석, 해석, 활용하도록 요구하고 있을 뿐만 아니라, 담임교사제라는 초등학교의 특성상 교사가 학생들을 총체적으로 평가하고 판단할 수 있는 기회가 많기 때문이라고 해석할 수 있다.
후속연구
이를 위해, 초등학교 교사들에게 해당 전문성에 대한 이론적인 학습 기회를 제공하는 것 뿐만 아니라 교사들이 개별 또는 공동으로 다양한 상황에 적합한 평가 도구를 직접 개발한 후 그 과정과 결과물에 대하여 다른 교사나 전문가들의 피드백을 받아 개선하는 경험을 제공하는 방안이 효과적일 수 있다. 개발한 평가 도구를 활용하여 평가를 실시한 후, 그 평가 과정이나 결과물에 대하여 적절한 피드백을 제공한다면 그 효과는 더욱 커질 수 있다. 따라서 다양한 형태의 연수나 교사 모임, 멘토링 등을 통하여 이러한 과정을 효율적으로 진행하는 방안을 마련하기 위해 노력해야 할 것이다.
그러나 연수 이수 후에도 여전히 ‘평가 도구의 개발’ 영역의 평균이 3.70점 미만 수준에 머물러 있었으므로, 이 능력을 효과적으로 향상시킬 수 있는 연수 방안을 모색할 필요가 있다.
개발한 평가 도구를 활용하여 평가를 실시한 후, 그 평가 과정이나 결과물에 대하여 적절한 피드백을 제공한다면 그 효과는 더욱 커질 수 있다. 따라서 다양한 형태의 연수나 교사 모임, 멘토링 등을 통하여 이러한 과정을 효율적으로 진행하는 방안을 마련하기 위해 노력해야 할 것이다. 한편, 교사들이 평가 도구를 실제로 개발하는 능력이 부족하더라도 기존에 개발된 평가 도구를 선정하여 적용할 수 있는 능력은 어느 정도 갖추고 있다고 판단되므로, 우수한 평가 도구를 효과적으로 개발하여 보급하는 방안을 마련하는 일도 필요하다.
질의응답
핵심어
질문
논문에서 추출한 답변
평가는 무엇인가?
평가는 학생의 학습과 성취에 대한 교사의 의사 결정을 뒷받침하는 정보를 수집하고 해석하는 활동으로(McMillan et al., 2002), 평가 결과는 학생들의 학습 목표 달성 정도 및 다양한 인지적․정의적 특성의 파악, 설정된 교수 목표의 타당성 및 학습 지도 방법의 유효성 점검 등을 위한 정보를 제공하여 교수․학습의 질 개선을 위한 자료로 사용된다(Kwon et al.
교사의 평가는 학생들 의 학습 향상에 효과적인 것으로 보고 되고 있다. 그 예시는 무엇인가?
실제로 교사의 평가는 학생들 의 학습 향상에 효과적인 것으로 보고되고 있다. 예를 들어, 형성평가의 교수 효과를 조사한 연구를 종합한 Black and Wiliam(1998)의 연구에 따르면, 형성평가의 효과 크기(effect size)는 0.4~0.7로 가장 효과적인 교육 처치 중 하나였다. 따라서 교사의 평가 전문성 향상은 성공적인 교수․학습 및 교사 전문성 발달을 위한 핵심적인 요소라고 할 수 있다 (Cho & Ko, 2008; Falk, 2012; Min, 2012; Park & Oliver, 2008; Veal & MaKinster, 1999).
평가 결과는 무엇으로 사용 되는가?
평가는 학생의 학습과 성취에 대한 교사의 의사 결정을 뒷받침하는 정보를 수집하고 해석하는 활동으로(McMillan et al., 2002), 평가 결과는 학생들의 학습 목표 달성 정도 및 다양한 인지적․정의적 특성의 파악, 설정된 교수 목표의 타당성 및 학습 지도 방법의 유효성 점검 등을 위한 정보를 제공하여 교수․학습의 질 개선을 위한 자료로 사용된다(Kwon et al., 2012).
참고문헌 (23)
American Federation of Teacher, National Council on Measurement in Education, & National Education Association (1990). Standards for teacher competence in educational assessment of students. Educational Measurement: Issues and Practice, 9(4), 30-32.
Cho, H.-H. & Ko, Y. J. (2008). Re-conceptualization of secondary science teacher's pedagogical content knowledge (PCK) and its application. Journal of the Korean Association for Research in Science Education, 28(6), 618-632.
Choi, K., Lee, H. & Nam, J.-H. (2000). The effects of formative assessment with detailed feedback on students' science achievement, attitude, and interaction between teacher and students. Journal of the Korean Association for Science Education, 20(3), 479-490.
Falk, A. (2012). Teachers learning from professional development in elementary science: Reciprocal relations between formative assessment and pedagogical content knowledge. Science Education, 96(2), 265-290.
Jang, S.-M. & Kim, J.-Y. (2002). Analysis on the status of performance assessment in science based on the elementary teachers' concerns. Journal of Korean Elementary Science Education, 21(2), 227-239.
Kim, D.-Y. (2006). The development of a self-diagnostic program for improving science teachers' competency in student assessment - Centering on earth science contents -. Doctoral dissertation, Seoul National University, Seoul.
Kim, H.-J., Kwack, D.-H. & Sung, M.-W. (2000). An investigation on science teachers' evaluation practices in the secondary schools. Journal of the Korean Association for Science Education, 20(1), 101-111.
Kim, J. Y. (2005). Elementary teachers' understanding and practice on science performance assessment. Master's thesis, Daegu National University of Education, Daegu.
Kim, K., Park, E., Song, M., Sang, K., Kim, S., Kim, H., Shin, J., Seo, J., Lee, C., Kim, J., Kim, K. & Choi, S. (2012). A study on management of standards-based assessment in secondary schools [중등학교의 성취평가제 운영 방안 연구]. Seoul: Korea Institute for Curriculum and Evaluation (CRE 2012-8).
Kim, K.-M. & Kim, S.-W. (2002). A study on the weight of assessment domains in science education focused on the teacher's view points. Journal of the Korean Association for Science Education, 22(3), 540-549.
Kim, S. (2002). A study on the teacher's competence for classroom assessment. Journal of Educational Evaluation, 15(1), 151-171.
Kim, S.-Y. & Hyun, M.-S. (2005). The study on the recognition of science teachers about the general matters of performance assessment and the appropriate performance assessment methods in middle school science curriculum. Journal of Research in Curriculum Instruction, 9(2), 213-232.
Ko, M.-S., Kim, E.-A., Heo, J.-M. & Y. I.-H. (2013). Elementary school teachers' beliefs of inquiry and practice of science performance assessment. Journal of the Korean Society of Earth Science Education, 6(2), 124-135.
Kwon, J.-S., Kim, B. K., Choi, B.-S., Kim, H.-N., Paik, S.-H., Yang, I.-H., Kwon, Y.-J., Cha, H., Woo, J.-O. & Jeong, J.-W. (2012). Theories in science education [과학교육론]. Seoul: Kyoyookbook Publication Co.
Lee, Y.-G., Ko, M.-S. & Kim, M.-Y. (2011). A study of physical education teachers' specialty in evaluation. Journal of Korean Society for the Study of Physical Education, 16(3), 65-75.
McMillan, J. H. (2004). Classroom assessment principle and practice for effective instruction. Boston: Allyn & Bacon.
Min, H. J. (2012). Development of assessment expertise model through analyzing realities of science teacher's student assessment and teacher training. Doctoral dissertation, Korea National University of Education, Cheongju.
Ministry of Education, Science and Technology (2011). Science education curriculum [과학과교육과정]. Ministry of Education, Science and Technology, 2011-361.
Nam, M., Park, S., Song, M., Kim, K., Kim, S., Cho, I., Lim, W., Lee, K., Oh, S., Kang, M. & Kang, J. (2006). A study on improvement of teacher's competence in student assessment (III) [교사의 학생평가 전문성 신장 연구(III)]. Seoul: Korea Institute for Curriculum and Evaluation (RRE 2006-5).
Noh, T., Yoon, J. & Kang, S. (2009). The investigation of elementary school teachers' perceptions toward constructivist science assessment and their relationship with related variables. Journal of Korean Elementary Science Education, 28(3), 352-360.
Park, S. & Oliver, J. S. (2008). Revisiting the conceptualization of pedagogical content knowledge (PCK): PCK as a conceptual tool to understand teachers as professionals. Research in Science Education, 38(3), 261-284.
Veal, W. R. & MaKinster, J. G. (1999). Pedagogical content knowledge taxonomies. Electronic Journal of Science Education, 3(4). Retrieved from http://unr.edu/homepage/crowther/ejse/ejsev3n4.html
※ AI-Helper는 부적절한 답변을 할 수 있습니다.