$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

과학 교육에서의 평가 연구 동향
Trends of Assessment Research in Science Education 원문보기

한국과학교육학회지 = Journal of the Korean association for science education, v.36 no.4, 2016년, pp.563 - 579  

정수임 (이화여자대학교) ,  신동희 (이화여자대학교)

초록
AI-Helper 아이콘AI-Helper

이 연구는 최근 30년 동안 과학 교육에서 평가를 다룬 국내 논문을 분석하여 동향을 파악함으로써, 과학 교육 과정의 개선 방향을 제시하고 향후 연구에 대한 시사점을 얻고자 했다. 연구의 주요 목표는 과거 30년간 국내 학술지에 게재된 과학 교육 관련 평가 연구의 동향을 인지적 영역과 정의적 영역을 중심으로 분석하고, 연구 목적과 연구 방법론, 연구의 주제어별 특징을 분석하는 것이다. 이를 위해 한국교육학술정보원이 제공하는 데이터베이스를 통해 273편의 연구 논문을 선정했고, 대상, 교과, 연구 방법론, 연구 내용 등의 범주로 분류하여 각각의 논문을 분석했다. 연구의 동향에 영향을 미치는 요인을 알아보기 위해 같은 시기에 진행된 국가 교육 과정의 변화와 평가와 관련한 대내외적 사건을 연계하여 설명을 시도했다. 분석 결과, 과학 교육에서 평가 연구의 전체적 동향은 국가 교육 과정과 평가 관련 제도의 변화를 반영한 경우가 많았다. 연구의 대상이나 주제가 정의적 영역보다 인지적 영역에 편중해서 나타나는 경향이 있으나, 국가 수준 학업 성취도나 국제 학업 성취도 평가에서 얻은 표준화된 자료를 통해 정의적 영역과 다양한 배경 변인의 관계에 주목할 필요가 있음을 인식하게 되었다. 인지적 혹은 정의적 영역에 상관없이 두 영역 모두 양적 연구가 질적 연구보다 우세하게 나타났으며, 인지적 영역은 평가 도구로써 지필 평가와 수행형 평가 등을 다양하게 사용한 반면, 정의적 영역에서는 대부분 지필 평가만을 실시하고 있었다. 평가 연구의 목적은 주로 실제 상황에서 실용적이고 응용적인 내용을 다루는 응용 연구와 평가 연구가 많았고, 연구 방법론도 양적 자료를 다루는 통계를 기반으로 한 방법을 사용했다. 분석 논문의 주제를 유사한 범주로 묶어 연구 동향을 분석한 결과, 주제가 점점 일반적인 내용에서 구체화, 세분화되는 경향이 있었다. 이러한 경향은 그 동안 과학 교육 관련 평가의 문제점으로 지적되었던 개념의 명료화와 관련하여 평가 도구를 정교화할 수 있는 기초가 될 수 있을 것이다. 연구 결과를 바탕으로 정의적 영역의 평가에서 실증적 자료를 얻기 위한 방안 마련, 다양한 맥락으로 세분화된 평가를 수렴할 수 있는 이론적 기초 정립, 양적 자료에 편중된 연구의 균형을 추구하는 연구 풍토의 개진, 평가의 다양한 측면을 반영하여 완성된 교육과정으로 개선하는 기관과 체계의 정비 등을 시사점으로 제안했다.

Abstract AI-Helper 아이콘AI-Helper

This study seeks educational implication by analyzing research papers dealing with science assessment in the most recent 30 years in Korea. The main purpose of the study is to analyze the trends in published papers on science assessment, their purpose, methodology, and key words, especially concentr...

주제어

질의응답

핵심어 질문 논문에서 추출한 답변
현재의 과학 교육 평가 현황과 함께 과거의 연장선상에서 평가의 발전 단계를 살펴보는 동향 연구를 주목해야 하는 이유는? 현재의 과학 교육 평가 현황과 함께 과거의 연장선상에서 평가의 발전 단계를 살펴보는 동향 연구는 세 가지 측면에서 과학 교육 연구자들이 주목해야 할 필요가 있다. 첫째, 과거로부터 현재까지 진행된 연구들을 수직적, 수평적 차원에서 조망하면서 미래의 경향을 예측할 수 있다. 둘째, 과학 교육의 전체 흐름 안에서 연구의 위상을 확인함으로써 연구자의 입장과 관점을 공고히 할 수 있는데, 이는 연구에서 사용하는 개념을 명확히 하고 연구가 나아갈 방향에서 벗어나지 않도록 안내한다. 셋째, 많은 연구의 분야가 구체적으로 전문화된 상황에서 연구자 스스로 연구의 의미를 성찰하는 기회를 제공함으로써 전체 적인 맥락에서 의미를 연계하고 보다 생산적 관점을 제시할 수 있다.
과학 교육 과정의 변화가 밀접하게 연관되는 요인은? 과학 교육 과정의 변화는 평가 내용 뿐 아니라 형식의 변화와 밀접하게 연관된다. Orpwood(2001)는 과학을 사회적 맥락에 폭 넓게 연계시키려는 과학 교육의 새로운 목표가 최근 강조되고 있지만 평가는 아직까지 이를 따라잡지 못하고 있음을 지적하며, 평가에 대한 새로운 접근을 개발하고 실시하지 않으면 교육 과정의 개혁 취지가 무색해질 수 있음을 경고했다.
NRC(2001)는 교육평가에서 평가의 개념을 어떻게 설정했는가? 길이나 무게는 측정값이라는 결과와 형태가 측정을 대표하지만, 평가는 ‘무엇을 측정하는지’의 범위를 분명히 확정할 수 없을 뿐 아니라 관찰된 것이 우리가 보려는 ‘무엇’인지를 판단해야 하는 연속적 과정이다. NRC(2001)는 평가의 개념을‘증거로부터 추론하는 과정’으로 설정했는데, 이러한 개념화는 평가의 목적과 대상, 원리와 방법을 이끌어 가는 역할을 한다. Pellegrino (2012)는 학생들이 알고 있는 것을 추론할 수 있도록 증거를 수집하는 과정으로서 평가를 개념화하면서 인지, 관찰, 해석이 서로 연결되는 삼각형 모형을 제안했고, 이 모형은 교실 수준의 평가 틀로 다양하게 응용되었을 뿐 아니라 표준화된 측정 도구 개발의 원리로 활용되었다 (Lyon, 2011; Liu, 2012).
질의응답 정보가 도움이 되었나요?

참고문헌 (81)

  1. Abd-El-Khalick, F., Summers, R., Said, Z., Wang, S., & Culbertson, M. (2015). Development and large-scale validation of an instrument to assess Arabic-speaking students' attitudes toward science. International Journal of Science Education, 37(16), 2637-2663. 

  2. Bailey, R. C., & Bailey, K. G. (1974). Self-perceptions of scholastic ability at four grade levels. The Journal of Generic Psychology, 124, 197-212. 

  3. Bloom, B. S. (1976). Human characteristics and school learning. New York: McGraw-Hill. 

  4. Choe, S., Ku, J., Kim, J., Park, S., Oh, E., Kim, J., & Baek, H. (2013). Strategies for improving the affective characteristics of Korean students based on the results of PISA and TIMSS. Seoul: Korea Institute for Curriculum and Evaluation. 

  5. Chae, S. (1996). Towards a reconstruction of the social scientific methods: a synthesis of qualitative and quantitative methods. The Journal of Educational Research, 34(5), 281-297. 

  6. Cho, J., Min, K., & Park, I. (2015). Consequential validity of National Achievement in elementary schools. The Journal of Curriculum and Evaluation, 18(1), 135-154. 

  7. Choi, J., & Paik, S. (2015). A comparative analysis of achievement standards of the 2007 & 2009 Revised Elementary Science Curriculum with Next Generation Science Standards in US based on Bloom's revised taxonomy. Journal of the Korean Association for Science Education, 35(2), 277-288. 

  8. Choi, W., & Jeong, E. (2008). Relationship between science achievement and student-related variable in National Assessment of Educational Achievement in 2006. Journal of the Korean Association for Science Education, 28(8), 848-859. 

  9. Chung, B. (2009). A comparative study on the school differences in PISA 2006 science performance: Finland, Japan, Chinese Taipei, Hong Kong, and Korea. Korean Journal of Comparative Education, 19(2), 1-26. 

  10. Chung, Y., & Choi, J. (2007). An assessment of the scientific literacy of secondary school students. Journal of the Korean Association for Science Education, 27(1), 9-17. 

  11. Chung, W., Yoh, S., Park, J., & Kim, E. (1992). Evaluation of scientific inquiry skills for students of the special classroom(school) managed by firm. Journal of Science Education Kyungpook National University, 16, 1-17. 

  12. Cowie, B. (2012). Focusing on the classroom: Assessment for learning. In Fraser, B. J., Tobin, K. G., & McRobbie, C. J. (Eds). Second International Handbook of Science Education, Dadrecht; New York: Springer. 

  13. Creswell, J. W. (2008). Educational research: qualitative, quantitative, and mixed methods approaches(3rd ed.). CA: Sage Publications. 

  14. Davis, G. A., Rimm, S. B., & Siegle, D. (2011). Education of the gifted and talented(6th ed.). Boston: Pearson. 

  15. Dong, H., Lee, I., & Shin, J. (2013). Characteristics of science achievement of Korean students in TIMSS 2011 and NAEA 2011. Journal of Educational Evaluation, 26(5), 1091-1114. 

  16. Duschl, R. (2008). Science education in three-part harmony: Balancing conceptual, epistemic, and social learning goals. Review of Research in Education, 32, 268-291. 

  17. Eisner, E. W. (1997). The promise and perils of alternative forms of data representation. Educational Researcher, 26(6), 4-10. 

  18. Fraenkel, J. R., Wallen, N. E., & Hyun, H. H. (2015). How to design and evaluate research in education (9th ed.). New York: McGraw-Hill. 

  19. Fraser, Tobin, & McRobbie. (2012). Second international handbook of science education, Dadrecht; New York: Springer. 

  20. Gall, M. D., Gall, J. P., & Borg. W. R. (2007). Educational research(8th ed.). Boston: Pearson. 

  21. Ha, M., & Lee, J. (2013). The item response, generalizability, and structural validity for the translation of Science Motivation Questionnaire II (SMQII). Journal of Learner-Centered Curriculum and Instruction, 13(5), 1-18. 

  22. Holling, H., & Preckel, F. (2005). Self-estimates of intelligence methodological approaches and gender differences. Personality and Individual Differences, 38, 503-517. 

  23. Huizinga, H. M., Crone, E. A., & Jansen, B. J. (2007). Decision-making in healthy children adolescents and adults explained by the use of increasingly complex proportional reasoning rules. Developmental Science, 10(6), 814-825. 

  24. Hwang, S., Kim, H., Yoo, J., & Park, S. (2001). Ninth grader's self assessment of scientific process skills in open investigation. Journal of the Korean Association for Science Education, 21(3), 506-515. 

  25. Jo, S., & Ku, J. (2013). An exploration in the measurement and application of attitude towards science based on social constructivism. Journal of the Korean Association for Science Education, 33(2), 466-477. 

  26. Johnson, A. P. (2005). A short guide to action research (2nd ed.). Boston: Pearson. 

  27. Joo, H. (2000). A little idea of concept mapping evaluation method in construction option. The Journal of Elementary Education, 13(2), 221-237. 

  28. Kang, S., Park, E., Park, I., Yang, J., Lee, Y., Hong, H., & An, J. (2008). The analysis of the relationships between tests of the creative thinking and tests of the hypotheses generating ability. Journal of Research Institute of Curriculum Instruction, 12(1), 253-271. 

  29. Kim, D., & Hong, H. (2010). Measuring the effects of school science curriculum on students science outcomes based on PISA 2006 and comparing them with those of Finland. The Journal of Curriculum Studies, 28(1), 87-112. 

  30. Kim, K., Kim, S., Kim, M., Kim, S. H., Kang, M., Park, H., & Jung, S. (2009). Comparative analysis of curriculum and achievement characteristics between Korea and high performing countries in PISA & TIMSS. Seoul: Korea Institute for Curriculum and Evaluation. 

  31. Kim, H. (2012). A research analysis for an alternative paradigm in christian education with a focus on research methodology. A Journal of Christian Education in Korea, 29, 347-377. 

  32. Kim, J., Kim, S., & Dong, H. (2015). International comparison of cognitive attributes using analysis on science results at TIMSS 2011 based on the cognitive diagnostic theory. Journal of the Korean Association for Science Education, 35(2), 267-275. 

  33. Kim, M. (2002). The effect of portfolio assessment on the scientific investigation ability and science-related attitude of students in elementary school. Journal of Educational Evaluation, 15(1), 87-113. 

  34. Kim, R., Kim, G., & Kwon, N. (2012). Trends in research design and methods: Research on elementary and secondary mathematics curriculum. School Mathematics, 14(3), 395-408. 

  35. Kim, S., & Choi, T. (2008). Research methodology in education. Seoul: Hakjisa. 

  36. Kim, Y., Park, Y., Park, H., Shin, D., Jung, J., & Song, S. (2014). World of science education. Seoul: Book's hill. 

  37. Kim, Y., Yoon, K., & Kwon, D. (2010). Analysis of summative evaluation objectives in middle school biology based on Bloom's revised taxonomy of educational objectives. Journal of Science Education, 34(1), 164-174. 

  38. Koballa, T. R. (1988). Attitude and related concepts in science education. Science Education, 72(2), 115-126. 

  39. Krynowsky, B. (1988). Problems in assessing student attitude in science education: A partial solution. Science Education, 72(4), 575-584. 

  40. Ku, J., Han, J., & Kim, S. (2015). Effects of educational context variables on gender difference in science achievement among top performing countries of PISA 2012. Journal of Educational Evaluation, 28(5), 1381-1400. 

  41. Lawrenz, F., & Thao, M. (2014). Review of science education program evaluation. In Lederman, N. G., & Abell, S. K. (Eds). Handbook of Research on Science Education, volume II. New York: Routledge. 

  42. Lederman, N. G., Abell, S. K. (2014). Handbook of research on science education, volume II, New York: Routledge. 

  43. Lee, D., & Jeong, E. (2014). An analysis of paper and pencil test items of Life Science I in high school. Journal of Science Education, 38(3), 670-690. 

  44. Lee, H., Choi, K., & Nam, J. (2000). The effects of formative assessment with detailed feedback on students' science achievement, attitude, and interaction between teacher and students. Journal of the Korean Association for Science Education, 20(3), 479-490. 

  45. Lee, Y., & Kim, E. (2013). Human characteristics and education. Hakjisa: Seoul. 

  46. Lee, J., Lee, I., & Kwon, Y. (2010). The development of the brain-based analysis framework for the evaluation of teaching-learning program in science. Journal of the Korean Association for Science Education, 30(5), 647-667. 

  47. Lee, S., Kim, J., & Jung, K. (2006). Potential of a self-report measure for intelligence. The Korean Journal of Educational Psychology, 20(4), 931-953. 

  48. Leem, Y., Kim, Y. (2013). A historical study on the Korean Science Curriculum for the elementary and secondary schools. Biology Education, 41(3), 483-503. 

  49. Lim, J., Kang, S., Kong, Y., Choi, B., Nam, J. (2004). The development of instrument to assess high school students' views on Science-Technology-Society. Journal of the Korean Association for Science Education, 24(6), 1143-1157. 

  50. Liu, X. (2012). Developing measurement instruments for science education research. In Fraser, B. J., Tobin, K. G., & McRobbie, C. J. (Eds). Second International Handbook of Science Education, Dadrecht; New York: Springer. 

  51. Lyon, E. (2011). Beliefs, practices, and reflection: Exploring a science teacher's classroom assessment through the assessment triangle model. Journal of Science Teacher Education, 22, 417-435. 

  52. Miller, D. C. (1991). Handbook of research design and social measurement. Newbury Park. CA: Sage Publications. 

  53. Ministry of Culture and Education. (1981). Elementary education curriculum. Notification No. 1981-442 of MOCE. Seoul: MOCE. 

  54. Ministry of Culture and Education. (1987). Elementary education curriculum. Notification No. 87-9 of MOCE. Seoul: MOCE. 

  55. Ministry of Education. (1992). Elementary education curriculum. Notification No. 1992-16 of MOE. Seoul: MOE. 

  56. Ministry of Education. (1997a). Elementary education curriculum. Notification No. 1997-15 of MOE. Seoul: MOE. 

  57. Ministry of Education. (1997b). High school science curriculum reference book. Notification No. 1997-15 of MOE. Seoul: MOE. 

  58. Ministry of Education and Human Resources Development. (2007). Elementary education curriculum. Notification No. 2007-79 of MOEHRD. Seoul: MOEHRD. 

  59. Ministry of Education Science, and Technology. (2011). Science curriculum. Notification No. 2011-361 of MOEST. Seoul: MOEST. 

  60. Nam, J., Choi, J., Kong, Y., Moon, S., & Lee, S. (2004). The effects of feedback types in self assessment on the students's science concept understanding and science-related attitedes in the middle school science. Journal of the Korean Association for Science Education, 24(3), 646-658. 

  61. National Research Council. (2001). Knowing what students know: The science and design of educational assessment. Washington, D. C.: Nationl Academy Press. 

  62. Neuman, W. L. (2011). Social research methods: Qualitative and quantitative approaches (7th ed.). Needham Heights, MA: Allyn & Bacon. 

  63. Noh, T., Yoon, J., & Kang, S. (2009). The investigation of elementary school teachers' perceptions toward constructivist science assessment and their relationship with related variables. Journal of the Korean Society of Elementary Science Education, 28(3), 352-360. 

  64. Orpwood, G. (2001). The role of assessment in science curriculum reform. Assessment in Education, 8(2), 135-151. 

  65. Paik, S., Lee, E., Kim, J., Song, Y., Kim, Y., Chung, J., & Han, J. (2008). Analysis of the content validity of the achievement evaluation items on the "Water" chapter in the high school Chemistry I course. Journal of the Research Institute of Curriculum Instruction. 12(1), 55-65. 

  66. Park, D., Park, C., & Kim, S. (2001). The effect of school and school and student level background variables on math and science achievements in middle schools. Journal of Educational Evaluation. 14(1), 127-149. 

  67. Park, H., Bea, J., & Jo, K. (2012). Analysis of instructional and evaluational objectives in Chemistry I textbooks. Journal of the Korean Chemical Society, 56(4), 491-499. 

  68. Park, K. (2012). Analysis of research trends on gifted education in Korea. Journal of Gifted/Talented Education, 22(4), 823-840. 

  69. Park, S., & Yoo, J. (1999). Science performance assessment. The Korea Association of Yeolin Education, 7(1), 247-262. 

  70. Pellegrino, J. W. (2012). Assessment of science learning: Living in interesting times. Journal of Research in Science Teaching, 49(6), 831-841. 

  71. Seo, Y., Kim, H., & Chae, H. (2010). Analysis of the end-of-chapter questions in Chemistry II according to revised Bloom's taxonomy of educational objectives. Journal of the Korean Chemical Society, 54(3), 329-337. 

  72. Shin, J., & Choi, A. (2014). Trends in research studies on scientific argument and writing in Korea. Journal of the Korean Association for Science Education, 34(2), 107-122. 

  73. Sohn, W. (2008). Multi-level factors influencing the affective domain of Korean students: Results from PISA 2006. Journal of Educational Evaluation, 21(4). 81-105. 

  74. Song, H. (2010). Development of a self-reported executive function rating scale for the Korean high school students: a preliminary study. The Korean Journal of Clinical Psychology, 29(1), 109-124. 

  75. Stufflebeam, D. L., Foley, W. J., Gephart, W. J., Guba, E. G., Hammond, R. L., Merriman, H. O., & Provus, M. M. (1971). Educational evaluation and decision-making in education. Itasca, IL:Peacock Publishers Incorporated. 

  76. Stufflebeam, D. L., & Shinkfield, A. J. (2007). Evaluation theory, models, and applications. San Francisco, CA: Wiley. 

  77. Sung, T., & Si, K. (2015). Research methodology (2nd ed). Hakjisa: Seoul. 

  78. Unfried, A., Faber, M., Stanhope, D. S., & Wiebe, E. (2015). The development and validation of a measure of student attitudes toward science, technology, engineering, and math (S-STEM). Journal of Psychoeducational Assessment, 33(7), 622-639 

  79. Wang, L., Huettel, S., & De Bellis, M. D. (2008). Neural substrates for processing task-irrelevant sad images in adolescents. Developmental Science, 11(1), 23-32. 

  80. Yang, I., Na, J., Lim, S., & Choi, H. (2008). An analysis of elementary schools's science test items by Kopfer's taxonomy of educational objectives: Focusing on the first term of the 5th grade. Journal of Korean Elementary Science Education, 27(3), 221-232. 

  81. Yum, S., & Kang, D. (2011). Influence of curricular context factors within student- and school-levels on the 2006 PISA science achievements of Korean students. Journal of the Research Institute of Curriculum Instruction, 15(2), 281-304. 

저자의 다른 논문 :

관련 콘텐츠

오픈액세스(OA) 유형

FREE

Free Access. 출판사/학술단체 등이 허락한 무료 공개 사이트를 통해 자유로운 이용이 가능한 논문

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로