$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

과학적 논증과정 평가를 위한 루브릭 개발
The Development of Rubrics to Assess Scientific Argumentation 원문보기

한국과학교육학회지 = Journal of the Korean association for science education, v.29 no.2, 2009년, pp.203 - 220  

양일호 (한국교원대학교) ,  이효정 (한국교원대학교) ,  이효녕 (경북대학교) ,  조현준 (카이스트 과학영재교육연구원)

초록
AI-Helper 아이콘AI-Helper

이 연구의 목적은 학생들의 과학적 논증과정 평가를 위한 루브릭을 개발하는 것이다. 루브릭의 개발을 위해 과학교육에서의 논증과정과 관련된 문헌의 분석을 통해 루브릭의 개발 절차및 평가의 범주를 도출하였다. 루브릭 개발의 일반적인 절차를 따라서 논증과정 평가의 기준을 형식, 내용, 태도의 세 가지 범주를 문헌을 통해 도출하였다. 형식의 범주에는 전체의 구성, 주장, 근거, 결론의 하위 기능으로 세분화하였고, 내용의 범주에는 이해, 신빙성, 추론으로 하위 기능을 세분하였으며, 태도의 범주에는 참여도와 개방성을 하위 기능으로 정하였다. 이렇게 구성된 각각의 하위기능의 평가에 대한 기준을 구체적인 5단계로 제시하였다. 문헌 연구를 토대로 개발된 평가 루브릭은 과학 교육 전문가 1인과 동료 연구자들의 정기적인 세미나를 통해 점검 받았다. 개발된 초기의 루브릭은 과학교육 전문가 4인에게 의뢰하여 문제점 및 개선점에 대한 검증을 받아 다시 수정되었으며, 최종 완성된 루브릭은 과학교육 전문가 4인에게 타당도를 검증받아 내용타당도지수 0.96으로 높게 나타났다. 개발된 루브릭을 통해 학생들의 논증과정에 대한 이해를 높일 수있고, 논증과정 프로그램 개발과 논증과정 평가를 위한 기준으로 활용이 가능할 것이다.

Abstract AI-Helper 아이콘AI-Helper

The purpose of this study was to develop a rubric for assessing students' scientific argumentation. Through the analysis of relevant literature related to argument in science education for developing rubric, the procedure in development and the category in assessment for rubric were elicited. Accord...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 이 주제를 통해 논증과정 수업을 이끌어낸 이유는 과학적 설명을 제안할 때 논리적 근거를 형성할 수 있는 변인들이 다양하고 실험 결과 및 결론에 대해 사전에 학습하지 않은 내용이어야 논증과정이 활발히 이루어질 수 있기 때문이다. 논증과정은 주로 모둠별 결과 발표와 그에 관한 질의응답으로 구성되었는데 이 논증과정을 평가함에 있어서 개발된 루브릭을 예비 적용함으로써 루브릭 개발진과 실제 채점자 간에 지속적인 피드백을 통해 항목에 대한 정의나 평가 척도의 서술이 모호하여 채점자가 잘 이해할 수 없는 부분에 대하여 수정하고 보강하고자 하였다.
  • 이러한 특성을 가진 과학교과를 가장 효과적으로 가르칠 수 있는 방법으로써 논증과정을 통한 교육이 매우 유용하다. 따라서 이 연구에서는 과학과의 초등∙중등∙고등학교 학생들의 논증과정의 질을 평가하여 과학과 교수학습에 도움을 주기 위한 목적으로 관련 문헌 고찰을 통하여 루브릭을 개발하였다. 이 루브릭은 형식, 내용, 태도의 3가지 범주, 각 범주는 형식에 전제 구성, 주장 근거, 결론, 내용에 이해, 신빙성, 추론, 태도에 참여도, 개방성 등의 세부적으로 평가할 하위항목으로 구성되었고, 각각을 5척도로 수준을 나누어 기술되었다.
  • 또한 Toulmin의 TAP가 상호 과정적 논증과정 평가에 어려움이 있다는 한계를 극복하기 위해 학생들의 논증과정에서 그룹 활동을 강조하는 Downing model을 개발하였고(Andrews et al., 1993), 내용 일반적인 평가 관점에서 벗어나기 위하여 논증과정 속에 포함된 과학적 지식수준을 평가하고자 했다(Sandoval & Millwood, 2005; Takao et al., 2002).
  • Mercer 등(1999)은 논증과정에서 상호작용의 중요성을 강조하면서 상호작용의 차이를 분석할 수 있는 Downing model을 개발하여 7수준으로 학생들의 논증과정을 평가하고자 했다. 이 모델에서는 학생들이 논증과정에 참여하려는 태도에서부터 상대방의 입장을 어떻게 받아들이는가, 그를 바탕으로 자신의 입장을 조정하는지에 대해서도 평가 관점으로 삼았다. 또한 Veerman 등(2002)에 의하면 논증과정상에서 자신이 결정한 입장에 따라서 과학적인 정보를 편파적으로 평가할 수 있으며, 자신의 입장만을 옹호하고 공격하는 성향 때문에 반대 입장의 타당한 증거를 무시하는 특성을 보이는데 이러한 행동이 타협의 여지를 제한하고 지식의 교환을 방해할 수 있다.
  • 이 연구는 이와 같은 필요성을 바탕으로 과학적 논증과정 교수와 평가에 도움을 주기 위하여, 기존에 이루어졌던 과학적 논증과정 분석과 평가에 대한 연구들을 검토하고 종합하여 초, 중, 고등학생의 과학적 논증과정 평가를 위한 루브릭을 개발하는데 목적이 있다.
  • 이 연구의 목적은 학생들의 과학적 논증과정 평가를 위한 루브릭을 개발하는 것이다. 루브릭의 개발을 위해 과학교육에서의 논증과정과 관련된 문헌의 분석을 통해 루브릭의 개발 절차 및 평가의 범주를 도출하였다.
  • 첫째 평가 항목 중 ‘형식’ 부분에 전체 구성/주장/근거/결론이라는 항목을 평가함에 있어서 발표자와 질문자가 있는데 어디에 중점을 두어 평가해야 하는지에 관한 의문이었다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
총체적 루브릭이란 무엇인가? Arter와 McTighe (2001)에 따르면 루브릭은 크게 총체적(holistic), 분석적(analytic)이라는 관점과 과제 특수적, 과제 일반적인 관점의 두 가지 차원으로 나눌 수 있다. 총체적 루브릭은 전반적인 특성에 따라 측정하지만 분석적 루브릭은 수행이나 수행 결과물을 몇 가지 특성이나 차원으로 나누어 복합적으로 분석하는 것이다. 또한 과제 일반적(task general)인 것은 같은 루브릭을 다양한 평가 상황에서 사용하는 것을 말하며 과제 특수적(task specific)인 것은 과제에 따라 각기 다른 루브릭을 사용하는 것을 뜻한다.
학교 교육현장에서 논증과정이 효과적으로 이루어지기 위해서 달성해야 하는 목표는 무엇인가? , 2006). 따라서 학교 교육현장에서 논증과정이 효과적으로 이루어지기 위해서는 첫째, 논증의 질을 개선하기 위한 교육적 장치를 제공하고 둘째, 교사들에게 논증과정상에서 무엇을 찾아야 할 것인지 어떻게 학생들에게 논증을 안내할 것인지를 제공하고 셋째, 학생들이 논증의 본성과 구조에 대해 인식하는 것을 돕고 넷째, 학생이 논증과정에 대하여 어느 정도 진보를 이루었는지 알아내기 위한 평가를 제공해야 한다는 등의 4가지 목표를 달성해야 하며, 이를 위해 논증 과정을 평가하고 분석할 수 있는 도구의 개발이 필요하다(Driver et al., 2000).
과학수업에서 논증과정이 잘 활용되지 못하는 원인은 무엇인가? 그렇다면 왜 과학수업에서 논증과정이 잘 활용되지 못하는 것일까? 이에 대한 원인은 교사들이 성공적인 논증과정 지도 방법을 제대로 이해하고 있지 못하며 그 결과 논증과정을 시도하기 위한 자신감이 결여되어 있기 때문이고(Driver et al., 2000), 교육과정상의 문제, 교사들의 인식 부족도 그 원인 중 하나라고 하였다(Osborne et al., 2004).
질의응답 정보가 도움이 되었나요?

참고문헌 (64)

  1. 강순민, 곽경화, 남정희 (2006). 논의 과정을 강조한 교수 학습 전략이 중학생들의 인지발달, 과학개념 이해, 과학관련 태도 및 논의 과정에 미치는 영향. 한국과학교육학회, 26(3), 450-461 

  2. 이범홍 (1998). 토의 토론 학습과 중등학교 과학 교육. 1997년도 교과교육공동연구 결과보고서 (RR97-Ⅱ-6), 서울: 한국 학술 진흥 재단 

  3. Herman, J. I., Aschbacher, P. R., & Winters, I. (1992). A practical guide to alternative assessment. Alexandria, VA: Association for Supervision and Curriculum Development. 김경자(역) (2000). 수행평가 과제 제작의 원리와 실재. 서울: 이화여자대학교 출판부 

  4. Andrews, R., Costello, P., & Clarke, S. (1993). Improving the quality of argument 5-16: Final Report. Hull, UK: Esmee Fairbairn Charitable Trust/University of Hull 

  5. Arter, J. (2000). Rubrics, scoring guides, and performance criteria: Classroom tools for assessing and improving student learning. paper presented at the Annual Meeting of American Educational Research Association. ERIC Document Reproduction Service Mo. ED446100 

  6. Arter, J., & McTighe, J. (2001). Scoring rubrics in the classroom: Using performance criteria for assessing and improving student performance. Thousand Oaks, CA: Corwin Press 

  7. Astin, A. W. (1993). Assessment for excellence: The philosophy and practice of assessment and evaluation in higher education. New York: Macmillan 

  8. Aufscjnaiter, C. V., Erduran, S., Osborne., J., & Simon, S. (2008). Arguing to learn and learning to argue: Case studies of how students' argumentation relates to their scientific knowledge. Journal of Research in Science Teaching, 45(1), 101-131 

  9. Banta, T. W., Lund, J. P., Black, K. E., & Oblander, F. W. (1996). Assessment in practice: Putting principles to work on college campuses. San Francisco: Jossey-Bass 

  10. Bazerman, C. (1988). Shaping written knowledge: The genre and activity of the experimental article in science. Madison: University of Wisconsin Press 

  11. Bell, P., & Linn, M. C. (2000). Scientific arguments as learning artifacts: Designing for learning for the Web with KIE. International Journal of Science Education, 22(8), 797-817 

  12. Bricker, L. A., & Bell, P. (2008). Conceptualizations of argumentation from science studies and the learning sciences and their implications for the practices of science education. Science Education, 92(3), 473-498 

  13. Carr, J.F., & Harris, D.E. (2001). Succeeding with standards: Linking curriculum, assessment, and action planning. Alexandria, VA: Association for Supervision & Curriculum Development 

  14. Chan, C. K. K. (2001). Peer collaboration and discourse patterns in learning from 

  15. Chinn, C. A., & Anderson, R. G. (2000). The structure of discussions that promote reasoning. Teachers College Record, 100(2), 315-368 

  16. Clark, D., & Sampson, V. (2006). Personally -seeded discussions to scaffold online argumentation. International Journal of Science Education, 29(3), 253-277 

  17. Davis, L. (1992). Instrument review: Getting the most from your panel of experts. Applied Nursing Research, 5(4), 194-197 

  18. Driver, R., Newton, P., & Osborne, J. (2000). Establishing the norms of scientific 

  19. Erduran, S., Simon, S., & Osborne, J. (2004). TAPping into argumentation: Developments in the application of Toulmin's argument pattern for studying science discourse. Science Education, 88(6), 915 933 

  20. Felton, M. K., & Herko, S. (2004). From dialogue to two-sided argument: Scaffolding adolescents' perspective writing. Journal of Adolescent & Adult Literacy, 47(8), 672-683 

  21. Felton, M., & Kuhn, D. (2001). The development of argumentative discourse skill. Discourse Processes, 32(2&3), 135-153 

  22. Goodrich, H. (1996). Understanding rubrics. Educational Leadership, 54(4), 14-17 

  23. Hogan, K., Nastasi, B. K., & Pressley, M. (2000). Discourse patterns and collaborative scientific reasoning in peer and teacherguided discussion. Cognition and Instruction, 17(4), 379-432 

  24. Hogan, K., & Maglienti, M. (2001). Comparing the epistemological underpinnings of students and scientists' reasoning about conclusions. Journal of Research in Science Teaching. 38(6). 663-687 

  25. Jimenez-Aleixandre, M. P., Rodrigueze, A. B., & Duschl, R. A. (2000). "Doing the Lesson" or "Doing Science": Argument in high school genetics. London: John Wiley & Sons 

  26. Kelly, G. J., & Takao, A. (2002). Epistemic levels in argument: An analysis of university oceanography students use of evidence in writing. Science Education, 86, 314-342 

  27. Kelly, G. J., & Bazerman, C. (2003). How students argue scientific claims: a rhetoricalsemantic analysis. Applied Linguistics, 24(1), 28-55 

  28. Kanselaar, G., Erkens, G., Andriessne, J., Prangsma, M., Veerman, A., & Jaspers, J. (2002). Designing argumentation tools fro collaborative learning. In P. A. Kirschner, S. J. Buckingham-Shum & C. S. Carr (Eds.), Visualising argumentation: Software Tools for Collaborative and Educational Sense-making. (pp. 51-73). London: Springer 

  29. Kuhn, D. (1993). Science as argument: Implications for teaching and learning scientific thinking. Science Education, 77(3), 319-337 

  30. Lawson, A. E. (2003). The nature and development of hypothetico-predictive argumentation with implications for science teaching. International Journal of Science Education, 25(11), 1387-1408 

  31. Maloney, J., & Simon, S. (2006). Mapping children's discussions of evidence in science to assess collaboration and argumentation. International Journal of Science Education, 28(15), 1817-1841 

  32. Marttunen, M. (1994). Assessing argumentation skills among finish universitym students. Learning and Instruction, 4, 175-191 

  33. McCann, T. M. (1989). Student argumentative writing: Knowledge and ability at three grade levels. Research in the Teaching of English, 23(1), 62-76 

  34. McNeill, K. L., Lizotte, D. J., Krajcik, J., & Marx, R. W. (2006). Supporting students' construction of scientific explanations by fading scaffolds in instructional materials. Journal of the Learning Science, 15(2), 153-191 

  35. McNeill, K. L., & Krajcik, J. (2007). Middle school students' use of appropriate and inappropriate evidence in writing scientific explanations. In Lovett, M. & Shah, P. (Eds.) Thinking with data: The proceedings of the 33rd Carnegie symposium on cognition. Mahwah, NJ: Lawrence Erlbaum Associate, Inc 

  36. Mercer, N., Wegerif, R., & Dawes, L. (1999). Children's talk and the development of reasoning in the classroom. British Educational Research Journal, 25(1), 95-111 

  37. Messick, S. (1994). The interplay of evidence and consequences in the validation of performance assessments. Educational Researcher, 23(2): 13-23 

  38. Mitchell, S. (2001). What is this thing called argument? In R. Andrews & S. Mitchell (Eds.), Essays in argument. London: Middlesex University Press 

  39. Moskal, B. M., & Leydens, J. A. (2000). Scoring rubric development: Validity and reliability. Practical Assessment, Research & Evaluation, 7(10) 

  40. Naylor, S., Keogh, B., & Downing, B. (2007). Argumentation and primary science. Research in Science Education, 37, 17-39 

  41. Newton, P., Driver, R. & Osborne, J. (1999). The place of argumentation in the pedagogy of school science. International Journal of Science Education, 21, 553-576 

  42. Nussbaum, E. M. (2008). Collaborative discourse, argumentation, and learning: 

  43. O'Donnell, A. M., & King, A. (Eds.). (1998). Cognitive perspectives on peer learning. Mahwah, NJ: Erlbaum 

  44. Osborne, J. F., Erduran, S., Simon, S., & Monk, M. (2001). Enhancing the quality of argumentation in school science. School Science Review, 82(301), 63-70 

  45. Osborne, J., Erduran, S., & Simon, S. (2004). Enhancing the quality of argumentation in school science. Journal of Researcher in Science Teaching, 41(10), 994-1020 

  46. Perella, J. (1987). The debate method of critical thinking: An introduction to argumentation. Dubuque, IA: Kendall/Hun 

  47. Pollock, J. L. (1987). Defeasible reasoning. Cognitive Science, 11, 481 518 

  48. Reiser, B. J., Tabak, I., Sandoval, W. A., Smith, B., Steinmuller, F., & Leone, T. J. (2001). BGUILE: Strategic and conceptual scaffolds for scientific inquiry in biology classrooms. In S. M. Carver & D. Klahr (Eds.), Cognition and instruction: Twenty-five years of progress (pp. 263 305). Mahwah, NJ: Erlbaum 

  49. Sadler, T. D., & Fowler, S. R. (2006). A threshold model of content knowledge transfer for socioscientific argumentation. Science Education, 90, 986-1004 

  50. Sampson, V., & Clark, D. (2008). Assessment of the ways students generate 

  51. Sandoval, W. A., & Millwood, K. A. (2005). The quality of students' use of evidence in written scientific explanations. Cognition And Instruction, 23(1), 23-55 

  52. Schafer, W. D., Swanson, G., Bene, N., & Newberry, G. (2001). Effects of teacher knowledge of rubrics on student achievement in four content area. Applied Measurement in Education, 14, 151-170 

  53. Schwarz, B., & Glassner, A. (2003). The blind and the paralytic: Supporting argumentation in everyday and scientific issues. In J. Andriessen, M. Baker, & D. Suthers (Eds.), Arguing to learn: Confronting cognitions in computer-supported collaborative learning environments (pp. 227-260). Dordrecht, the Netherlands: Kluwer 

  54. Simon, S., Erduran, S., & Osborne, J.(2006). Learning to Teach Argumentation: 

  55. Siegel, M. A., Hynds, S., Siciliano, M., & Nagle, B. (2006). Chapter 7. Using rubrics to foster meaningful learning. In McMahon, M., Simmons, P., Sommers, R., Debates, D., & Crawley, F. (Ed.) Assessment in Science. (pp. 89-106). Arlington: NSTA press 

  56. Takao, A. Y., Prothero, W. A., & Kelly, G. J. (2002). Applying argumentation analysis to assess the quality of university oceanography students' scientific writing. Journal of Geoscience Education, 5(1), 40-48 

  57. Toulmin, S. (1958). The uses of argument. Cambridge: Cambridge University Press 

  58. Van Gelder, T. (2002). Argument mapping with reasonable. Philosophy and Computers, 2(1), 85-90 

  59. Veerman. A., Andriessen. J., & Kanselaar. G. (2002). Collaborative argumentation in academic education, Instructional Science, 30, 155-186 

  60. Waltman, K., Kahn, A., & Koency, G. (1998). Alternative approaches to scoring: The effect of using different scoring methods on the validity of scores from a performance assessment. CSE Technical Report 488. Los Angeles, CA: National Center for Research on Evaluation, Standards, and Student Testing 

  61. Yore, L. D., & Treagust, D. F. (2006). Current realities and future possibilities: language and science literacy-empowering research and informing instruction. International Journal of Science Education, 28(2-3), 291-314 

  62. Zembal-Saul, C., Munford, D., Crawford, B., Friedrichsen, P., & Land, S. (2003). Scaffolding preservice teachers' evidencebased arguments during an investigation of natural selection. Research in Science Education, 32, 437-463 

  63. Zimmaro, D. M. (2004). Developing grading rubrics. Retrieved from http://www.utexas.edu/academic/mec/research/pdf/rubricshandou t.pdf 

  64. Zohar, A., & Nemet, F. (2002). Fostering students' knowledge and argumentation skills through dilemmas in human genetics. Journal of Research in Science Teaching, 39, 35-62 

저자의 다른 논문 :

LOADING...

관련 콘텐츠

이 논문과 함께 이용한 콘텐츠

저작권 관리 안내
섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로