$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

사회 속 과학의 실현 방안: 과학에 대한 사회 참여 평가의 적용가능성을 중심으로
A Way to Realize the Concept of Science in Society: the Applicability of Societal Participatory Evaluation on Science 원문보기

科學技術學硏究 = Journal of science & technology studies, v.17 no.2, 2017년, pp.173 - 208  

김태희 (한국연구재단)

초록

과학 스스로의 전문성과 사회로부터 자율성 추구는 과학과 사회의 분리를 심화시키는 배경으로 작용하여 왔다. 그러나 사회의 불확실성과 복잡성의 증대는 과학 스스로의 문제 해결과 질적 통제의 한계를 노출하게 하였고 과학에 대한 사회 참여를 요구하는 배경으로 작용하였다. 이에 본 연구는 선행연구에서 제시된 사회 참여 평가 유형을 과학 영역으로 확대하여 사회 속 과학의 실현 방안을 모색하였다. 구체적으로는 전통적 과학 평가, 참여적 과학 평가 및 숙의적 과학 평가로 구분하되 전통적 과학 평가가 전문가 중심으로 운영되어 사회의 보편적 참여를 제한한다는 점에서 본 연구는 참여적 과학 평가와 숙의적 과학 평가를 중심으로 연구하였다. 분석 결과에 의하면, 참여적 과학 평가와 숙의적 과학 평가가 전통적 과학 평가에 비해 이해당사자의 확대라는 점에는 공통점을 가지나, 평가대상, 평가방법, 사회 참여 범위 및 조정자의 역할에 있어 차별성을 가진다는 점을 제시하였다. 한편, 본 연구는 과학에의 사회 참여 평가가 민주주의적 가치 실현 차원에서 당연히 요구되는 사항임에도 불구하고 보편적으로 적용함에 나타나는 장애 요인과 이행 방안을 제시하고 향후 사회 전반의 노력과 체제 개선 외에도 다양한 후속 연구의 필요성을 강조한다.

Abstract AI-Helper 아이콘AI-Helper

Along with its expertise and yearning for freedom, Science has been seduced from Society. Coupled with societal uncertainty and complexity, the Science has faced the difficulty of solving societal issues and recognized its limitation on the control of quality it has kept. This leads to yield its way...

주제어

AI 본문요약
AI-Helper 아이콘 AI-Helper

* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.

문제 정의

  • 본 연구는 본론에서 민주주의 가치가 실현될 수 있는 평가 유형을 검토하고, 이를 과학 영역에 적용함으로써 과학에 대한 사회 참여 평가유형을 제시해 본다. 결론에서는 과학에 대한 사회 참여 평가의 적용 가능성을 검토해 봄으로써 궁극적으로 민주주의 가치가 내재된 사회 속 과학의 실현 방안을 탐색해 보고자 한다.
  • 일반적인 사회 이슈의 경우도 참여 범위를 정하는 것이 어려운 상황에서 과학이라는 전문화된 영역에 사회 참여 범위를 구체화하는 것은 더욱 용이한 작업이 아니다(김태희, 2015). 그러나 과학에 대한 사회 참여 평가에서 참여 범위를 구체화하는 것은 이해당사자의 범위와 평가 참여자의 책무성 및 권한을 명확히 함으로써(Burton, 2009) 평가 유형을 정교하게 하고 사회 참여적 평가 도입의 가능성을 촉진할 수 있다는 점에서 본 연구는 기존 연구에서 제시된 참여 범위를 토대로 하여 과학 영역에 적용함으로써 구체화 작업을 시도해 보고자 한다.
  • 다만, 과학이라는 전문성과 객관성이 지배적 가치로 작용하는 과학 영역의 평가에 있어 사회 참여를 적용하는 것은 여전히 한계와 장애가 존재하는 바, 아래에서는 이를 검토해 봄으로써 향후 보편적 적용의 가능성을 제시하고자 한다.
  • 본 연구는 본론에서 민주주의 가치가 실현될 수 있는 평가 유형을 검토하고, 이를 과학 영역에 적용함으로써 과학에 대한 사회 참여 평가유형을 제시해 본다. 결론에서는 과학에 대한 사회 참여 평가의 적용 가능성을 검토해 봄으로써 궁극적으로 민주주의 가치가 내재된 사회 속 과학의 실현 방안을 탐색해 보고자 한다.
  • 본 연구는 선행연구에서 제시하지 않은 과학에 대한 사회 참여 평가 유형, 사회 참여 범위 및 평가 대상을 구체화함으로써 과학에 대한 사회 참여 평가를 구체적으로 제시하고 적용 가능성을 탐색한다. 특히, 국외 선행 연구와 달리 참여 범위와 평가 대상을 구체화하고, 국내 선행 연구와 달리 과학 영역으로 사회 참여 평가를 적용하여 평가 유형을 제시하였다는 점에서 차별성을 가진다.
  • 지금껏 사회 참여 평가에 대해 Hanberger(2001)가 제시한 세가지 유형을 중심으로 검토해 보았다. 본 장에서는 사회 참여 평가를 과학 영역으로 확대적용하여 전통적 과학 평가, 참여적 과학 평가및 숙의적 과학 평가로 유형화 하고 평가 유형별 평가 대상 및방법과 사회 참여 범위를 구체화하고자 한다. 이를 토대로 결론에서는 과학에 대한 사회 참여 평가의 적용 가능성을 탐색해 본다.
  • 아래에서는 국내외 선행연구 검토를 통해 현재 과학에 대한 사회 참여 평가의 논의 동향을 살펴보고 본 연구가 선행연구와 가지는 차별성을 제시하고자 한다.
  • ). 이는 기존의 엘리트주의를 이론적 기반으로 하여 평가 주체를 전문가로만 한정함으로써 평가의 객관성, 합리성 및 효율성에 초점을 두고 있으며 정책 및 프로그램의 목표 달성 여부를 판단하는 데에 목적을 둔다.
  • 이러한 점에서, 본 연구는 전술한 장애 요인에 대하여 주요 학자들의 주장을 기본으로 하여 논거를 제시하고 새로운 평가 유형의 적용 가능성을 탐색하고자 한다.
  • 본 장에서는 사회 참여 평가를 과학 영역으로 확대적용하여 전통적 과학 평가, 참여적 과학 평가및 숙의적 과학 평가로 유형화 하고 평가 유형별 평가 대상 및방법과 사회 참여 범위를 구체화하고자 한다. 이를 토대로 결론에서는 과학에 대한 사회 참여 평가의 적용 가능성을 탐색해 본다.
본문요약 정보가 도움이 되었나요?

질의응답

핵심어 질문 논문에서 추출한 답변
사회 차원의 통제시스템 도입의 필요성을 인정하게된 계기는 무엇인가? 특히 과학의 거대화에 따라, 공적 자본인 연구비를 수주하기 위해 과학계는 자신의 연구 목적을 사회에 설명해야 하고, 연구결과의 경제성, 사회적 평등 및 사회에의 기여도를 제시할 것이 요구되게 되었다. 이처럼 과학적 시각보다는 사회적 함의나 영향이 반영되어야 함에 따라, 사회는 전통적으로 이뤄져 왔던 과학 스스로의 질적 통제 보다는 오히려 사회 차원의 통제시스템 도입의 필요성을 인식하게 된다(Frankenfeld, 1992).
과학계의 사회로부터의 의도된 거리두기가 더 심화된 이유는 무엇인가? 과학계의 사회로부터 ʻ의도된 거리두기ʼ(김태희, 2015)는 과학지식의 전문성이라는 과학의 내재적 특성과 과학계의 자율성 추구에 대한 사회의 묵시적 동의에 의해 더욱 심화되어 왔다(Jasanoff, 2012; Beck, 1992).
과학계의 자율성 추구는 어떤 상황을 만들었는가? 이러한 과학계의 자율성 추구는 사회 속 다른 그룹과 이해 충돌(conflict of interest)을 야기하게 되었고(Irwin, 2006), 과학의 전문성은 과학 내부의 분절된 지식별 통제 계층의 형성을 가능하게 했으며(이영희, 2012), 전문성에 의존한 과학 관련 정책 결정 과정은 과학과 사회의 분리를 더욱 확대시켰다(Beck, 1992).
질의응답 정보가 도움이 되었나요?

참고문헌 (81)

  1. 국가과학기술심의회 (2016), 국가연구개발 과제평가 표준지침 개정(안), 국가과학기술심의회 운영위원회 

  2. 김동광 (2002), 생명공학과 시민참여: 재조합 DNA 논쟁에 대한 사례연구, 과학기술학연구, 2(1) 

  3. 김승태, 김성진, 황덕규, 이기종 (2009), 국가연구개발사업 성과평가 제도개선을 위한 정책적 시사점 도출, 한국정책분석평가학회 하계학술대회 

  4. 김왕동, 성지은, 송위진 (2014), 사회문제 해결형 R&D를 위한 출연연의 평가시스템 개선방향, 과학기술학연구, 14(1) 

  5. 김윤명, 유화선 (2016), 국가연구개발사업 성과평가 정책 실증분석 및 발전방안 연구, 기술혁신학회지, 19(1): 191-229 

  6. 김태희 (2010), 평가위원간 네트워크가 국가연구개발사업의 효율성에 미치는 영향에 관한 연구, 기술혁신학회지, 13(4): 794-816 

  7. 김태희 (2015), 과학기술과 사회 연계에 대한 담론, 과학기술학연구, 15(2): 400-420 

  8. 류영수, 최병대, 최상옥 (2014), The Design and Application of a Meta-evaluation Model for National R&D Program, 기술혁신학회지, 17(4): 703-732 

  9. 박상욱 (2005), 평가위원 평가이력 구축관리 및 활용방안, 과학기술학 연구, 한국과학기술기획평가원 에세이, 서울 

  10. 사재명 (2006), 정책과정에서 시민참여의 활성화 방안, 한국행정과 정책연구, 4(1) 

  11. 서인덕, 이상길 (2011), 인사평가 만족도의 영향요인에 관한 연구, 경영사학, 26(4): 257-286 

  12. 성지은, 김미, 임홍탁, 김은정 (2014), 연구개발사업의 사회적 파급효과 분석 가능성과 과제, 과학기술학 연구, 14(2), 한국과학기술학회 

  13. 송위진, 성지은, 임홍탁, 장영배 (2013), 사회문제 해결형 연구개발사업 발전방안 연구, 정책연구, 과학기술정책연구원 

  14. 신희권 외 (2001), 시민행정과 정부, 대영문화사 

  15. 윤석환, 이진석 (2012), 연구개발 평가자의 선정에 관한 연구, 한국공공관리학보, 26(3): 291-313 

  16. 이민형 (2001), 정부출연연구기관 성과평가 지표체계 분석, 과학기술정책연구원 

  17. 이영희 (2012), 전문성의 정치와 사회운동, 경제와 사회, 93 

  18. 이영희 (2014), 과학기술 시티즌십의 두 유형과 전문성의 정치, 동향과 전망, 92 

  19. 이찬구 (2011), 연구개발평가의 전문성 향상 방안, 한국행정학회하계학술대회 

  20. 이찬구 (2005), 정부출연 연구기관 평가에서 지적자본 모형의 적용 필요성, 한국행정학보, 39(1): 195-217 

  21. 최원재, 김유빈, 강근복 (2016), 우리나라 국가연구개발 성과평가제도 변동의 맥락과 영향에 관한 연구, 한국기술혁신학회추계학술대회 

  22. 한재각 (2004), 국가연구개발사업 개혁을 위한 시민사회의 시각: 분석틀과 평가기준의 제안, 과학기술학연구, 4(2), 한국과학기술학회 

  23. 한재각, 장영배 (2009), 과학기술 시민참여의 새로운 유형: 수행되지 않은 과학 하기, 과학기술학 연구, 9(1) 

  24. 홍성걸 (2007), 국가연구개발사업 평가시스템에 대한 메타평가 연구, 국민대학교 국정관리전략연구소 

  25. 황명구, 유왕진, 정동우, 문종범 (2009), 메타평가를 적용한 국가 연구 개발사업 평가시스템의 효율성 분석 모형 개발, 벤처창업연구, 4(4): 1-25 

  26. Banthien, H and Herz, J. (2001), "Evaluation of internet-based discourses concerning innovation and technical analyses", discussion paper, conference e-society, Berlin. 

  27. Beck, Ulrich (1992), The Risk Society: Towards a New Modernity, London: Sage Publications 

  28. Benhabib (1996), Toward a Deliberative Model of Democratic Legitimacy, Princeton University Press 

  29. Brown, M. (2009), Science in democracy, MIT, USA 

  30. Burdy, R. (2003), "Making Plans that Matter: Citizen Involvement and Government Action", Journal of the American Planning Association, 69(1): 33-49 

  31. Burton, P. (2009), "Conceptual, Theoretical and Practical Issues in Measuring the Benefits of Public Participation", Evaluation, 15(3): 263-284 

  32. Campbell, D. (1988), Qualitative knowing in action research. In E. S. Overman (Ed.), Methodology and epistemology for social science. Selected papers: Donald T. Campbell (pp. 360-376). Chicago: University of Chicago Press 

  33. Cohen, J. (1989), Deliberation and Democratic Legitimacy, The Good Polity, London: Blackwell 

  34. Dryzek, J. (2000), Deliberative Democracy and Beyond: Liberals, Critics and Contestations, Oxford: Oxford University Press 

  35. Elkin, S. L. and Soltan, K. E. (1999), Citizen Competence and Democratic Institutions, Pennsylvania: The Pennsylvania State University Press 

  36. Foreman-Peck, L. & Travers, K. (2015), "Developing expertise in managing dialogue in the 'third space': Lessons from a responsive participatory evaluation", Evaluation, 21(3): 344-358 

  37. Frankenfeld, Philip J. (1992), "Technological citizenship: A normative framework for risk studies", Science, Technology & Human Values, 17: 459-484 

  38. Fuller, S. (2008), Dissent over descent: intelligent design's challenge to Darwinism, Cambridgeshire: Icon 

  39. Funtowicz, S. & Ravetz, J. (1993), "Science for the post-normal age", Futures, 25: 739-755 

  40. Greene, J. (2000), Challenges in Practicing Deliberative Democratic Evaluation, SanFrancisco, CA: Jossey-Bass 

  41. Gutmann, A. and Thompson, D. (1996), Democracy and Disagreement, Cambridge Mass: Belknap Press 

  42. Habermas, J. (1989), The Structural Transformation of the Public Sphere, Cambridge, MA: MIT Press 

  43. Habermas, J. (1996), Between Facts and Norms Contribution to a Discourse Theory of Law and Democracy, Cambridge, MA: MIT Press 

  44. Hanberger, A. (2001), "Policy and Program Evaluation, Civil Society and Democracy", American Journal of Evaluation, 22(2): 211-228 

  45. Hanberger, A. (2006), "Evaluation of and for Democracy", Evaluation, 12(1): 17-37 

  46. Hornig, Susannah (1990), "Television's NOVA and the construction of scientific truth", Critical Studies in Mass Communication, 7 

  47. House, E. and Howe, K. (1999), Values in Evaluation and Social Research, Thousand Oaks, CA: SAGE 

  48. Huntington, S. P. and Nelson, J. M. (1976), No Easy Choice: Political Participation in Developing Countries, Harvard University Press 

  49. Irwin, A. (2006), "The Politics of Talk: Coming to Terms with New Scientific Governance", Social Studies of Science, 36(2): 299-320 

  50. Jasanoff, Sheila (2012), Science and Public Reason, Routledge, New York 

  51. Jasanoff, S. (2004), States of Knowledge: The Co-Production of Science and Social Order, London, UK: Routledge, Taylor & Francis Group 

  52. Laat B. (2013), The tricky triangle: Evaluator, evaluand, evaluation commissioner, Thousand Oaks, CA: SAGE 

  53. Latour, B. (2004), Politics of Nature, Havard University Press, Cambridge, Massachusetts, London 

  54. Lengwiler, M. (2008), "Participatory approaches in science and technology", Science, Technology and Human Values, 33: 186-200 

  55. MacDonald, B. (1976), Evaluation and the control of education, Curriculum Evaluation Today: Trends and Implications, London: Macmillan 

  56. McTaggart, R. (1991), "When Democratic Evaluation Doesn't Seem Democratic", Evaluation Practice, 12(1): 9-21 

  57. Mertens D. & Wilson, A. (2012), Program Evaluation Theory and Practice: A Comprehensive Guide, New York: Guilford 

  58. Murray, R. (2002), "Citizens' Control of Evaluations", Evaluation, 8(1): 81-100 

  59. Norris, Nigel (2015), "Democratic evaluation: The work and ideas of Barry MacDonald", Evaluation, 21(2): 135-142 

  60. Nowotny, H. (2003), "Democratising expertise and socially robust knowledge", Science and Public Policy, 30: 151-156 

  61. Nowotny, H., Scott, P. and Gibbons, M. (2001), Re-thinking Science: Knowledge and the Public in an Age of Uncertainty, Polity Press, London 

  62. Ostrom, E. (2000), "Collective Action and the Evolution of Social Norms", The Journal of Economic Perspectives, 14(3): 137-158 

  63. Oudheusden, M. (2014), "Where are the politics in responsible innovation?", Responsible Innovation, 1: 67-86 

  64. Pateman, C. (1970), Participation and Democratic Theory, Cambridge: Cambridge University Press 

  65. Patton, M. (1997), Utilization-focused evaluation: The new century text, Thousand Oaks, CA: Sage Publications 

  66. Paxton, P. (1999), "Is Social Capital Declining in the United States?", American Journal of Sociology, 105(1): 88-127 

  67. Preskill, H. & Torres, R. (2000), "The learning dimension of evaluation use", New Direction for Program Evaluation, 88: 25-37 

  68. Rawls, J. (1993), Political Liberalism, New York: Columbia University Press 

  69. Robien, C. (1996), "Participatory Evaluation of Development Assistance: Dealing with Power and Facilitative Learning", Evaluation, 2(2): 151-171 

  70. Rowe, G. and Frewer, L. (2005), "Evaluating public participation exercises: Strategic and practical issues", In Organisation for Economic Co-Operation and Development (Ed.), Evaluating public participation in policy making, 85-108 

  71. Saurugger, S. (2010), "The social construction of the participatory turn: The emergence of a norm in the European Union", European Journal of Political Research, 49: 471-495 

  72. Scriven, M. (2001), "Evaluation: Future tense", American Journal of Evaluation, 22(3): 301-307 

  73. Schwartzenberg, R. G. (2001), Dix mesures pour rapprocher science et societe, http://www.recherche.gouv.fr/discours/2001/voeux.htm 

  74. Shoenefeld, J. & Jordan, A. (2017), "Governing policy evaluation? Towards a new typology", Evaluation, 23(3): 274-293 

  75. Sirianni, C. and Fiedland, L. (2001), Civic Innovation in America, London: University of California Press 

  76. Urbinati, N. (2006), Representative Democracy, The University of Chicago Press, Chicago 

  77. Valenti, JoAnn & Wilkins, Lee (1995), "An ethical risk communication protocol for science and mass communications", Public Understanding of Science 4 

  78. Weiss, C. (1977), Using Social Research in Public Policy Making, Lexington MA: D.C. Health 

  79. Weiss, C. (1998), "Have we learned anything new about the use of evaluation?", American Journal of Evaluation, 19:21-33 

  80. Wynne, Brian (1992), "Misunderstood misunderstandings: Social identities and the public uptake of science", Public Understanding of Science, 1: 281-304 

  81. Young, M. (2001), "Activist Challenges to Deliberative Democracy", Political Studies 29(5): 670-690 

저자의 다른 논문 :

섹션별 컨텐츠 바로가기

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로