보고서 정보
주관연구기관 |
한국행정연구원 Korea Institute of Public Administration |
연구책임자 |
류현숙
|
참여연구자 |
김은성
|
보고서유형 | 최종보고서 |
발행국가 | 대한민국 |
언어 |
한국어
|
발행년월 | 2017-12 |
과제시작연도 |
2017 |
주관부처 |
국무조정실 The Office for Government Policy Coordination |
등록번호 |
TRKO201800022567 |
과제고유번호 |
1105012645 |
사업명 |
한국행정연구원 |
DB 구축일자 |
2018-06-23
|
DOI |
https://doi.org/10.23000/TRKO201800022567 |
초록
7. 결론
□ 33개의 정책 제언을 행정, 기술, 사회, 경제, 정책대상 측면에서 재분류해 추진전략 로드맵 및 실행전략수립
□ 인공지능 위험 거버넌스 실행 로드맵
○ 인공지능 위험에 대비한 종합 정책제언을 실행하기 위한 단기, 중기, 장기 로드맵은 <그림 7>과 같음
○ 정책에 따라서 단기에 끝나는 것도 있지만, 단기와 중기에 걸쳐서 준비해야 하는 사항, 중기와 장기, 혹은 단기・중기・장기에 걸쳐서 지속적으로 준비・보완해야 하는 세부 실행과제 존재
(출처 : 국문요약 30p)
Abstract
▼
The World Economic Forum (WEF) held in Davos in January 2016 announced that the Fourth Industrial Revolution is now upon us, and Sedol Lee played some historic games of Go against Google DeepMind’s AlphaGo computer program in March 2016. These events have raised interest and concerns in terms of Art
The World Economic Forum (WEF) held in Davos in January 2016 announced that the Fourth Industrial Revolution is now upon us, and Sedol Lee played some historic games of Go against Google DeepMind’s AlphaGo computer program in March 2016. These events have raised interest and concerns in terms of Artificial Intelligence, or A.I., in South Korea.
The Korean government currently has improved systems pertaining to the nation’s new growth engine and implemented regulatory reform. Newly elected President Moon Jae-in and his government have also launched the so-called “Fourth Industrial Revolution committee”, comprised of some 5 senior government policy makers and 20 civilians, which is part of the Moon administration’s pledge to upgrade the country’s overall competitiveness by fostering cutting-edge technologies, such as self-driving cars, artificial intelligence, smart factories, drone-related industries and smart cities and so on. The committee aims to form a collaborative state-private sector partnership that can overhaul the industrial sector through combining various cyber and physical systems. In addition, the Ministry of Science and ICT has made public its 2017 funding plan to foster basic research so that the government could effectively respond to the coming Fourth Industrial Revolution.
With the increased interest with regard to AI, people’s awareness of potential technological risks has also been increasing. According to the report, ‘Predictions of Human-Level AI Timelines’ published by Aiimpacts.org in June 2015, it surveyed around 1,300 public predictions of when human-level AI will arrive. While median predictions tend to be between 2030 and 2055 for predictions that have been made since 2000, across different subgroups of predictors, recent surveys tend to have median dates between 2040 and 2050. In addition, some 36% of people think the rise of artificial intelligence (AI) poses a threat to the long-term survival of humanity, according to a YouGov survey for the British Science Association that was reported by Sky News (UK Business Insider, 2016). Most studies until now have largely focused on the positive potential and economic benefits of AI. Yet, there has been little attention given to AI’s negative impacts and possible risks.
A heated discussion on AI, though, has some limits in projecting the future since it is essentially impossible to precisely predict the future.
Thus, projecting practical risks of AI has both uncertainty and unpredictability, which have an influence on the related research. There has been some research conducted by major institutions in developed countries, such as the U.S. and U.K., most of which focused only on the potential risks. The most remarkable aspect of these previous studies is that there is no integrated concept of a good governance system or an effective immune system in order to prevent, prepare, and respond to the risks. In other words, governments could not have enough capacity to correspond to disaster in that they do not have both pre-control and post-control systems for risk management of AI.
In this milieu, this study attempted to identify major elements of risk involved with the advent of AI via conducting a survey with 235 experts from both domestic and foreign perspectives in AI-related business and academic sectors to provide more effective governance for management of the risks and benefits of AI. In addition, it further conducts an AHP survey to suggest possible policy responses based on two concepts, ‘precautionary principles’ and ‘resilience,’ which encompass both the ex-ante and ex-post responses to AI risk. After listing up 36 possible precautionary policies and resilience policies via literature review and a series of expert brainstorming sessions, a further AHP survey of a total of 15 experts, equally 5 experts from three sectors of government, business and academia, was conducted.
In the pairwise comparison and weighing by the AHP, this suggested the urgent and vital policies for preparing and responding towards AI risk.
(출처 : 영문요약 32p)
목차 Contents
- 표지 ... 1
- 발간사 ... 3
- 목차 ... 4
- 표목차 ... 9
- 그림목차 ... 13
- 국문요약 ... 16
- 영문요약 ... 32
- 제1장 서 론 ... 35
- 제1절 연구의 배경 및 필요성 ... 36
- 제2절 연구의 목적 및 내용 ... 43
- 1. 연구의 목적 ... 43
- 2. 연구의 범위 및 내용 ... 44
- 제3절 연구방법 ... 48
- 1. 이론 및 문헌조사 ... 49
- 2. 국내외 사례조사 및 위험관리・정책 비교연구 ... 49
- 3. 설문 조사 ... 50
- 4. AHP 조사 ... 51
- 제4절 기대효과 ... 52
- 제2장 이론적 고찰 ... 55
- 제1절 기술위험 관리 ... 56
- 1. 위험 및 기술위험 관리 개요 ... 56
- 2. 인공지능(AI)과 신기술 위험관리의 중요성 ... 63
- 제2절 인공지능의 위험 및 사회적 영향 ... 65
- 1. 사회적 위험 지위(Theme of Social Risk Positions) ... 66
- 2. 부메랑 효과 ... 71
- 제3절 사전예방원칙과 복원력 ... 74
- 1. 사전예방원칙 ... 74
- 2. 복원력 ... 82
- 제4절 연구 분석틀 ... 87
- 제3장 인공지능 적용 분야별 위험 예측 ... 89
- 제1절 교통안전 분야 ... 97
- 1. 개요 ... 97
- 2. 상용화 사례 및 위험특성 ... 98
- 3. 시사점 ... 100
- 제2절 범죄(치안) 분야 ... 102
- 1. 개요 ... 102
- 2. 상용화 사례 및 위험특성 ... 104
- 3. 시사점 ... 106
- 제3절 노동(근로) 분야 ... 108
- 1. 개요 ... 108
- 2. 상용화 사례 및 위험특성 ... 113
- 3. 시사점 ... 115
- 제4절 의료(보건) 분야 ... 117
- 1. 개요 ... 117
- 2. 상용화 및 위험특성 ... 118
- 3. 시사점 ... 121
- 제5절 소결 ... 122
- 제4장 인공지능에 대한 국내외 위험정책 및 위험관리 ... 129
- 제1절 유럽의 인공지능 위험관리 정책 ... 132
- 1. 유럽의 인공지능 법제도 및 거버넌스 체계 ... 132
- 2. 자율주행자동차에 대한 유럽연합의 규제 ... 137
- 3. 드론에 대한 유럽연합의 법률 ... 142
- 4. 군사기술에 대한 유럽규제 ... 144
- 5. 기계안전, 작업안전, 의료 관련 유럽연합의 기존 법률들 ... 145
- 6. 인공지능 윤리와 책임 있는 연구개발 ... 146
- 제2절 영국의 인공지능 위험관리 정책 ... 149
- 1. 무인자동차에 대한 안전규제 ... 154
- 2. 드론에 대한 법률 ... 155
- 3. 군사기술에 대한 규제 ... 155
- 4. 인공지능 윤리와 책임 있는 연구개발 ... 156
- 제3절 미국의 인공지능 위험관리 정책 ... 157
- 1. 자율주행자동차에 대한 안전규제 ... 162
- 2. 드론에 대한 미국의 규제 ... 168
- 3. 작업장 안전 및 의료관련 로봇에 대한 규제 ... 170
- 제4절 국내 위험관리 정책 ... 171
- 1. 인공지능에 대한 규제법률 ... 175
- 2. 로봇윤리 ... 179
- 제5절 소결 ... 180
- 제5장 인공지능 위험관리에 관한 전문가 의견 조사 ... 185
- 제1절 전문가 워크숍 ... 186
- 제2절 전문가 설문조사 ... 189
- 제3절 전문가 AHP 조사 ... 195
- 제4절 전문가 설문조사・AHP 조사 결과 분석 ... 201
- 1. 전문가 설문조사 결과 ... 201
- 2. AHP 조사 결과 ... 228
- 제5절 정책적 시사점 ... 276
- 제6장 인공지능 기술위험에 대한 정책 제언 ... 281
- 제1절 인공지능 기술위험 사전예방원칙에 따른 정책제언 ... 282
- 1. 사전 예방적 위험 평가 정책 제언 ... 283
- 2. 사전 예방적 위험관리 정책 제언 ... 301
- 3. 사전 예방적 위험 소통 정책 제언 ... 307
- 제2절 인공지능 위험 복원력 제고 정책제언 ... 310
- 1. 복원력 위험 평가 정책 제언 ... 311
- 제7장 결 론 ... 335
- 제1절 종합 정책 제언 ... 336
- 1. 행정적 측면 실행전략 ... 336
- 2. 기술적 측면 실행전략 ... 338
- 3. 사회적 측면 실행전략 ... 340
- 4. 경제적 측면 실행전략 ... 341
- 5. 정책대상을 고려한 실행전략 ... 342
- 6. 인공지능 위험 거버넌스 추진 로드맵 ... 345
- 제2절 요약 및 결론 ... 346
- 1. 학술적 기여도 및 정책 활용가능성 ... 346
- 2. 연구의 한계 ... 347
- 참고문헌 ... 351
- 국내문헌 ... 352
- 국외문헌 ... 356
- 사이트 ... 363
- 신문기사 ... 364
- 부록 ... 367
- 부록1. 국문 설문조사표 ... 368
- 부록2. 영문 설문조사표 ... 379
- 끝페이지 ... 391
※ AI-Helper는 부적절한 답변을 할 수 있습니다.