보고서 정보
주관연구기관 |
정보통신정책연구원 Korea Information Society Development Institute |
연구책임자 |
이호영
|
참여연구자 |
손상영
,
이원태
,
조성은
,
김희연
,
문정욱
,
이시직
,
양수연
,
류현숙
,
최은창
,
한상기
|
보고서유형 | 최종보고서 |
발행국가 | 대한민국 |
언어 |
한국어
|
발행년월 | 2017-02 |
과제시작연도 |
2016 |
주관부처 |
미래창조과학부 Ministry of Science, ICT and Future Planning |
등록번호 |
TRKO202100006631 |
과제고유번호 |
1711038452 |
사업명 |
방통융합기반정책연구 |
DB 구축일자 |
2021-07-17
|
초록
▼
4. 연구 내용 및 결과
제1장에서는 연구의 배경과 목적, 그리고 연구의 틀을 제시하고, 워크숍, 심포지엄, 컨퍼런스, 지능정보사회 중장기 종합대책 마련 지원 등의 성과를 간략히 소개하였다.
제2장에서는 인공지능에 대한 다양한 접근과 인공지능의 사회적 영향을 탐색하였다. 특히 데이터 기반 사회의 도래에 따라 인공지능과 사회윤리의 충돌이 발생가능한 지점을 간략히 소개하고 인공지능 윤리에 대한 기술적 접근을 정리하였다. 또한 인공지능 안전의 기술적 문제와 윤리를 자율주행자동차 이슈를 중심으로 정리하며 인공지능 시스템의
4. 연구 내용 및 결과
제1장에서는 연구의 배경과 목적, 그리고 연구의 틀을 제시하고, 워크숍, 심포지엄, 컨퍼런스, 지능정보사회 중장기 종합대책 마련 지원 등의 성과를 간략히 소개하였다.
제2장에서는 인공지능에 대한 다양한 접근과 인공지능의 사회적 영향을 탐색하였다. 특히 데이터 기반 사회의 도래에 따라 인공지능과 사회윤리의 충돌이 발생가능한 지점을 간략히 소개하고 인공지능 윤리에 대한 기술적 접근을 정리하였다. 또한 인공지능 안전의 기술적 문제와 윤리를 자율주행자동차 이슈를 중심으로 정리하며 인공지능 시스템의 판단과 의사결정이 알고리듬과 데이터에 숨어 있는 윤리적 요소를 반영하여 점점 사회적 이슈가 되고 있음을 제시하였다.
제3장에서는 인공지능 시스템에 적용되는 알고리즘의 편향과 책무성을 살펴보았다. 인공지능 시스템에 적용되는 알고리즘과 알고리즘 기반의 자동화된 판단이 갖는 편향성의 원인들을 분석하고, 그 사례로 검색엔진 검색 결과의 상이성, 알고리즘에 의한 채용과 스크리닝, 인종차별 경향을 가지는 범죄 예측 및 재범예측 등을 소개하였다. 이를 토대로 알고리즘 책무성을 위한 정책방안으로 편향성의 감지, 이의제기와 알고리즘 수정 요구, 알고리즘 위원회 등을 소개하고, 알고리즘 투명성을 위한 윤리기준을 모색하였다. 또한 인공지능을 비롯한 지능정보기술의 등장으로 인한 새로운 불평등 이슈를 소개하고 있다. AI 등 지능정보기술의 직업대체와 관련 능력에 따른 경제적 성취의 불평등 현상은 사회의 양극화와 갈등을 심화시킬 가능성이 높은데 구체적으로 일자리 및 고용 양극화, 소득양극화와 불평등의 고착화, 국가간 불평등 심화의 가능성을 소개하였다.
제4장에서는 인공지능 기술이 활용되고 있는 주요 분야들을 공공 및 민간으로 나누어 소개하고, 각 분야별로 인공지능의 활용현황 및 관련 비즈니스 모델을 살펴보았다. 또한 응용분야별로 인공지능 기술의 발전과 확산에 따라 야기되는 부작용 또는 잠재적 역기능을 분석 ․ 검토하는 한편, 인공지능, 로봇 등 지능정보기술의 발전으로 인하여 주요 응용분야를 중심으로 파생될 수 있는 공통적인 윤리 및 법 ․ 제도적 이슈를 도출하고 이에 대한 대응방안을 제시하였다.
제5장에서는 ICT발전에 따라 프라이버시에 대한 개념과 이해가 어떻게 변해왔으며 그에 따라 강조되는 프라이버시 원칙을 정리하고 지금의 기술 환경에서는 어떤 대응이 필요한지를 살펴보았다. 대응방안으로 첫째 기술환경변화에 따른 현행 법령 검토 및 개선, 신규규제 논의에서 유연성 제고 등을 제안하고, 둘째 기업 차원의 책무 부여를 위해 외부감사 제도와 공정하고 투명한 시스템 구축, 정보처리주체에 대한 교육, 고객의 자기정보통제권을 위한 조치 등에 대한 가이드라인 마련을, 셋째 기업 지원을 위한 정부차원의 프라이버시 및 보안 기술 개발 연구와 사이버보험제도 도입을 위한 생태계 구축 등을 제시한다.
제6장에서는 인간 ․ 사회 중심의 회복력 관점에서 인공지능 리스크의 특성을 어떻게 규명할 것인지, 그리고 이 새로운 위험을 어떻게 극복할 것인지를 논의하고자 했다. 이를 위해, 선행연구 검토, 인공지능 위험 사례 정리, 인공지능 위험 관련 이론적 및 철학적 논의, 전문가 인식조사, 회복력 개념 적용 등을 수행하였고, 이러한 연구 수행을 통해 회복력 관점에서의 인공지능 리스크 대응의 필요성과 정책과제를 제시함으로써 인공지능 리스크에 대응하기 위한 회복력 기반의 지능정보사회의 안정성 ․ 신뢰성 제고방안을 도출하였다.
결론에서는 지능정보사회가 초래하는 새로운 사회이슈를 정리하고, 새로 등장하는 지능정보사회가 기존의 규범 및 사회가치, 혹은 조직의 역할 등과 충돌하는 지점에 대한 다각적 탐구를 통해 9개 영역 총 34개의 정책과제를 도출하고 전문가 의견조사를 통해 객관성을 확보하고자 하였다. 전문가들이 사회적 중요성, 시급성, 경제적 파급효과에 있어 높은 점수를 준 아젠다가 ‘인공지능 개발자의 책임성’, ‘프라이버시 위험관리’, ‘지능정보사회에 대비한 윤리 및 규범체계 정립’이었다는 점은 앞으로의 사회가 기계에의 의존, 기계와의 경쟁, 시스템 오류에 대한 탄력회복성 구상 등 사회문화 전반의 문제가 예상되기에 인간과 기술이 공존하기 위한 범정부적 차원의 큰 그림을 마련하고 구체적 정책방안을 정립할 수 있는 기반 구축이 중요함을 시사한다.
(출처 : 요약문 20p)
Abstract
▼
4. Results of Research
Chapter 1 presents the background, purpose and progress of this study and shows the overall frame of the study; and briefly introduces the outcomes of the workshop, symposium, conference and support for the establishment of the mid- to long-term comprehensive plan for the i
4. Results of Research
Chapter 1 presents the background, purpose and progress of this study and shows the overall frame of the study; and briefly introduces the outcomes of the workshop, symposium, conference and support for the establishment of the mid- to long-term comprehensive plan for the intelligent information society.
Chapter 2 examines AI as a disruptive technology and explores different approaches to AI. As the data-based society has arrived, the points where AI and social ethics can come into conflict are briefly introduced, and the technical approach to AI ethics is summarized.
In addition, the paper reviews the technical issues and safety ethics related with AI along with issues related to self-driving cars, and suggests that the judgments and decision making of AI systems are becoming social issues by reflecting the ethical elements of algorithms and data.
Chapter 3 concretizes the discussion by investigating the bias and responsibility issues of the algorithms applied in AI systems. The algorithms applied in AI systems and the causes of bias in algorithm-based automated judgments are analyzed, and the heterogeneity of the results of search by search engines, hiring and screening by algorithm, crime forecasting and repeated crime forecasts having a racial discriminatory tendency are introduced as examples. Based on these factors, this chapter proposes the detection of bias, making an objection to and a demand for the modification of an algorithm, and the formation of an algorithm committee as policy measures for algorithm responsibility, and reviews the ethical standard for algorithm transparency. Moreover, it introduces new inequality issues that are emerging as a result of intelligent information technologies including AI. The inequality of economic accomplishments according to ability related to job replacement by intelligent information technologies such as AI is highly likely to intensify social polarization and conflict, particularly job and employment polarization, income polarization and inequality, and the possibility of deepening inequality among countries.
Chapter 4 introduces the application of AI technology separately in the private and public sectors and investigates how AI is utilized, and presents the related business model in each area. Moreover, the side effects or potential dysfunctions caused by the development and proliferation of AI technology in each applied area are analyzed and reviewed. The common ethical, legal and institutional issues that can be derived from the advancement of intelligent information technologies such as AI and robotics in key application areas are identified and their countermeasures are presented.
Chapter 5 introduces how the concept and understanding of privacy has changed with the development of ICT, summarizes how the principle of privacy is being emphasized as a consequence, and investigates the countermeasures required under the current technical environment. As for the countermeasures, first, this paper proposes a review and improvement of the current legislation to cope with changes in the technical environment and greater flexibility in discussion of the new regulation. Second, the paper proposes the development of an external audit scheme and a fair and transparent system so as to impose responsibility on enterprises, education on information processing subjects, and the establishment of guidelines on measures for customers’ control of their information. Third, the paper suggests government-level R&D on privacy and security technology to support enterprises, and the construction of an ecosystem to introduce the cyber insurance scheme.
Chapter 6 discusses how to investigate the characteristics of AI risks from the viewpoint of human- and society-centered resilience and how to overcome these new risks. To that end, this study conducts a review of preceding studies, summarizes AI risk cases, presents a theoretical and philosophical discussion of AI risks, surveys experts’ recognition, and applies the concept of resilience. This leads to the deduction of measures for improving the stability and reliability of a resilience-based intelligent information society, so as to cope with AI risks by presenting the necessity and policy tasks to cope with AI risks from the resilience viewpoint.
Finally, the Conclusion summarizes the new social issues caused by the intelligent information society. Through a multilateral investigation of the points where the newlyemerging intelligent information society comes into conflict with existing standards, social values or organizational roles, thirty-four policy programs in nine areas are deduced, and their objectivity is reviewed through the survey of expert opinions. The following agendas, ‘Responsibility of AI developers’, ‘Privacy risk management’ and ‘Establishment of an ethical and standard system to cope with the intelligent information society’ have been scored highly in terms of their social importance, urgency and economic ripple effects by the experts. This implies that preparing a government-wide blueprint and laying the basis for the establishment of concrete policy measures for coexistence between human beings and technologies are very important because major sociocultural problems, such as society's ever increasing dependence upon machines, human competition with machines, and the design of an elastic resilience of system error are expected.
(출처 : SUMMARY 24p)
목차 Contents
- 표지 ... 1
- 제 출 문 ... 7
- 목차 ... 9
- 표목차 ... 14
- 그림목차 ... 16
- 요 약 문 ... 19
- SUMMARY ... 23
- CONTENTS ... 27
- 제 1 장 서 론 ... 29
- 제 1 절 연구의 배경 및 목적 ... 29
- 1. 연구의 배경 ... 29
- 2. 연구의 목적 ... 34
- 제 2 절 연구의 범위 및 구성 ... 36
- 제 2 장 인공지능과 데이터분석 기반의 지능정보사회 ... 39
- 제 1 절 인공지능에 대한 접근방식 ... 39
- 1. 인공지능의 접근 방식 ... 39
- 2. 데이터 기반의 인공지능 ... 42
- 제 2 절 인공지능의 사회적 영향 ... 45
- 1. 인공지능의 확산으로 인한 사회경제적 이슈: 긍정적 측면 ... 45
- 2. 인공지능의 확산으로 인한 사회적 역기능: 부정적 측면 ... 46
- 제 3 절 알고리즘과 데이터 기반 사회의 기술 문제 ... 49
- 1. 데이터 기반 사회의 도래 ... 49
- 2. 인공지능과 사회 윤리의 충돌 ... 51
- 3. 인공지능 윤리에 대한 기술적 접근 ... 52
- 4. 인공지능 안전의 기술적 문제와 윤리 ... 59
- 제 3 장 인공지능 시스템에 적용되는 알고리즘의 편향과 책무성 ... 64
- 제 1 절 인공지능 시스템에 적용되는 알고리즘 ... 66
- 제 2 절 알고리즘 기반의 자동화된 판단: 편향성 사례들의 분석 ... 68
- 1. 편향성의 원인들 ... 68
- 2. 검색엔진과 편견의 사회적 구조화 ... 69
- 3. 알고리즘에 의한 채용과 스크리닝 ... 74
- 4. 구글 맞춤형 광고 애드센스(AdSense) ... 75
- 5. 포털 플랫폼에 의한 뉴스 노출 ... 76
- 6. 유색 인종에 불리한 범죄 예측(Predictive Policing) ... 78
- 7. 재범 예측과 가석방의 결정 ... 79
- 제 3 절 알고리즘 책무성을 위한 정책방안 ... 81
- 1. 알고리즘 책무성의 문제의식 ... 81
- 2. 가치중립적인 알고리즘은 모순어법인가? ... 82
- 3. 편향성의 감지 ... 82
- 4. 이의제기와 알고리즘 수정 요구 ... 83
- 5. 알고리즘 위원회의 평가 ... 83
- 제 4 절 알고리즘 투명성을 위한 윤리기준의 모색 ... 84
- 1. 알고리즘이라는 블랙박스 ... 84
- 2. 인공지능 혁신과 알고리즘 투명성을 동시에 달성하려면 ... 85
- 3. 사회편견 구조화와 차별의 문제에 대한 대안 ... 86
- 제 5 절 인공지능과 데이터 기반 사회의 불평등 ... 88
- 1. 삶의 질 향상과 새로운 불평등의 출현 ... 88
- 2. 자동화로 인한 일자리 대체 및 고용 양극화 ... 90
- 3. 직업의 변화 vs 직무의 변화 ... 95
- 4. 소득 양극화와 불평등의 고착화 ... 97
- 5. 국가간 불평등 심화의 가능성 ... 101
- 제 4 장 인공지능의 잠재적 역기능과 규범적 대응 ... 103
- 제 1 절 논의의 배경 ... 103
- 제 2 절 인공지능 활용 분야와 문제점 ... 103
- 1. 보건의료 ... 104
- 2. 교통 ... 106
- 3. 교육 ... 108
- 4. 재원이 부족한 지역사회(low-resource community) ... 109
- 5. 치안 ... 110
- 6. 법률 ... 111
- 7. 에너지 ... 112
- 8. 사이버 보안 ... 113
- 9. 금융 ... 114
- 10. 유통 ... 116
- 11. 여행 ... 117
- 12. 제조업 ... 118
- 13. 마케팅 ... 118
- 14. 홈/서비스 로봇 ... 122
- 15. 엔터테인먼트 ... 123
- 16. 웹사이트 디자인 ... 123
- 17. 콘텐츠 생산 ... 124
- 18. 콜센터 ... 124
- 제 3 절 인공지능 기술 발전이 제기할 규범적 이슈 ... 125
- 1. 인공지능 알고리즘이 야기할 윤리·사회적 불평등 ... 125
- 2. 인공지능과 저작권 보호 ... 127
- 3. 인공지능과 법적행위 및 책임주체 ... 131
- 제 4 절 인공지능 시대의 규범적 대응방안 ... 133
- 1. 인공지능 알고리즘의 개발 및 이용에 관한 윤리 ... 133
- 2. 현행 저작권 관련 규범의 개선방향 ... 135
- 3. 현행 제조물책임 관련 규범의 개선방향 ... 138
- 제 5 장 프라이버시 위험관리와 데이터 활용 ... 141
- 제 1 절 인공지능과 프라이버시 이슈 ... 141
- 제 2 절 프라이버시 개념에 대한 고찰 ... 142
- 1. 프라이버시의 개념과 정의 ... 142
- 2. ICT의 발전과 프라이버시 이슈의 전환 ... 145
- 제 3 절 확장된 프라이버시 범주와 인식 ... 155
- 1. 데이터 유형의 확장과 프라이버시 ... 155
- 2. 교환 대상으로서의 프라이버시 ... 157
- 3. 거래 대상으로서의 프라이버시 ... 161
- 4. 데이터 관리 주체와 프라이버시 ... 163
- 5. 정보 관리의 불확실성과 프라이버시 ... 168
- 제 4 절 프라이버시 위험관리와 데이터 활용을 위한 과제 ... 169
- 1. 기술환경변화에 따른 현행 법령 및 지침 검토와 개선 ... 169
- 2. 정보처리의 투명성 및 책임성 제고 ... 171
- 3. 프라이버시 및 개인의 자유 침해 요인을 차단하기 위한 사회윤리 기준 명확화 ... 175
- 4. 프라이버시 보안 기술 개발과 사이버보험 시장 지원 ... 178
- 제 5 절 소 결 ... 180
- 제 6 장 인공지능 리스크의 특성과 사회적 복원력 ... 182
- 제 1 절 인공지능의 확산과 리스크 ... 182
- 제 2 절 인공지능 리스크에 대한 이론적 논의 ... 184
- 1. 기술위험을 보는 시각 ... 184
- 2. 사회적 맥락에서의 인공지능 위험 ... 186
- 3. 기술위험과 인공지능 위험의 특성 ... 194
- 제 3 절 인공지능 리스크의 부정적 영향 및 국내외 사례 ... 198
- 1. 인공지능 리스크의 부정적 영향 ... 199
- 2. 인공지능 리스크의 국내외 사례 ... 201
- 제 4 절 인공지능 리스크에 대한 인식 수준 ... 207
- 1. 인공지능 리스크에 대한 전문가 인식조사 개요 ... 207
- 2. 조사 결과 분석 ... 208
- 제 5 절 복원력 관점에서 인공지능 리스크 대응의 필요성과 과제 ... 212
- 1. 복원력의 개념과 구성 요소 ... 212
- 2. 복원력 관점에서 본 인공지능 리스크 극복 전략과 정책 과제 ... 217
- 제 6 절 소결 및 정책적 시사점 ... 219
- 제 7 장 결론 및 정책적 시사점 ... 221
- 제 1 절 결 론 ... 221
- 제 2 절 정책과제 ... 224
- 1. 정책 과제 도출 ... 224
- 2. 조사 설계 ... 229
- 3. 조사 결과 ... 231
- 참 고 문 헌 ... 239
- 끝페이지 ... 265
※ AI-Helper는 부적절한 답변을 할 수 있습니다.