보고서 정보
주관연구기관 |
정보통신정책연구원 Korea Information Society Development Institute |
연구책임자 |
문정욱
|
참여연구자 |
문아람
,
김정언
,
이시직
,
양기문
,
황선영
,
변순용
,
문명재
,
선지원
,
김형주
,
이청호
,
김봉제
|
보고서유형 | 최종보고서 |
발행국가 | 대한민국 |
언어 |
한국어
|
발행년월 | 2020-12 |
과제시작연도 |
2020 |
주관부처 |
과학기술정보통신부 Ministry of Science and ICT |
등록번호 |
TRKO202100008989 |
과제고유번호 |
1711116875 |
사업명 |
ICT진흥및혁신기반조성(R&D) |
DB 구축일자 |
2021-09-18
|
초록
▼
4. 연구 내용 및 결과
지능정보사회의 주 원동력으로 간주되는 인공지능 기술의 급속한 발전과 사회 · 경제적 활용은 생산성과 편의성 등을 제고하여 국가 경제를 견인하고 국민의 삶의 질을 높이는 데 큰 도움이 될 것이라는 기대가 높아지고 있다. 그러나 한편으로는 방대한 데이터와 알고리즘 활용에 따른 인공지능의 윤리적 이슈가 복잡하고 다양하게 나타나고 있어 우려의 목소리 또한 높아지고 있다. 이에 본 연구는 관련 산업경제 전분야의 인공지능 자율규제 환경 조성을 지원함과 동시에 신기술에 대한 사회적 수용성을 제고하기 위해, 인공지능
4. 연구 내용 및 결과
지능정보사회의 주 원동력으로 간주되는 인공지능 기술의 급속한 발전과 사회 · 경제적 활용은 생산성과 편의성 등을 제고하여 국가 경제를 견인하고 국민의 삶의 질을 높이는 데 큰 도움이 될 것이라는 기대가 높아지고 있다. 그러나 한편으로는 방대한 데이터와 알고리즘 활용에 따른 인공지능의 윤리적 이슈가 복잡하고 다양하게 나타나고 있어 우려의 목소리 또한 높아지고 있다. 이에 본 연구는 관련 산업경제 전분야의 인공지능 자율규제 환경 조성을 지원함과 동시에 신기술에 대한 사회적 수용성을 제고하기 위해, 인공지능 개발과 활용 전단계에 걸쳐 참조할 수 있는 윤리기준(안)을 수립하고자 했다. 이를 통해 기획-개발-활용으로 이어지는 인공지능 산업 발전 선순환 구조를 만들고, 인공지능 기술의 최종 수혜자인 국민이 지능정보서비스를 보다 적극적으로 활용할 수 있도록 함으로써 ‘사람 중심의 인공지능 사회’를 구현하고, ‘인공지능 강국’으로 도약할 수 있는 초석을 마련하고자 했다.
본 연구에서 제시한 인공지능 윤리기준의 목적을 다시 요약하면 다음과 같다. 첫째, ‘사람 중심의 인공지능’ 구현을 위해 인공지능의 개발부터 활용에 이르는 전 과정에서 개발자, 공급자, 이용자, 정부(공공) 등 모든 사회 구성원이 참조할 수 있는 기본적 윤리기준을 제시한다. 둘째, 본 윤리기준(안)을 구속력과 강제력 있는 ‘법’이나 ‘지침’이 아닌 ‘윤리기준’의 형태로 기준을 제시함으로써 기업 자율성을 존중하고 기술발전을 장려하며, 기술과 사회변화에 유연하게 대처할 수 있는 윤리 담론을 형성한다. 셋째, 산업경제 분야의 자율규제 환경 조성을 통해 인공지능 연구개발 및 산업 성장을 저해하지 않고, 개발자 및 공급자에게 부당한 부담을 지우게 하지 않는다. 넷째, 범용성을 가진 일반원칙으로서의 윤리기준을 제시하여 다양한 분야에서의 인공지능 윤리기준의 참조모델이 되고, 사안별 또는 분야별 인공지능 윤리기준 제정의 근거를 제공하여 영역별 세부 규범이 유연하게 발전해 나갈 수 있는 기반을 조성한다. 다섯째, 사회경제 및 기술 변화와 함께 새롭게 제기되는 AI 윤리이슈를 반영하여 윤리기준의 지속적인 수정 및 보완을 가능케 하는 인공지능 윤리 플랫폼으로 기능한다.
이러한 목적하에 본 인공지능 윤리기준이 지향하는 기본가치는 ‘인간성을 위한 인공지능’ (AI for Humanity)이다. 인공지능 국가전략('19. 12)에 따른 ‘사람 중심의 인공지능 구현’을 위해 윤리기준이 지향하는 최고 가치를 ‘인간성(humanity)’으로 설정하였는데, 이는 모든 인공지능이 ‘인간성을 위한 인공지능(AI for Humanity)’으로서 인간성을 최고의 가치로 지향해야 하며, 인간에게 유용할 뿐만 아니라 나아가 인간 고유의 성품을 훼손하지 않고 오히려 보존하고 함양하도록 개발되고 관리되어야 한다는 것을 의미한다. 또한 인간성을 위한 인공지능은 인공지능이 인간을 위한 수단임을 명시적으로 표현하지만, 인간 종 중심주의(species-centrism) 또는 이기주의를 표방하지는 않는다. 본 윤리기준에서의 인공지능은 지각력이 있고 스스로를 인식하며 실제로 사고하고 행동할 수 있는 수준의 AI(강한 인공지능)를 전제하지 않으며, 하나의 독립된 인격으로서의 인공지능을 의미하지도 않는다는 점을 강조한다.
본 연구를 통해 수립한 사람 중심의 인공지능을 위한 윤리기준은 서문, 3대 기본원칙, 10대 핵심 요건, 부록으로 구성되었다.
인공지능 윤리기준 서문 주요내용
‣ (시대적 배경) 컴퓨팅 파워의 성장, 데이터의 축적, 네트워크 고도화와 같은 ICT 기술의 발전을 토대로 인공지능 기술 급성장 및 사회 · 산업 확산
- 국가경쟁력 제고 및 국민 삶의 질 개선 등 순기능과 함께 데이터 편향성, 기술 오용과 같은 인공지능 윤리 이슈가 대두
‣ (목표 및 지향점) 인공지능 개발~활용 전 단계에서 정부 · 공공기관, 기업, 이용자 등 모든 사회구성원이 고려해야 할 기본적 · 포괄적 기준 제시
- 산업 · 경제분야의 자율 규제 환경을 조성함으로써 인공지능 연구개발과 산업성장을 제약하지 않으며, 분야별 세부규범의 발전 근거가 됨
‣ (인간성을 위한 AI) 인공지능은 인간성(Humanity)를 최고가치로 지향해야 하며, 인간에게 유용하고 정신과 신체에 해롭지 않도록 개발 · 활용되어야 하며, 개인의 행복과 사회의 긍정적 변화 등에 기여해야함
최고 가치, 3대 기본원칙, 10대 핵심 요건
‣ (최고 가치) 윤리기준이 지향하는 최고가치를 ‘인간성(Humanity)’으로 설정
‣ (3대 기본원칙) ‘인간성(Humanity)’을 구현하기 위해 인공지능(AI)의 개발 및 활용 과정에서 ❶ 인간의 존엄성 원칙, ❷ 사회의 공공선 원칙, ❸ 기술의 합목적성 원칙을 지켜야 한다.
‣ (10대 핵심 요건) 3대 기본원칙을 실천하고 이행할 수 있도록 인공지능(AI) 개발~활용 전과정에서 ⓵ 인권 보장, ⓶ 프라이버시 보호, ⓷ 다양성 존중, ⓸ 침해금지, ⓹ 공공성, ⓺ 연대성, ⓻ 데이터 관리, ⓼ 책임성, ⓽ 안전성, ⓾ 투명성의 요건이 충족되어야 한다.
마지막으로 부록에서는 인공지능 윤리기준에서 인공지능의 지위, 윤리기준의 적용범위와 대상, 윤리기준의 실현방안 등을 제시하였다.
(출처 : 요약문 19p)
Abstract
▼
4. Research Results
There are growing expectations that the rapid development and socio-economic use of artificial intelligence technology, which is regarded as the main driving force of the intelligent information society, will greatly help spur the national economy and improve the quality of pe
4. Research Results
There are growing expectations that the rapid development and socio-economic use of artificial intelligence technology, which is regarded as the main driving force of the intelligent information society, will greatly help spur the national economy and improve the quality of people's lives by improving productivity and convenience. On the other hand, people are increasingly concerned over complex and various ethical issues regarding AI, followed by the use of vast amounts of data and algorithms. In this context, this study aims to establish ethical guidelines(proposal) that can be referenced across all stages of AI development and use to help create a self-regulatory environment for AI across the related areas of industry and economy and increase social acceptance of new technologies. These guidelines are designed to create a virtuous cycle for the development of the AI industry that can lead to planning-development-utilization, realize a “human-centered AI society” by enabling the people, who are the final beneficiaries of AI technology, to more actively use intelligent information services, and lay the groundwork for Korea to become an “AI powerhouse.”
Again, the purpose of AI ethical guidelines proposed in this study can be summarized as follows. First, for “human-centered AI,” we suggest basic ethical guidelines that all members of society, including developers, suppliers, users, and the government (public institutions), can refer to in the entire process from development to use of AI. Second, the guidelines(proposal) are presented in the form of “ethical guidelines” rather than binding and compelling “law” or “guidelines” to respect corporate autonomy, encourage technology development, and form an ethical discourse to flexibly respond to technological and social changes. Third, the guidelines are to create a self-regulatory environment for the industry and economy so that AI R&D and industrial growth are not hindered, and developers and suppliers do not face an unfair burden. Fourth, the ethical guidelines presented as general principles with universality can serve as a reference model for AI ethical guidelines in various fields and provide the basis for establishing AI ethical guidelines by issue or area, allowing area-specific detailed rules to be flexibly developed.
Fifth, these guidelines function as an ethical AI platform that enables continuous revision and improvement of ethical guidelines by reflecting newly raised AI ethics issues along with socio-economic and technological changes.
For this purpose, the Artificial Intelligence Ethical Guidelines pursue the basic value of “AI for Humanity.” In order to realize “human-centered AI” in line with the National Strategy for Artificial Intelligence (December 2019), “humanity” was set as the highest value of the ethical guidelines, which means all AI technologies should consider “AI for Humanity” as the top value and they must be developed and managed not only to benefit humans but also to preserve and cultivate the unique characteristics of humanity without harming them. Also, while AI for Humanity explicitly expresses that AI is a means for humans, it does not advocate human species-centrism or egoism. We emphasize that these ethical guidelines do not presuppose that AI has self-awareness and the ability to reason, think, and act (strong artificial intelligence) and not mean AI as an independent character.
The ethical guidelines for human-centered artificial intelligence established through this study consist of a preface, three basic principles, ten requirements, and an appendix.
Main Contents of the Preface of Artificial Intelligence Ethical Guidelines
‣ (Periodical Background) Rapid growth of AI technology and its expanded use in society and industry along with the development of ICT technologies such as the growth of computing power, accumulation of data, and sophisticated networks.
- Ethical issues regarding AI such as data bias and technology misuse are emerging along with positive effects such as enhancing national competitiveness and improving the quality of people’s lives.
‣ (Goal and Direction) To provide basic and comprehensive standards that all members of society, including the government, public institutions, companies, and users, should consider in all stages of AI from development to use.
- To create a self-regulatory environment in the industry and economy to not hinder AI R&D and industrial growth while providing the basis for the development of area-specific detailed standards.
‣ (AI for Humanity) Artificial intelligence should aim for humanity as the highest value and be developed and utilized so that it can benefit humans without harming the human mind and body and contribute to personal happiness and positive change in society.
Highest Value, 3 Basic Principles, 10 Requirements
‣ (Highest Value) ‘Humanity’ was set as the highest value of the ethical standards
‣ (3 Basic Principles) In order to realize “humanity,” the principles of ❶ human dignity, ❷ the greater good of society, and ❸ the rightful purpose of technology must be observed in the process of developing and using artificial intelligence (AI).
‣ (10 Requirements) To implement the three basic principles, the following requirements must be met in all stages of AI from development to use: ⓵ Protection of human rights, ⓶ protection of privacy, ⓷ respect for diversity, ⓸ prohibition of infringement, ⓹ pursuit of the greater good, ⓺ solidarity, ⓻ data management, ⓼ accountability, ⓽ safety, and ⓾ transparency.
Finally, the appendix contains the status of AI in the Artificial Intelligence Ethical Guidelines, the scope and targets of the ethical guidelines, and measures to implement the ethical guidelines.
(출처 : SUMMARY 28p)
목차 Contents
- 표지 ... 1
- 제 출 문 ... 6
- 목차 ... 8
- 표목차 ... 11
- 그림목차 ... 14
- 요 약 문 ... 16
- SUMMARY ... 26
- CONTENTS ... 36
- 제1장 서 론 ... 38
- 제 1 절 연구의 필요성 및 목적 ... 38
- 제 2 절 연구 추진체계와 전략 ... 41
- 제2장 인공지능 윤리기준의 성격과 기능 ... 44
- 제 1 절 인공지능 윤리 문제에 대한 법적 접근과 윤리적 접근의 경계 ... 44
- 1. 규범으로서 통제의 필요성 ... 44
- 2. 윤리 규범과 법적 규범의 구분 ... 45
- 제 2 절 인공지능 윤리기준의 규범으로서의 성격 ... 48
- 1. 규범 유형의 분류 ... 48
- 2. 인공지능 윤리기준의 성격 ... 49
- 제 3 절 인공지능 윤리기준의 역할과 기능 ... 50
- 1. 해외 사례 ... 50
- 2. 플랫폼으로서의 인공지능 윤리기준 ... 53
- 제3장 인공지능 윤리기준 ... 55
- 제 1 절 인공지능 윤리기준 마련 배경 및 필요성 ... 55
- 제 2 절 국내외 인공지능 윤리원칙 정책 동향 분석 ... 57
- 1. 국내외 인공지능 윤리원칙 현황 ... 57
- 2. 국내외 인공지능 윤리원칙 주요 내용 ... 58
- 제 3 절 인공지능 윤리기준(안)의 목적 및 지향점 ... 63
- 1. 인공지능 지위 스펙트럼 ... 63
- 2. 인공지능 윤리기준의 기본적 목적 및 지향점 ... 66
- 3. 기존 인공지능 윤리원칙과의 차별성 ... 67
- 제 4 절 인공지능 윤리기준(안) 해설 ... 69
- 1. 총론: 인공지능 윤리기준(안) 구조 ... 69
- 2. 인간성: 인공지능의 최고선 ... 71
- 3. 4단: 인간성을 위한 인공지능(AI for Humanity)의 4대 속성 ... 72
- 4. 3강: 3대 기본원칙 ... 74
- 5. 15륜: 15대 실행원칙 ... 77
- 6. 인공지능 윤리기준(안)의 함의 ... 82
- 제 5 절 인공지능 윤리기준 최종안 ... 83
- 1. 의견수렴 및 공론화 과정 ... 83
- 2. 주요 의견수렴 결과 및 수정 내용 ... 85
- 3. 인공지능 윤리기준 최종안 내용 ... 100
- 제4장 윤리적 인공지능 정책 추진을 위한 거버넌스 ... 105
- 제 1 절 인공지능 윤리 거버넌스 체계 확립 필요성 ... 105
- 제 2 절 국내외 인공지능 윤리정책 거버넌스 체계 분석 ... 106
- 1. 국내외 인공지능 윤리정책 거버넌스 체계 유형 ... 106
- 2. 국내외 인공지능 윤리 가이드라인과 윤리정책 거버넌스 사례 비교 ... 109
- 제 3 절 인공지능 윤리정책 거버넌스 협업체계 ... 154
- 1. 국내외 인공지능 윤리원칙과 윤리정책 거버넌스의 경향 ... 154
- 2. 국내외 인공지능 윤리정책 거버넌스의 협업체계와 특징 ... 157
- 제 4 절 인공지능 윤리정책 설계와 거버넌스 체계 구축 방향 ... 162
- 1. 인공지능 윤리 가이드라인 제언 ... 162
- 2. 인공지능 윤리정책 거버넌스 제언 ... 164
- 제5장 인공지능 윤리기준 실천을 위한 향후 과제 ... 171
- 제 1 절 인공지능 윤리와 법적 규제 ... 171
- 제 2 절 인공지능 윤리 문제 관철을 위한 제도적 접근 ... 171
- 1. 제도적 접근의 필요성 ... 171
- 2. 기본 원칙의 법적 선언 ... 172
- 3. 거버넌스의 제도화 ... 174
- 4. 인공지능 윤리 교육 체계의 제도화 ... 176
- 5. 인공지능 윤리 기술 표준화의 고려 ... 177
- 6. 인공지능 적용 제품 및 서비스에 대한 인증 절차 마련 ... 178
- 7. 관계인에 대한 절차적 권리 혹은 정보 접근권 보장 ... 178
- 제 3 절 인공지능 윤리기준 요소들에 대한 법적 접근 ... 179
- 1. 법적 접근의 필요성과 방향성 ... 179
- 2. 개별 기본권별 논의 ... 181
- 3. 인공지능 윤리기준과 법제도 관계 ... 188
- 제6장 결론 및 향후 추진과제 ... 189
- 제 1 절 연구결과 요약 ... 189
- 제 2 절 인공지능 윤리기준의 의의 ... 190
- 제 3 절 향후 추진과제 ... 192
- 제7장 정부 정책 반영화 ... 194
- 참 고 문 헌 ... 196
- [부록 1] 사람이 중심이 되는 「인공지능(AI) 윤리기준」 ... 203
- [부록 2] 국내외 인공지능 윤리원칙 및 관련 자료 ... 209
- 끝페이지 ... 242
※ AI-Helper는 부적절한 답변을 할 수 있습니다.