$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

미 국가표준기술연구소(NIST), 인공지능 결정의 설명 가능성에 대한 보고서 발표

NIST Asks A.I. to Explain Itself

2020-08-31

우리 중 대다수는 어린 시절 “왜 그랬니?”라는 질문을 많이 받았다. 인공지능(AI, Artificial Intelligence)가 우리의 삶에 영향을 주는 결정이 많아짐에 따라 우리도 간단하지만 심오한 질문을 하고 AI는 이에 대해 대답할 수 있어야 한다. 결국 이는 우리가 AI의 결정을 어떻게 신뢰할 수 있는지의 문제로 귀결된다.

만족할 만한 설명을 얻기 위해 국가표준기술연구소(NIST, National Institute of Standards and Technology)의 과학자들은 AI의 결정이 어떻게 설명가능한지 우리가 판단할 수 있는 일련의 원칙을 제안하였다. 그 보고서 초안은 설명 가능한 인공지능의 4가지 원칙(Four Principles of Explainable Artificial Intelligence (Draft NISTIR 8312))이라는 제하로 발표되었는데, 그 목적은 우리의 의사결정 디바이스가 어떠해야 하는지에 대한 논의를 촉발시키는 데에 있다.

이 보고서는 신뢰할 수 있는 AI 시스템의 개발을 돕기 위한 NIST의 폭넓은 노력 중 하나라고 할 수 있다. NIST의 기반연구는 인공지능의 논리적 능력과 한계에 대해 이해하고, 정확성, 신뢰성, 보안성, 견고성(robustness), 그리고 설명 가능성을 개선함으로써 시스템의 신뢰를 구축하는 데 목적을 둔다.

보고서 저자들은 초안에 대한 공개 검토를 요청하고 있는데, 이는 이 주제가 공학, 컴퓨터 과학에서 심리학, 법적 이슈 등 폭넓은 범위에 걸친 이슈이기 때문이다. 이를 통해 폭넓은 토론이 이루어질 수 있을 것으로 기대하고 있다.

보고서 저자 중 한명인 NIST의 엔지니어 조나단 필립스(Jonathon Phillips)는 AI가 점차 높은 수준의 의사결정 과정에 참여하지만, 누구도 기계가 이유에 대한 설명도 없이 결정을 내리는 상황을 원하지 않는다고 말했다. 한편 공학자들을 만족시키는 답변이라고 할지라도 다른 배경의 사람들에게는 그렇지 않을 수 있다. 따라서 다양한 시각과 의견을 보고서에 반영코자 한다고 그는 말했다.

AI 시스템의 결과물이 도출된 이유에 대한 이해는 결과물로 영향을 받는 모든 이들에게 혜택을 줄 수 있다. 예를 들어 만일 AI가 대출 승인 결정을 한다면, 그에 대한 이해는 소프트웨어 설계자가 시스템을 개선하는데 도움을 줄 수 있다. 그러나 신청자가 AI의 의사결정 과정에 대한 이해를 필요로 할 때, 예를 들어 승인이나 거절 사유를 알고자 할 때, 그 이해는 해당 신청인이 신용도를 높게 유지하는데 도움을 줄 수 있다.

보고서에서 제시된 설명 가능한 AI의 네 가지 원칙은 다음과 같다.

- AI 시스템은 모든 산출물에 대해 증거 혹은 그 이유를 제시해야 한다.

- 시스템은 개별 이용자들에게 의미 있거나 이해할 수 있는 설명을 제시해야 한다.

- 해당 설명은 산출물을 생성하는 시스템 프로세스를 적절하게 반영해야 한다.

- 시스템은 충분히 신뢰할 수 있을만한 산출물을 생성할 것이라는 믿음을 전제하고 운영되어야 한다.(만일 시스템이 충분히 신뢰할 수 있을 만한 결정을 내릴 수 없다면, 의사결정을 이용자에게 제공해서는 안 된다)

NIST는 이 보고서 초안에 대한 의견을 10월 15일까지 접수할 예정이라고 밝히고 보다 자세한 정보는 NIST의 AI 설명가능성에 대한 웹페이지를 참고하도록 안내했다.

관련연구자 Jonathon Phillips
관련기관 National Institute of Standards and Technology
과학기술분류 정보/통신
본문키워드(한글) 인공지능, 설명가능성, 국가표준기술연구소
본문키워드(영문) AI, explainability, NIST
원문언어 영어
국가 미국
원문출판일 2020-08-18
출처 https://www.nist.gov/news-events/news/2020/08/nist-asks-ai-explain-itself

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로