$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

AI와 함께할 미래, 유토피아일까?

2019-09-27

미국 SF작가 윌리엄 깁슨은 ‘미래는 이미 와 있다. 단지 널리 퍼져있지 않을 뿐’이라고 했다. 하지만 그가 생각했던 것보다 AI는 훨씬 더 빨리 넓게 퍼져가고 있다. 우리 생활 곳곳에 영향을 미치고 있으며 이미 AI는 대세가 됐다.
그렇다면 인공지능과 함께할 미래사회는 유토피아일까 디스토피아일까? 이를 주제로 한국과학기술한림원은 지난 26일 코리아나호텔에서 한림원탁토론회를 열고, 인공지능이 가져올 미래 사회의 변화 양상과 대응 방안에 대해 논의했다.

AI 한계 알고, 책임감 있는 사용해야

김진형 KAIST 전산학부 명예교수는 “무인자율자동차로 슈퍼마켓에서 온라인으로 구매한 물품을 배달하는 서비스가 올해 7월에 시작됐다”고 설명했다. 아울러 김 교수는 “AI가 예술작품을 창작하고, 변호사를 대신해서 계약서를 검토해 변호사의 36만 시간의 업무를 즉시 처리함은 물론 더욱 높은 정확도를 보이고 있다. 뿐만 아니라 AI 의사가 당뇨성 망막증과 같은 질병을 인간보다 훨씬 더 정밀하게 진단할 수 있다”며 인공지능으로 인한 놀라운 변화들을 소개했다.
그러면 이런 혁신적 변화는 과연 무엇이 가능하게 했을까. 김 교수는 “결과는 종종 혁신적이지만 진화는 항상 점진적”이라며 “컴퓨터로 하여금 지능적 행동을 하게 하는 AI 기술의 역사도 1950년대부터 시작되어 꽤 오래전부터 진행되어 인간의 일자리를 위협할 만큼 급속한 발전을 거듭해 왔지만, 치명적인 한계가 존재하는 것도 사실”이라고 말했다.
현재 AI는 데이터 기반의 기계학습 단계에 있다. 그런데 기계학습 방법론은 의사결정 과정을 인간과 소통하는데 취약하고 ‘왜? 만약 ~라면?’이라는 질문에 취약하다. 또 신뢰성에도 한계가 있다. 김 교수는 “자율적 의사결정 능력이 있는 AI가 데이터 학습을 통해 개발자의 의도를 벗어날 가능성은 항상 존재해 왔다”고 설명했다.
윤리적인 한계도 있다. 결국 AI의 본질은 알고리즘인데, 과연 윤리적 행위를 알고리즘화할 수 있는가 하는 것이다. 그렇기 때문에 김 교수는 “데이터와 알고리즘이 편견 없이 공정한가? 결과는 해석이 가능한가? 시스템은 믿을 만하고 안전한가? 인공지능은 합법적, 윤리적, 도덕적인가를 항상 염두에 두면서 AI를 책임감 있게 사용해야 한다”고 강조했다.

알고리즘의 편향성 어떻게 극복하나

또한 이날 토론회에서 홍성욱 서울대 생명공학부 교수는 ‘인공지능 알고리즘이 인간을 차별하는가’에 대해 발표했다. 그는 인공지능 면접관이 여성을 연상시키는 단어가 나오면 감점시키고 탈락시켰던 사례를 소개하면서 “인공지능이 내린 결론이 편향되어 있다면 그것은 알고리즘이나 데이터에 문제가 있는 것”이라고 지적했다.
그렇다면 데이터가 왜 문제가 되는 것일까. 홍 교수는 “진료하는 AI의 경우 대부분 백인 남성 데이터를 기반으로 하기 때문에 오류율이 백인 남성은 1%에 불과한데 비해 흑인 여성은 35%나 된다”며 “알고리즘의 편향성 때문에 의사가 히포크라테스 선서를 하듯이 알고리즘 모델 개발자도 선서를 해야 한다는 주장도 있다”고 설명했다.
특히 범죄 위험 예측 알고리즘인 COMPAS의 편향성은 더욱 심각하다. 흑인이 편파적으로 고위험군으로 분류되고, 백인은 부당하게 많은 수가 저위험군으로 분류됐기 때문이다. 홍 교수는 “COMPAS를 계속 사용하면 판단 오류의 흑인이 많이 생기고 이들이 더 오랜 시간 감옥에 있게 됨으로써 흑인의 위험도는 더 올라가게 되어 결국엔 지금의 불평등과 차별이 더 심화될 것”이라고 우려했다.
또 문제는 어떤 피고의 위험도를 평가할 때 그 사람이 어떤 그룹에 속해 있는가를 평가하는 것이 과연 공정한가 하는 것이다. 이는 피고의 빈부, 계급, 성별, 자라난 지역 등으로 차별하는 것이기 때문에 ‘법 앞의 평등’에 위배된다.
홍 교수는 “우리가 혹시 알파고 신화에 빠져 있는 건 아닐까”라고 반문하면서 “인공지능은 게임 같은 것을 인간보다 월등하게 잘하기 때문에 당연히 재범 확률 예측도 잘할 것으로 생각하는 건지도 모른다”며 “불확실하고 복잡한 상황에서 판단하는 영역에 인공지능을 응용하는 것을 보다 신중하게 접근할 필요가 있다”고 강조했다.

AI로 인한 변화 양상, 미래 지향적 대응해야

이 밖에도 패널 토론을 통해 김경민 서강대 사회학과 교수는 정보의 비대칭과 독점으로부터 야기되는 지배와 권력의 문제를 제기했다. 그는 “우버 플랫폼이 택시 수요가 없을 때도 기사들을 도로 위에 있게 하기 위해 의도적으로 잘못된 정보를 제공하여 기사들을 목적대로 조정한 사례가 있다”며 “정보의 비대칭과 독점으로 인해 권력과 지배가 나뉠 수 있다”고 경고했다.
또 임영익 인텔리콘법률사무소 대표변호사는 “컴퓨터를 이용해 법률 서비스를 자동화하는 일체의 산업 분야를 ‘리걸테크(Legal Tech)라고 한다”며 “법률과 인공지능의 융합은 세계적인 추세이고 시민들에게 좀 더 유익한 법률 서비스를 제공할 수 있는 측면도 있기 때문에 각종 규제와 데이터 개방에 대해 미래 지향적 검토가 필요하다”고 피력했다.
김건우 카카오모빌리티 데이터 이코노미스트는 “우리나라 노동시장 일자리의 43%가 자동화 고위험군인 것으로 나타났다. 그것이 사무, 판매, 기계조작 종사자 등 특정 직업이나 산업, 계층에 집중되어 있기 때문에 일자리 양극화를 부각시킬 수 있다”며 “이를 해결하기 위해서는 산업의 변화에 다양하게 대응할 수 있는 유연안정성을 갖춘 노동시장을 만들도록 정책적 지원을 해야 한다”고 주장했다.

관련 콘텐츠

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로