$\require{mediawiki-texvc}$

연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

인공지능 무기, 아직은 ‘걱정’ 수준

2015-08-05

지난 2007년 7월19일 미국 하버드 공과대 연구실에서 매우 특이한 로봇 실험이 진행되고 있었다. 살아있는 파리를 모방한 이 로봇은 양쪽 날개를 합쳐 3cm 길이의 날개를 퍼덕이면서 멋진 비행을 하고 있었다.
당시 연구를 이끌었던 로버트 우드(Rovert Wood) 교수는 “초소형 로봇 기능이 계속 업그레이드 되고 있다”며 “향후 유해한 화학물질을 검사하거나 스파이 로봇을 만들 때 이 로봇이 크게 활용될 것”이라고 말했다.
이 로봇 개발 자금은 미국 국방성에서 대고 있었다. 로봇을 무기로 활용하려는 시도는 어제 오늘 일이 아니다. 현재 전투 현장에 투입되고 있는 무인 항공기 역시 로봇의 일종이다. 최근 들어서는 개처럼 네 다리를 가진 로봇을 전투 현장에 투입하고 있는 것으로 알려졌다.

AI로봇 반대 서한에 과학자 2587명 서명 

로봇 무기 개발에 대한 반발도 만만치 않다. 지난 7월28일 아르헨티나 부에노스아이레스에서 열린 IJCAI(인공지능 국제회의)에서는 인공지능(AI) 기술이 부가된 자율로봇(autonomous robot)을 무기화하는 것을 자제해줄 것을 촉구하는 공개서한이 발표됐다.
2587명의 인공지능 로봇 개발자들을 포함한 1만7972명의 유력 인사들이 이 서한에 동의했다. 서명자들은 로봇 무기 개발을 자제하라는 내용의 이 서한을 통해 각국 정부로 하여금 무기 개발을 자제해줄 것을 촉구할 계획이다.
여기서 말하는 AI로봇은 스스로 움직이면서 무엇을 해야 할 지 판단할 능력이 있는 로봇들을 포함하고 있다. 그러나 지금처럼 원격 조정에 의해 움직이는 크루즈 미사일이나 드론(drone) 등의 기타 로봇은 포함시키지 않았다.
IJCAI는 공개 서한을 통해 (아직 개발되지는 않았지만)  자율적으로 움직일 수 있는 AI로봇이 스스로 목표를 설정해 공격이 가능하다는 점에 주목했다. 최근 AI 기술이 사람 통제를 벗어나 스스로 움직일 수 있는 단계에 도달했다는 것.
이런 무기가 양산될 경우 전 지구적으로 심각한 참상이 예상된다며, AI로봇을 전투용으로 활용하려는데 대해 법적인 통제를 요구했다. 지금처럼 무분별하게 AI로봇 무기를 개발할 경우 얼마 안 있어 로봇 무기가 재난으로 다가온다는 주장이다.
이 서신은 AI로봇 개발이 화약과 핵무기 개발에 이은 세 번째 인류의 큰 재난이 될 수 있다고 경고했다. 과학자들이 가장 우려하고 있는 것은 강대국을 중심으로 한 무기개발 경쟁이다. 경쟁이 도를 넘어설 경우 더 끔찍한 무기를 개발할 수 있다는 것.

현장 과학자들 “윤리 문제 과장돼 있어” 

‘칼라슈니코프(Kalashnikov) 소총’의 예를 들었다. 미하일 칼라슈니코프(2013년 작고)가 개발한 이 총은 지금까지도 가장 큰 인기를 끌고 있는 소총이다. 그러나 세계적으로 테러분자들과 폭력배들이 애용하는 무기로 변해버려 생전 당시 칼라슈니코프를 개탄케 했다.
AI로봇 역시 무기로 사용될 경우 유사한 결과를 가져올 수 있다는 주장이다. 이 편지에 서명한 과학자 중에는 영국 천체 물리학자 스티븐 호킹(Stephen Hawking) 박사가 포함돼 있다.
또 아이언맨의 모델이 될 만큼 인기를 대중적 인기를 끌고 있는 테슬라의 엘론 머스크(Elon Musk) CEO, 애플의 공동 창업자인 스티브 워즈니악(Steve Wozniak) 등이 포함돼 있다. 하버드, MIT, 워싱톤 대 등 대학 교수들만 100여 명을 헤아리고 있다.
많은 과학자들이 이처럼 반대 의사를 표명하고 있는 것은 최근 AI 무기 개발 속도가 급속히 빨라지고 있기 때문이다. 3일 ‘MIT 테크놀로지 리뷰’에 따르면 지난 수년 간 인공지능 개발은 눈부실 정도다.
특히 많은 양의 데이터를 다룰 수 있는 기계학습 분야에서 발전 속도가 두드러지고 있는데 군사 분야 뿐만 아니라 무인자동차, 드론 등의 분야에서 윤리적인 문제를 도출하고 있는 중이다. 기술이 발전하면 할수록 윤리 문제 역시 더 심각해질 것이라는 것이 과학자들의 분석이다.
그러나 개발 현장에서 일하고 있는 전문가들의 생각은 매우 다르다. 캘리포니아 폴리테크닉 주립대학의 패트릭 린(Patrick Lin) 교수는 “많은 사람들이 우려하고 있지만 현실은 다르다”고 주장했다.
“지금의 AI로봇 무기 수준은 초보적 단계로 독자적으로 움직일 수 있는 무기가 나올 수 있을 지에 대해서는 아직 확언할 수 없다”고 말했다. “많은 개발자들이 AI무기 가능성에 대해 회의적”이라며 “성공 가능성에 대해 어떤 사람도 미래를 단언할 수 없다”고 말했다.
최근 살상무기 개발을 자제하라고 권유하는 UN 보고서에 대해서도 의견을 내놓았다. “이 보고서가 AI로봇 무기를 이해하는데 도움이 될 수는 있다”고 말했다. “그러나 윤리 문제에 있어 핵심을 잘못 짚고 있다”고 지적했다.
영화 ‘터미네이터’ 등 많은 SF영화에서 보듯이 사람을 죽일 수 있는 AI로봇이 탄생할 수 있을지에 대해  아직 누구도 결론을 못내리고 있는 것은 분명하다. 그러나 많은 과학자들이 ‘킬링 로봇’의 등장을 확신하며 두려워하고  있는 분위기다.

관련 콘텐츠

AI-Helper ※ AI-Helper는 오픈소스 모델을 사용합니다.

AI-Helper 아이콘
AI-Helper
안녕하세요, AI-Helper입니다. 좌측 "선택된 텍스트"에서 텍스트를 선택하여 요약, 번역, 용어설명을 실행하세요.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.

선택된 텍스트

맨위로