-
실제같은 가짜 '딥페이크'의 세계 완전해부...AI 세상의 새로운 게임 ...
May 9, 2022 ... MIT는 이 기술을 2022년 10대 혁신기술로 선정한 바 있다. 특허청이 분석한 한국·미국·중국·일본·유럽 등 지식재산 분야 5대 강국의 특허 출원 동향을 ...
-
지식 > 정기간행물 > 주간기술동향 > 상세정보 | IITP
Jul 11, 2023 ... - SOAR 기반의 차세대 정보보안 관제 동향. ICT 신기술 - 5G/6G 이동통신 ... - 딥페이크로 위조된 음성 탐지기술 S/W. 첨부파일 주간기술동향 2099호.
-
생성형 AI 기술을 활용한 가짜뉴스에 대한 대응 동향 - Lexology
Feb 13, 2024 ... 딥페이크는 '딥러닝'(Deep Learning)과 '페이크'(Fake)라는 두 단어의 합성어로, 생성형 AI를 활용하여 만들어진 가짜 이미지나 영상물을 의미합니다.
-
한국언론진흥재단
... 딥페이크 어떻게 대처할 것인가.pdf. 출처표시. 01 시작하며. 02 딥페크 관련 법규제 동향. 03 딥페이크에 대한 기술적 대응 동향. 04 딥페이크 검증 확인을 위한 도구 ...
-
[미디어 이슈 & 트렌드] [트랜드리포트] 딥페이크 기술의 빛과 그림자
Dec 16, 2019 ... 국내동향. 국내통계정보 · 국내심층정보 · 국내산업정보. [미디어 이슈 ... 딥페이크(Deepfake) 기술이 영상 산업에 적극 활용되고 있다. 보다 쉽고 ...
-
인공지능의 악용 사례, 딥페이크 기술과 과제
Jul 25, 2022 ... 빅데이터로 본 딥페이크(Deepfake) : 가짜와의 전쟁. 2020-02-25. 연구보고서 · 글로벌 AI 신뢰성 정책 동향 연구. 2023-09-22. 이슈리포트 · 생성AI의 ...
-
생성 AI 기반의 AI 아트 기술 동향
Jul 22, 2023 ... 예술의 대중화와 관련 산업의 활성화에 기여할 수 있. 지만, 반대로 창작자들의 직업 안전성에 심각한 위협이 되고 있다. 또한. 딥페이크 문제로 사회 ...
-
[이슈리포트] 딥페이크 등 최근 기술발전에 따른 퍼블리시티 이용 환경 ...
May 4, 2021 ... 이슈리포트 2021-12 목차 1. 들어가며 2. 퍼블리시티 이용 환경의 변화 3. 퍼블리시티 보호 관련 입법동향과 검토 4. 나가며 개요 퍼블리시티권(the ...
-
[S&T GPS]미국, 딥페이크(Deep Fake)와 국가 안보에 관한 보고서 발표
주요동향. 홈; 주요동향. 인쇄하기 스크랩 URL 복사 페이스북 트위터 구글 카카오스토리. 목록. 제목: 미국, 딥페이크(Deep Fake)와 국가 안보에 관한 보고서 발표. 원문 ...
-
OECD, G7 ‘히로시마 AI 프로세스’ 관련 현황 보고서 발표
2023-09-07
□ OECD는 G7 ‘히로시마 AI 프로세스*’에서 논의할 정책적 주제를 선정하기 위하여 생성형 AI와 관련된 각국의 기회와 과제 등을 조사한 보고서 발표**(’23.9.)
* ’23년 5월 히로시마에서 열린 G7 정상회담에서 각국 정상들은 ‘히로시마 AI 프로세스’를 출범하여 생성형 AI에 대한 잠재적 위험성을 규제하기 위한 논의를 진행할 것을 계획
** G7 Hiroshima Process on Generative Artificial Intelligence (AI) : Towards a
G7 Common Understanding on Generative AI
ㅇ 보고서는 일본이 히로시마 AI 프로세스를 지원하기 위해 G7 국가를 대상으로 설문조사를 실시하여 각국의 정책 추진 현황, 생성형 AI와 관련한 기회 및 위험 사항 등을 파악한 결과를 토대로 작성
ㅇ 생성형 AI는 공공, 학술 및 정치적 토론의 중요한 주제로 부상하였으며 기업은 새로운 비즈니스 기회 창출을 위해 관련 기술 채택을 가속화하는 추세
- 생성형 AI 관련 뉴스 기사와 트윗 급증, 관련 과학 출판물 증가, 벤처 투자 확대 등에서 나타나듯 생성형 AI 관련 대중의 인식도 확대되고 있음
※ 2019년 이후 생성형 AI 관련 출판물이 5배 증가하였고, 2023년 상반기 생성형 AI에 대한 벤처 투자가 전 세계적으로 120억 달러에 달했으며, 오픈소스 커뮤니티 활성화에 따라 생성형 AI 시스템에 특화된 오픈소스 AI 모델 및 코드의 수도 증가하고 있음
- 생성형 AI는 산업과 사회에 혁신 잠재력을 가지고 있으나 악의적 사용으로 인한 허위 정보 전파, 조작된 콘텐츠 생성 등 부정적 결과를 초래할 가능성 상존
※ 2023년 1~7월 약 5,600건의 뉴스 기사에서 생성형 AI와 관련된 약 1,000여 건의 사건・위험이 보고되었으며, 2022년 12월 이후 사고・위험 발생 건수가 급증
ㅇ G7 회원국들은 생산성 향상, 혁신 및 기업가 정신 고취 등을 생성형 AI의 기회 요소로, 허위 정보와 의견 조작을 가장 큰 위험 요소로 파악
- (주요 기회 요소) 생산성 향상, 혁신과 기업가 정신의 촉진, 헬스케어 개선, 기후 위기 해결 도움, 민주적 과정의 추적성 및 투명성 강화, 시민들의 공공 서비스 접근성 개선 등
- (주요 위험 요소) 디지털 소문 등 허위 정보와 의견 조작, 지적 재산권 침해, 개인정보 보호 위협, 사이버 보안 등 보안 위협, 데이터 남용 및 부적절한 사용, 인권 위협 등
ㅇ G7 회원국들은 생성형 AI기술의 책임 있는 사용, 허위 정보 대응, 생성형 AI 거버넌스, 사이버 및 바이오 보안 위협을 가장 시급하고 중요한 정책 이슈로 파악
- 기타 이슈로는 개인정보와 데이터 거버넌스 이슈, 데이터 접근에 대한 공정성과 편견 대응, 인권 등 기본 권리, AI 시스템의 보안과 견고성 이슈, 민주적 가치 등이 있음
ㅇ G7 회원국별로 인식된 정책 격차는 다양하나, 허위 정보 대응, 투명성, 책임 있는 생성형 AI 사용과 관련된 정책적 격차를 중요한 과제로 강조
- 이를 해결하기 위한 조치로는 기존의 법적 프레임워크 활용, 이해관계자 의견 수렴, 새로운 거버넌스 기구 설립 및 가이드라인 제시, 국제 거버넌스 메커니즘의 필요성 인식 등이 있음
- 생성형 AI 규제 및 거버넌스를 어렵게 하는 특징으로는 생성형 AI의 예측 불가능성, 적응성, 자율성 및 다목적성, 개발 및 사용 단계에서의 투명성 부족, 딥페이크(Deepfake)를 포함한 허위정보 등이 있음
ㅇ 국제적 협력이 필요한 이슈로는 규제적 프레임워크와 상호 운용성, 사이버 및 바이오 보안 위협, 개인 데이터 및 지적 재산권, AI투명성 및 윤리, 공공 이익을 위한 생성형 AI활용, 기회의 불균형이 제시
- 이를 위한 정책 수단으로는 △안전 및 품질 관리, 역량 및 신뢰 구축을 위한 효과적인 도구 제공, △국내외 이해관계자와의 소통, △리스크 평가를 위한 인센티브 개발, △자발적인 행동 규범 등이 제안됨
-
미국, 딥페이크(Deep Fake)와 국가 안보에 관한 보고서 발표
2023-04-17
□ 의회조사국(CRS)은 딥페이크(Deep fake)와 국가 안보를 주제로 딥페이크의 활용 사례 및 정책적 고려사항 등을 담은 보고서 발표*(’23.4.)
* Deep Fakes and National Security
ㅇ 딥페이크는 인공지능의 하위 분야인 머신러닝, 특히 생성적 적대 신경망(GANs) 기술을 사용하여 생성된 사실적인 사진, 오디오, 영상 등의 위조물을 의미
- GAN 프로세스 내에서 뉴럴 네트워크라고 하는 두 개의 머신러닝 시스템이 서로 경쟁적으로 학습하는 과정을 통해 더 사실적인 위조 데이터를 생성*
* 첫 번째 뉴럴 네트워크인 생성자(generator)가 원본 데이터 세트의 속성을 복제하는 위조 데이터를 생성, 두 번째 뉴럴 네트워크인 판별자(discriminator)가 생성된 위조 데이터를 식별하는 작업을 수행. 판별자가 진짜와 위조 데이터를 구분할 수 없을 정도로 성능이 향상될 때까지 두 네트워크가 작업을 반복하며 점점 더 사실적인 데이터를 생성
- 최근 무료 제공 소프트웨어와 클라우드 컴퓨팅을 활용하여 위조 콘텐츠가 무분별하게 제작됨에 따라 관련 우려가 확산
ㅇ 딥페이크 기술은 엔터테인먼트 목적으로 대중화되었고 의학 분야 등에서 유익한 목적으로 사용되고 있으나, 악의적인 목적으로 활용되는 사례도 다수 발생
ㅇ 딥페이크 기술의 정교함은 인간의 검출 능력을 뛰어넘는 경우가 많아 정부 및 민간 차원에서 검출 도구에 대한 투자 활동을 수행 중
- 정부는 GAN 결과물 식별법*에 따라 국립과학재단에 조작・합성된 콘텐츠 및 정보의 진위성에 대한 연구 지원을, 국립표준기술연구소에 콘텐츠의 조작・합성 기술의 기능과 결과물 검사 도구 개발을 위한 측정 및 표준 개발 연구 지원 지시
* Identifying Outputs of Generative Adversarial Networks Act
- 국방고등연구계획국은 딥페이크 탐지와 관련하여 MedFor*와 SemaFor**라는 두 개의 프로그램을 운영하여, 적의 정보 작전 등에 대한 방어 수단 향상 노력
*MedFor(Media Forensics):사진과 비디오의 무결성을 자동으로 평가하고 위조 콘텐츠가 생성된 방식에 대한 정보를 분석가들에게 제공하기 위한 알고리즘 개발을 목표로, 픽셀의 불일치(디지털 무결성), 물리 법칙과의 불일치(물리적 무결성) 및 다른 정보 소스와의 불일치(의미론적 무결성) 등 딥페이크에서 발견되는 시청각적 불일치 식별 기술 연구
** SemaFor(Semantic Forensics):MedFor 기술을 기반으로 다양한 유형의 딥페이크 이미지를 자동으로 감지, 속성화 및 특성화(양성 또는 악성으로 식별)하는 알고리즘 개발
ㅇ 정책적으로는 딥페이크 탐지 도구의 한계에 따른 사용자 규제 및 규제로 인한 표현의 자유 제한 문제 등을 고려할 필요가 있음
- 알고리즘 기반 탐지 도구에서 식별된 결함을 해결하기 위해 GAN이 빠른 속도로 업데이트될 수 있으므로, 딥페이크 탐지 도구 배포 외에 소셜 미디어 사용자를 대상으로 콘텐츠 라벨링 및 인증 등의 수단을 확대할 필요가 있음
- 한편, 딥페이크 기술 규제가 소셜 미디어 플랫폼에 과도한 부담을 주거나 언론의 자유와 예술적 표현에 대한 위헌적 제한으로 이어질 수 있다는 우려 제기
- 기술적인 대응만으로는 불충분하며 대중에게 딥페이크 교육을 실시하고, 악의적 딥페이크 제작자의 동기를 최소화하는데 초점을 맞춰야 한다는 주장도 제기
ㅇ 딥페이크 기술은 미국의 국방, 소셜 미디어 플랫폼 규제 등에 영향을 미칠 수 있으므로 의회에서는 다음의 내용에 대한 고려가 필요
-
‘사회주의 챗GPT’ 만드는 중국, 업계의 기술개발 열기는 한창
2023-04-11
□ 中, 챗봇 등 생성형 인공지능(AI) 서비스 규제안 공표
ㅇ 중국 국가인터넷정보판공실(互聯網信息辦公室)은 ‘네트워크 보안법 및 기타 법률 및 규정에 따른 생성형 AI에 대한 관리 조치(生成式人工智能服務管理辦法)’ 초안을 공개(4.11.)
- 지침은 중국 영토 내에서 대중에게 서비스를 제공하기 위해 AI 제품의 연구・개발・활용에 적용되며 챗GPT 등 텍스트 모델뿐만 아니라 이미지・소리・영상・코드 및 기타 콘텐츠 등 생성 AI 기술 전반에 적용
- 주요 내용으로는 △안전하고 신뢰할 수 있는 소프트웨어・도구・컴퓨팅・데이터 자원의 우선 사용 장려, △AI 제품과 서비스의 중국 법률 및 규정 요구사항의 준수 등
- 특히 생성형 AI 제품과 서비스는 사회주의 핵심 가치를 반영해야 하며, △국가 권력 전복, △사회주의 체제 전복, △국가 분열 선동, △민족단결 저해, △테러 조장, △극단주의, △인종 증오와 차별, △폭력, △음란 및 허위 정보, △경제 및 사회 질서 교란 위험이 있는 콘텐츠는 피해야 한다고 명시
- 인종・민족・성별 및 기타 특성에 따른 차별을 방지하는 방식으로 알고리즘을 설계하는 방법에 대한 지침도 제시
- AI 제품에서 생성하는 모든 콘텐츠는 업체가 책임을 지며, 업체는 서비스 개시 이전에 당국에 사이버 보안 평가를 위한 AI 알고리즘 정보를 제출하는 것이 필수
- 만일 생성형 AI가 법률 및 규정 요구사항에 위배되는 콘텐츠를 제공한다면, 콘텐츠 여과 등 조처를 하고 3개월 안에 콘텐츠 재생성 방지 조처를 하는 것이 필수
- 콘텐츠 시정 명령을 받고 3개월 안에 조처를 하지 않은 업체는 1만 위안~10만 위안의 벌금이 부과할 예정
- 서비스 제공자가 위의 내용을 위반할 경우 ‘네트워크 보안법’, ‘데이터 보안법’, ‘개인정보보호법’ 등 법령 및 행정처분에 따라 처벌
- 중국 정부는 금년 5월 10일까지 생성형 AI 관리 조치 초안에 대한 의견 수렴을 진행하여 연내 시행 예정
ㅇ 한편, 중국 관계 당국은 AI챗봇이 검열을 받지 않은 답변을 내놓을 수 있다는 우려 때문에 중국 내 챗GPT 서비스 차단(2.23)
- 텐센트와 전자상거래 기업 알리바바그룹의 핀테크 자회사 앤트그룹에게 플랫폼에 챗GPT에 접속할 수 있는 서비스를 제공하지 말 것을 지시
- 중국 정부는 챗GPT가 미국 정부가 지정학적 이익을 위해 거짓 정보를 퍼뜨리고, 사실을 조작하는 데 도움을 줄 수 있다고 주장
□ 앞서, 생성 AI를 이용한 콘텐츠에 대해 제작과 유통을 금지하는 규정도 발표
ㅇ 중국 국가사이버정보판공실 ‘인터넷 정보 서비스의 심층합성 관리에 관한 규정’을 발표(2022.12)
- 규정에서는 중국 당국이 중요하다고 인식하는 텍스트, 이미지, 음성 및 비디오 합성 콘텐츠에 대해 워터마크 등 출처 표기가 없는 콘텐츠에 대한 제작 및 유통을 금지한다고 명시
- 각 콘텐츠가 공개되기 전에 규정을 준수하는지 확인하고, 생성 AI 콘텐츠를 나타내는 정확한 표기(워터마크)가 포함되어 있는지 규정에 따라 정부 당국의 보안 평가를 받아야 하는 것이 필수
- 아울러, 어떠한 조직이나 개인이 기술적 수단을 통해 관련 표기를 삭제하거나 변조 또는 은폐를 금지하였으며, 생성 AI 제작자 역시 제작 내용에 대한 기록과 실명 계정 등록을 의무화
- 특히, AI를 통해 만들어진 정치적 목적의 콘텐츠를 차단하는 것이 주된 목적으로 분석
- 앞서 중국 정부는 2019년부터 출처 표기가 없는 딥페이크 콘텐츠를 불법으로 규정했으며, 2020년부터 실제 규제에 들어가는 등 단속을 시행
□ 정부 규제와 검열에도 불구, 민간 업계의 AI 챗봇 개발은 한창
ㅇ 알리바바, 바이두, 센스타임, 하오모 등 중국 주요기업은 챗GPT 대항마 성격의 생성형 AI 챗봇을 연달아 발표하며 시장 경쟁 가세