연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

ScienceON TREND 최신 과학기술 트렌드와 토픽에 대한 ScienceON 연관 콘텐츠 및 내외부 지식인프라 콘텐츠를 한 번에 볼 수 있는 서비스입니다. 목록

딥페이크 대표이미지

키워드 정의키워드 정의* Wikipedia, Google에서 수집한 이슈 키워드 정의 정보입니다.

딥페이크(Deepfake)란, 인공지능 기술인 딥러닝(deep learning)과 ‘가짜’를 의미하는 단어인 페이크(fake)의 합성어로, 인공지능 기술을 이용하여 진위 여부를 구별하기 어려운 가짜 이미지나 영상물을 뜻한다. 딥페이크라는 단어가 등장한 시기는 2017년으로, 미국 온라인 커뮤니티 Reddit의 한 회원이 기존 영상에 유명인의 얼굴을 입혀 가짜 콘텐츠를 게재한 데서 유래되었다. 이후 온라인 커뮤니티와 SNS를 중심으로 급속히 확산된 딥페이크 콘텐츠는 최근 DeepFaceLab, Faceswap 등 오픈 소스 형태의 영상 합성 제작 프로그램이 배포되면서 더욱 성행하고 있다.

출처 : file:///C:/Users/ADMIN/Downloads/2019%20%EB%AF%B8%EB%94%94%EC%96%B4%20%EC%9D%B4%EC%8A%88&%ED%8A%B8%EB%A0%8C%ED%8A%B8(12%EC%9B%94%ED%98%B8)_[%ED%8A%B8%EB%9E%9C%EB%93%9C%EB%A6%AC%ED%8F%AC%ED%8A%B8]%EB%94%A5%ED%8E%98%EC%9D%B4%ED%81%AC%20%EA%B8%B0%EC%88%A0%EC%9D%98%20%EB%B9%9B%EA%B3%BC%20%EA%B7%B8%EB%A6%BC%EC%9E%90%20(1).pdf

워드 클라우드워드 클라우드* ScienceON에서 논문 데이터에서 추출한 관련 키워드 클라우드입니다.

관심도 변화관심도 변화

시간 흐름에 따른 관심도 변화

수치는 특정 지역 및 기간을 기준으로 차트에서 가장 높은 지점 대비 검색 관심도를 나타냅니다.
값은 검색 빈도가 가장 높은 검색어의 경우 100, 검색 빈도가 그 절반 정도인 검색어의 경우 50, 해당 검색어에 대한 데이터가 충분하지 않은 경우 0으로 나타납니다.

대한민국 / 지난 12개월

요약정보요약정보* 웹에서 수집한 요약 정보입니다.

딥페이크의 확산

최근 유튜브를 통해 배포되는 영상 중에서 딥페이크(DeepFake)를 활용한 영상들이 자주 보인다. 이들은 단순히 재미와 유머를 목적으로 하는 예도 있지만, 정치·사회 영역에서 가짜 뉴스를 퍼트려 혼란을 유발하거나, 특정 인물을 콘텐츠로 활용하여 음해하는 등 심각한 부작용을 초래한다. 이미 악의적으로 인스타그램의 여성 사진을 누드로 편집(Deep porn)하는 AI가 등장1)한 지 오래이며, 유명 인사(트럼프, 오바마, BTS 등)를 다른 사람으로 편집하는 인권침해 사례도 다수 발생하고 있다. 최근에는 러시아와 전쟁을 겪고 있는 우크라이나의 젤린스키 대통령이 등장하는 가짜 영상이 공개되어 화제가 된 바 있다.2) 이처럼 딥페이크, 페이크 페이스(Fakeface)와 같이 인공지능(AI)을 활용하여, 진짜 같은 가짜를 만드는 이미지 합성 기술은 악의적인 기만행위로 사회 및 국가적인 혼란을 야기하고 있다.

출처 : https://spri.kr/posts/view/23469?code=data_all&study_type=industry_trend

딥페이크를 만드는 알고리즘

그러면 딥페이크는 어떻게 만들어질까? 딥페이크에 활용되는 AI는 생성적 적대 신경망(GAN, Generative Adversarial Network)이라는 모델이다. 이는 두 개의 신경망이 서로 경쟁하면서 더 나은 결과를 만들어내는 강화학습 방식의 AI 기술이다. 글자 그대로, 그럴듯한 가짜 이미지를 생성(Generative)하고, 생성 및 감별 기능의 두 개 모델을 서로 적대적 (Adversarial)으로 경쟁·학습시킨 인공신경망(Network)을 뜻한다. GAN을 설명하는 쉬운 예시로, 위조지폐범과 경찰의 비유를 종종 활용한다. 위조지폐범은 더욱 정교하게 가짜 돈을 만들고자 노력(학습)하며, 경찰은 이런 정교한 가짜 돈을 더 정확하게 감별해 내고자 노력(학습)하는 형식이다. 원래 GAN은 실제와 가상의 이미지를 보다 정밀하게 구별하고 구현하기 위한 기술로 개발 되었다. GAN을 통하여 영상이나 이미지를 정교하게 편집하거나, 보다 실감 나는 콘텐츠를 제작하고, 손상된 영상을 복원하는 등 다양한 영역에 활용되었다. 그러나 이 기술로 분별할 수 없는 수준의 콘텐츠를 제작하여 정치·사회적으로 테러 및 가짜 뉴스 등에 악용하는 사례가 점차 증가하고 있는 것이 현실이다. 최근에는 GAN을 활용하여 AI가 사람의 피부뿐 아니라 머리카락까지 실제와 비슷한 이미지를 생성하는 수준에 이르러, 기술적 한계(Uncanny Valley)를 이미 뛰어넘은 것으로 판단되고 있다. 미국 UC버클리대와 영국 랭커스터대 공동연구팀은 실제 얼굴과 AI가 합성한 얼굴을 구별하는 실험을 통하여, 사람들이 AI가 합성한 가짜를 구별하지 못하며 오히려 가짜를 더 신뢰한다는 결과를 도출하였다.3) 이 실험에서는 223명의 실험 참가자를 대상으로, 실제 사람 얼굴 사진과 AI가 합성한 얼굴 사진이 섞인 800장의 세트에서 무작위로 128장을 뽑아 신뢰도에 따라 1~7점 척도의 점수를 부여하게 했다. 그 결과, 합성 얼굴에 대한 평균 신뢰도(4.82)가 실제 얼굴 평균 신뢰도(4.48)보다 높게 나타났다. 또한 신뢰도 상위 4개의 얼굴 중 3개는 합성 얼굴이며, 신뢰도 하위 4개 얼굴은 모두 실제 얼굴이었다

출처 : https://spri.kr/posts/view/23469?code=data_all&study_type=industry_trend

기관/단체 홈페이지기관/단체 홈페이지* 이슈 관련 기관 및 단체 홈페이지입니다.

웹 뉴스웹 뉴스* 구글 뉴스에서 검색한 관련 뉴스입니다.

오피니언오피니언* 구글 뉴스에서 자동으로 추출한 전문가들의 오피니언으로 적합하지 않은 정보가 있을 수 있습니다.

1. 네이버 측
(GMT)2024-03-06 02:11:44

딥페이크와 같은 생성형 AI 기술 활용에 주의가 필요한 부분들을 보다 적극적으로 알리고 이에 대한 모니터링도 지속 강화해 나가겠다

출처 : 네카오, 총선 앞두고 딥페이크 악용 방지 총력 - 프라임경제
2. 네이버
(GMT)2024-03-06 02:11:44

뉴스 댓글 집중 모니터링 기간 동안 전담 담당자를 확충하는 등 24시간 모니터링을 강화하고, 각 부서 핫라인을 구축해 이슈 발생시 빠르게 대응해 나갈 예정

출처 : 네카오, 총선 앞두고 딥페이크 악용 방지 총력 - 프라임경제
3. 카카오 관계자
(GMT)2024-03-06 02:11:44

비가시성 워터마크는 유저들에는 워터마크가 보이지 않으나 기술적으로는 칼로 생성 여부를 할 수 있는 기술로 구글에서도 해당 기술을 연구 운영 중

최대한 빨리 적용하기 위해 노력하고 있다

출처 : 네카오, 총선 앞두고 딥페이크 악용 방지 총력 - 프라임경제
4. 페이블 칼라딘 섬섭 인공지능(AI) 기계학습 책임자
(GMT)2023-12-07 08:00:00

사기꾼은 단순히 마스크를 쓰는 것부터 복잡한 딥페이크를 만드는 등 다양한 방법으로 시스템을 속이려 할 수 있다

딥페이크는 기계학습을 이용해 가짜 페르소나를 생성하거나 조작된 사진과 비디오를 이용해 기존 인물로 가장할 수 있다

출처 : “알고 봐도 모르겠다” 딥페이크 사기…45배 폭증한 나라도 있다는데 - 매일경제
5. 보고서
(GMT)2023-12-07 08:00:00

선진국의 문서는 신뢰할 만한 것으로 여겨지기 때문에 사기꾼들의 새로운 표적이 되고 있다

겉보기에 신뢰할만한 문서라도 문서 검증에 나서야 한다

출처 : “알고 봐도 모르겠다” 딥페이크 사기…45배 폭증한 나라도 있다는데 - 매일경제
6. 보고서
(GMT)2023-12-07 08:00:00

규제 프레임워크가 중요한 역할을 하는 시대에 규제받지 않는 기업은 사기꾼의 전술에 점점 더 취약해지고 있다

출처 : “알고 봐도 모르겠다” 딥페이크 사기…45배 폭증한 나라도 있다는데 - 매일경제
8. 정수환 숭실대 정보통신전자공학부 교수팀
(GMT)2024-01-02 08:00:00

최근 딥러닝 음성 합성 기술이 발전하면서 특정 대상을 겨냥한 음성 조작이 가능해졌고 실제 구분이 쉽지 않은 단계로 가고 있어 보이스피싱 조직이 이를 활용하면 거의 완벽하게 대상을 속일 수 있다

출처 : 세계적 골칫거리 부상 'AI 딥페이크 악용'…국회도 대응책 마련에 '골몰' - 굿모닝경제
9. 국회입법조사처
(GMT)2024-01-02 08:00:00

딥페이크 기술이 급격히 발전하면서 딥페이크를 통한 허위조작 영상의 위험성도 그만큼 커지고 있다

딥페이크는 진위 여부를 가려내기 어렵기에 피해를 막기 위한 가장 최선의 대응은 또 다른 AI 기반 딥페이크 식별기술의 발전

출처 : 세계적 골칫거리 부상 'AI 딥페이크 악용'…국회도 대응책 마련에 '골몰' - 굿모닝경제
10. 정보통신기획평가원 기술동향 보고서
(GMT)2024-01-02 08:00:00

AI를 활용한 보이스피싱 위험이 많이 증가했지만, 변조 음성 탐지 기술은 거의 없는 상황

해외 연구는 주로 영어 발화에 대한 연구이기 때문에 한국어 딥페이크 음성 탐지 연구가 필요하다

출처 : 세계적 골칫거리 부상 'AI 딥페이크 악용'…국회도 대응책 마련에 '골몰' - 굿모닝경제
11. 하정우 네이버클라우드 AI이노베이션 센터장
(GMT)2024-02-07 08:00:00

AI 생성물에 워터마크 등 표식이 필요하다는 점에 업계가 공감하고 있다

표식이 지워지거나 파괴되는 가능성도 고려해 기술을 준비 중

출처 : 진짜·가짜 경계 허무는 딥페이크...'1분 짜리 음성 데이터로도 완성' - 아시아경제
12. 이유현 딥브레인AI 딥러닝팀 연구원
(GMT)2024-02-07 08:00:00

딥페이크 수요가 더 많기 때문에 자본이나 기술이 더 몰리고 있다

덧셈과 뺄셈을 배운 AI에게 곱셈 문제를 주면 이해하지 못하는 것처럼 새로운 딥페이크 기술을 탐지하긴 어렵다

출처 : 진짜·가짜 경계 허무는 딥페이크...'1분 짜리 음성 데이터로도 완성' - 아시아경제
13. 오순영 KB금융지주 AI센터장
(GMT)2024-01-03 08:00:00

필요한 영역에 대한 명확한 규제는 AI 부작용, 소송을 비롯한 사회적 비용을 최소화할 수 있어 AI R&D 및 비즈니스를 활성화시킬 수 있다

출처 : [2024 신년기획]AI 규제 '네거티브로 적절하게'…현 수준과하지 않지만 속도낼 필요 없어 - 전자신문
14. 배순민 KT 기술혁신부문 AI2X Lab장
(GMT)2024-01-03 08:00:00

하라는 대로 하지 않으면 불법이 되는 '포지티브 규제가' 정책 중심이라는 인식이 강한 상황

허용 가능한 권리 범위에 대한 정책 방향성이 조금 더 명확하게 명시될 필요가 있다

출처 : [2024 신년기획]AI 규제 '네거티브로 적절하게'…현 수준과하지 않지만 속도낼 필요 없어 - 전자신문
15. 하정우 네이버클라우드 AI 이노베이션 센터장
(GMT)2024-01-03 08:00:00

초거대 AI 강대국은 모두 경쟁력 있는 자체 플랫폼 보유국이라는 점을 인식해야 한다

플랫폼 사전 규제는 결국 생성 AI 경쟁력 약화, 대한민국 국가 경쟁력 약화로 이어질 수 있다

출처 : [2024 신년기획]AI 규제 '네거티브로 적절하게'…현 수준과하지 않지만 속도낼 필요 없어 - 전자신문
16. 유회준 KAIST 교수
(GMT)2024-01-03 08:00:00

AI 발전이 초보 단계고, 새로운 기술들이 활발하게 개발되고 있어 섣부른 규제는 이를 저해할 수 있다

출처 : [2024 신년기획]AI 규제 '네거티브로 적절하게'…현 수준과하지 않지만 속도낼 필요 없어 - 전자신문
17. 네이처
(GMT)2024-01-26 08:00:00

모든 딥페이크에 적용 가능한 소프트웨어 기술 개발은 어렵기 때문에 딥페이크 탐지 기술은 올 한 해 내내 화두가 될 것

출처 : “딥페이크 판별-유전자 가위 등… 올해 흥미로운 혁신 일어날 것” - ZUM 뉴스
18. 네이처
(GMT)2024-01-26 08:00:00

매사추세츠공대 연구진이 개발한, 보다 규모가 큰 단위로 DNA를 교정할 수 있는 ‘프라임 편집’ 기술도 올해 주목된다

프라임 편집은 병원체 내성을 가진 농작물 개발에도 활용할 수 있다

출처 : “딥페이크 판별-유전자 가위 등… 올해 흥미로운 혁신 일어날 것” - ZUM 뉴스

논문논문* ScienceON에서 제공하는 관련 논문입니다.
더보기

특허특허* ScienceON에서 제공하는 관련 특허입니다.
더보기

[한국특허] 고성능 딥페이크 비디오 검출 방법 (HIGH-PERFORMANCE DEEPFAKE VIDEO DETECTION METHOD)

한국(KO) | 공개 | 출원인 : 부경대학교 산학협력단; | 출원번호 : 10-2021-0168809 ( 2021-11-30 ) | 공개번호 : 10-2023-0081091 (2023-06-07) | IPC : G06V-040/16; G06N-020/00; G06N-003/08; G06V-010/70 | 법적상태 : 공개

[한국특허] 동영상 딥페이크 탐지를 위한 페이크 비디오 검증 방법 및 이를 수행하는 전자 장치 (METHOD AND APPARATUS FOR VERIFICATION OF FAKE VIDEO THROUGH ARTIFICIAL INTELLIGENCE MODEL)

한국(KO) | 공개 | 출원인 : 울산과학기술원; | 출원번호 : 10-2022-0009364 ( 2022-01-21 ) | 공개번호 : 10-2023-0113012 (2023-07-28) | IPC : G06N-003/04; G06N-003/08; G06T-007/00; G06V-010/82; G06V-040/40 | 법적상태 : 공개

[한국특허] 인공지능 기반의 의료 영상 합성 장치 및 방법 (APPARATUS AND METHOD FOR SYNTHESIZING MEDICAL IMAGE BASED ON ARTIFICIAL INTELLIGENCE)

한국(KO) | 등록 | 출원인 : 고려대학교 산학협력단; | 출원번호 : 10-2020-0128003 ( 2020-10-05 ) | 공개번호 : 10-2022-0045366 (2022-04-12) | 등록번호 : 10-2456467-0000 (2022-10-14) | IPC : A61B-005/055; A61B-005/00; G06T-007/00; G16H-030/40; G16H-050/20 | 법적상태 : 등록

보고서보고서* ScienceON에서 제공하는 관련 보고서입니다
더보기

COMPAS 핵심 경쟁자 탐색핵심 경쟁자 탐색* KISTI COMPAS에서 제공하는 핵심 경쟁자 분석 정보입니다.

특허 분석 정보에서 검색식 (ipc:(G06N*)) AND pd:[2019-03-11 TO 2024-03-11] 으로 분석한 결과입니다.

COMPAS 특허 분석특허 분석* KISTI COMPAS에서 제공하는 특허 분석 정보입니다.

특허 분석 정보(COMPAS) 사진

DataONDataON* KISTI DataON에서 제공하는 연구 데이터셋, API 입니다.
DataON

  • 데이터셋데이터셋
  • 2022
  • 해외
FAD: A Chinese Dataset for Fake Audio Detection
  • 데이터 제공처 : OpenAIRE
  • 생성자 : Haoxin Ma; Jiangyan Yi
  • 라이센스 : CC-BY-4.0
  • doi : 10.5281/zenodo.6641573
  • Fake audio detection is a growing concern and some relevant datasets have been designed for research. But there is no standard public Chinese dataset under additive noise conditions. In this paper, we aim to fill in the gap and design a Chinese fake audio detection dataset (FAD) for studying more generalized detection methods. Twelve mainstream speech generation techniques are used to generate fake audios. To simulate the real-life scenarios, three noise datasets are selected for noisy adding
자세히 보기
  • 데이터셋데이터셋
  • 2023
  • 해외
DEepfake CROss-lingual evaluation dataset (DECRO)
  • 데이터 제공처 : OpenAIRE
  • 생성자 : Weichen Lian; Yuexin Wu; Zhehan Gu; Lingxiao Yu
  • 라이센스 : CC-BY-4.0
  • doi : 10.5281/zenodo.7603208
  • Deepfake cross-lingual evaluation dataset (DECRO) is constructed to evaluate the influence of language differences on deepfake detection.;{ eferences: [DataTang. 2020. aidatatang_200zh, a free Chinese Mandarin speech corpus by Beijing DataTang Technology Co., Ltd ( www.datatang.com ). Online; accessed 08-Oct-2022., Hui Bu, Jiayu Du, Xingyu Na, Bengu Wu, and Hao Zheng. 2017. Aishell-1: An open-source mandarin speech corpus and a speech recognition baseline. In 2017 20th conference of the oriental
자세히 보기
  • 데이터셋데이터셋
  • 2022
  • 해외
Heavyweight Faceswap Video Dataset
  • 데이터 제공처 : OpenAIRE
  • 생성자 : Saahil Sood
  • 라이센스 : CC-BY-4.0
  • doi : 10.5281/zenodo.6430355
  • This dataset consists of the 300 original videos modified using deepfake manipulation methods. The 300 videos are split into zip files of 30 videos each for your convenience. Deepfake manipulation is a learning-based faceswap approach that uses poisson imaging to merge a manipulated face with another image. 
자세히 보기

외부자료외부자료* 외부 보고서, 동향, 분석자료입니다.

  • 실제같은 가짜 '딥페이크'의 세계 완전해부...AI 세상의 새로운 게임 ... 사진 실제같은 가짜 '딥페이크'의 세계 완전해부...AI 세상의 새로운 게임 ...

    May 9, 2022 ... MIT는 이 기술을 2022년 10대 혁신기술로 선정한 바 있다. 특허청이 분석한 한국·미국·중국·일본·유럽 등 지식재산 분야 5대 강국의 특허 출원 동향을 ...

    출처 : https://m.khan.co.kr/article/202205091052001

  • 지식 > 정기간행물 > 주간기술동향 > 상세정보 | IITP 사진 지식 > 정기간행물 > 주간기술동향 > 상세정보 | IITP

    Jul 11, 2023 ... - SOAR 기반의 차세대 정보보안 관제 동향. ICT 신기술 - 5G/6G 이동통신 ... - 딥페이크로 위조된 음성 탐지기술 S/W. 첨부파일 주간기술동향 2099호.

    출처 : https://www.iitp.kr/kr/1/knowledge/periodicalViewA.it?searClassCode=B_ITA_01&masterCode=publication&identifier=1284

  • 생성형 AI 기술을 활용한 가짜뉴스에 대한 대응 동향 - Lexology 사진 생성형 AI 기술을 활용한 가짜뉴스에 대한 대응 동향 - Lexology

    Feb 13, 2024 ... 딥페이크는 '딥러닝'(Deep Learning)과 '페이크'(Fake)라는 두 단어의 합성어로, 생성형 AI를 활용하여 만들어진 가짜 이미지나 영상물을 의미합니다.

    출처 : https://www.lexology.com/library/detail.aspx?g=01814eb4-d6b3-4b35-b0c3-a1cfc3b9d2a2

  • 한국언론진흥재단 사진 한국언론진흥재단

    ... 딥페이크 어떻게 대처할 것인가.pdf. 출처표시. 01 시작하며. 02 딥페크 관련 법규제 동향. 03 딥페이크에 대한 기술적 대응 동향. 04 딥페이크 검증 확인을 위한 도구 ...

    출처 : https://www.kpf.or.kr/front/research/selfDetail.do?seq=588777

  • [미디어 이슈 & 트렌드] [트랜드리포트] 딥페이크 기술의 빛과 그림자 사진 [미디어 이슈 & 트렌드] [트랜드리포트] 딥페이크 기술의 빛과 그림자

    Dec 16, 2019 ... 국내동향. 국내통계정보 · 국내심층정보 · 국내산업정보. [미디어 이슈 ... 딥페이크(Deepfake) 기술이 영상 산업에 적극 활용되고 있다. 보다 쉽고 ...

    출처 : https://www.kocca.kr/kocca/bbs/view/B0000204/1939516.do?searchCnd=&searchWrd=&cateTp1=&cateTp2=&useYn=&menuNo=204172&categorys=4&subcate=61&cateCode=0&type=&instNo=0&questionTp=&ufSetting=&recovery=&option1=&option2=&year=&morePage=&qtp=&searchGenre=&domainId=&sortCode=&pageIndex=1

  • 인공지능의 악용 사례, 딥페이크 기술과 과제 사진 인공지능의 악용 사례, 딥페이크 기술과 과제

    Jul 25, 2022 ... 빅데이터로 본 딥페이크(Deepfake) : 가짜와의 전쟁. 2020-02-25. 연구보고서 · 글로벌 AI 신뢰성 정책 동향 연구. 2023-09-22. 이슈리포트 · 생성AI의 ...

    출처 : https://spri.kr/posts/view/23469?code=data_all&study_type=industry_trend

  • 생성 AI 기반의 AI 아트 기술 동향 사진 생성 AI 기반의 AI 아트 기술 동향

    Jul 22, 2023 ... 예술의 대중화와 관련 산업의 활성화에 기여할 수 있. 지만, 반대로 창작자들의 직업 안전성에 심각한 위협이 되고 있다. 또한. 딥페이크 문제로 사회 ...

    출처 : https://www.koren.kr/lib/Common/Com/ComDownload.asp?ttp=brd1&tno=1686

  • [이슈리포트] 딥페이크 등 최근 기술발전에 따른 퍼블리시티 이용 환경 ... 사진 [이슈리포트] 딥페이크 등 최근 기술발전에 따른 퍼블리시티 이용 환경 ...

    May 4, 2021 ... 이슈리포트 2021-12 목차 1. 들어가며 2. 퍼블리시티 이용 환경의 변화 3. 퍼블리시티 보호 관련 입법동향과 검토 4. 나가며 개요 퍼블리시티권(the ...

    출처 : https://welcon.kocca.kr/ko/info/trend/1950104

  • [S&T GPS]미국, 딥페이크(Deep Fake)와 국가 안보에 관한 보고서 발표 사진 [S&T GPS]미국, 딥페이크(Deep Fake)와 국가 안보에 관한 보고서 발표

    주요동향. 홈; 주요동향. 인쇄하기 스크랩 URL 복사 페이스북 트위터 구글 카카오스토리. 목록. 제목: 미국, 딥페이크(Deep Fake)와 국가 안보에 관한 보고서 발표. 원문 ...

    출처 : https://now.k2base.re.kr/portal/trend/mainTrend/view.do?poliTrndId=TRND0000000000050755&menuNo=200004&pageUnit=10&pageIndex=2

  • OECD, G7 ‘히로시마 AI 프로세스’ 관련 현황 보고서 발표 사진 OECD, G7 ‘히로시마 AI 프로세스’ 관련 현황 보고서 발표 2023-09-07

    □ OECD는 G7 ‘히로시마 AI 프로세스*’에서 논의할 정책적 주제를 선정하기 위하여 생성형 AI와 관련된 각국의 기회와 과제 등을 조사한 보고서 발표**(’23.9.) * ’23년 5월 히로시마에서 열린 G7 정상회담에서 각국 정상들은 ‘히로시마 AI 프로세스’를 출범하여 생성형 AI에 대한 잠재적 위험성을 규제하기 위한 논의를 진행할 것을 계획 ** G7 Hiroshima Process on Generative Artificial Intelligence (AI) : Towards a G7 Common Understanding on Generative AI ㅇ 보고서는 일본이 히로시마 AI 프로세스를 지원하기 위해 G7 국가를 대상으로 설문조사를 실시하여 각국의 정책 추진 현황, 생성형 AI와 관련한 기회 및 위험 사항 등을 파악한 결과를 토대로 작성 ㅇ 생성형 AI는 공공, 학술 및 정치적 토론의 중요한 주제로 부상하였으며 기업은 새로운 비즈니스 기회 창출을 위해 관련 기술 채택을 가속화하는 추세 - 생성형 AI 관련 뉴스 기사와 트윗 급증, 관련 과학 출판물 증가, 벤처 투자 확대 등에서 나타나듯 생성형 AI 관련 대중의 인식도 확대되고 있음 ※ 2019년 이후 생성형 AI 관련 출판물이 5배 증가하였고, 2023년 상반기 생성형 AI에 대한 벤처 투자가 전 세계적으로 120억 달러에 달했으며, 오픈소스 커뮤니티 활성화에 따라 생성형 AI 시스템에 특화된 오픈소스 AI 모델 및 코드의 수도 증가하고 있음 - 생성형 AI는 산업과 사회에 혁신 잠재력을 가지고 있으나 악의적 사용으로 인한 허위 정보 전파, 조작된 콘텐츠 생성 등 부정적 결과를 초래할 가능성 상존 ※ 2023년 1~7월 약 5,600건의 뉴스 기사에서 생성형 AI와 관련된 약 1,000여 건의 사건・위험이 보고되었으며, 2022년 12월 이후 사고・위험 발생 건수가 급증 ㅇ G7 회원국들은 생산성 향상, 혁신 및 기업가 정신 고취 등을 생성형 AI의 기회 요소로, 허위 정보와 의견 조작을 가장 큰 위험 요소로 파악 - (주요 기회 요소) 생산성 향상, 혁신과 기업가 정신의 촉진, 헬스케어 개선, 기후 위기 해결 도움, 민주적 과정의 추적성 및 투명성 강화, 시민들의 공공 서비스 접근성 개선 등 - (주요 위험 요소) 디지털 소문 등 허위 정보와 의견 조작, 지적 재산권 침해, 개인정보 보호 위협, 사이버 보안 등 보안 위협, 데이터 남용 및 부적절한 사용, 인권 위협 등 ㅇ G7 회원국들은 생성형 AI기술의 책임 있는 사용, 허위 정보 대응, 생성형 AI 거버넌스, 사이버 및 바이오 보안 위협을 가장 시급하고 중요한 정책 이슈로 파악 - 기타 이슈로는 개인정보와 데이터 거버넌스 이슈, 데이터 접근에 대한 공정성과 편견 대응, 인권 등 기본 권리, AI 시스템의 보안과 견고성 이슈, 민주적 가치 등이 있음 ㅇ G7 회원국별로 인식된 정책 격차는 다양하나, 허위 정보 대응, 투명성, 책임 있는 생성형 AI 사용과 관련된 정책적 격차를 중요한 과제로 강조 - 이를 해결하기 위한 조치로는 기존의 법적 프레임워크 활용, 이해관계자 의견 수렴, 새로운 거버넌스 기구 설립 및 가이드라인 제시, 국제 거버넌스 메커니즘의 필요성 인식 등이 있음 - 생성형 AI 규제 및 거버넌스를 어렵게 하는 특징으로는 생성형 AI의 예측 불가능성, 적응성, 자율성 및 다목적성, 개발 및 사용 단계에서의 투명성 부족, 딥페이크(Deepfake)를 포함한 허위정보 등이 있음 ㅇ 국제적 협력이 필요한 이슈로는 규제적 프레임워크와 상호 운용성, 사이버 및 바이오 보안 위협, 개인 데이터 및 지적 재산권, AI투명성 및 윤리, 공공 이익을 위한 생성형 AI활용, 기회의 불균형이 제시 - 이를 위한 정책 수단으로는 △안전 및 품질 관리, 역량 및 신뢰 구축을 위한 효과적인 도구 제공, △국내외 이해관계자와의 소통, △리스크 평가를 위한 인센티브 개발, △자발적인 행동 규범 등이 제안됨

    출처 : https://now.k2base.re.kr/portal/trend/mainTrend/view.do?poliTrndId=TRND0000000000052007&menuNo=200004

  • 미국, 딥페이크(Deep Fake)와 국가 안보에 관한 보고서 발표 사진 미국, 딥페이크(Deep Fake)와 국가 안보에 관한 보고서 발표 2023-04-17

    □ 의회조사국(CRS)은 딥페이크(Deep fake)와 국가 안보를 주제로 딥페이크의 활용 사례 및 정책적 고려사항 등을 담은 보고서 발표*(’23.4.) * Deep Fakes and National Security ㅇ 딥페이크는 인공지능의 하위 분야인 머신러닝, 특히 생성적 적대 신경망(GANs) 기술을 사용하여 생성된 사실적인 사진, 오디오, 영상 등의 위조물을 의미 - GAN 프로세스 내에서 뉴럴 네트워크라고 하는 두 개의 머신러닝 시스템이 서로 경쟁적으로 학습하는 과정을 통해 더 사실적인 위조 데이터를 생성* * 첫 번째 뉴럴 네트워크인 생성자(generator)가 원본 데이터 세트의 속성을 복제하는 위조 데이터를 생성, 두 번째 뉴럴 네트워크인 판별자(discriminator)가 생성된 위조 데이터를 식별하는 작업을 수행. 판별자가 진짜와 위조 데이터를 구분할 수 없을 정도로 성능이 향상될 때까지 두 네트워크가 작업을 반복하며 점점 더 사실적인 데이터를 생성 - 최근 무료 제공 소프트웨어와 클라우드 컴퓨팅을 활용하여 위조 콘텐츠가 무분별하게 제작됨에 따라 관련 우려가 확산 ㅇ 딥페이크 기술은 엔터테인먼트 목적으로 대중화되었고 의학 분야 등에서 유익한 목적으로 사용되고 있으나, 악의적인 목적으로 활용되는 사례도 다수 발생 ㅇ 딥페이크 기술의 정교함은 인간의 검출 능력을 뛰어넘는 경우가 많아 정부 및 민간 차원에서 검출 도구에 대한 투자 활동을 수행 중 - 정부는 GAN 결과물 식별법*에 따라 국립과학재단에 조작・합성된 콘텐츠 및 정보의 진위성에 대한 연구 지원을, 국립표준기술연구소에 콘텐츠의 조작・합성 기술의 기능과 결과물 검사 도구 개발을 위한 측정 및 표준 개발 연구 지원 지시 * Identifying Outputs of Generative Adversarial Networks Act - 국방고등연구계획국은 딥페이크 탐지와 관련하여 MedFor*와 SemaFor**라는 두 개의 프로그램을 운영하여, 적의 정보 작전 등에 대한 방어 수단 향상 노력 *MedFor(Media Forensics):사진과 비디오의 무결성을 자동으로 평가하고 위조 콘텐츠가 생성된 방식에 대한 정보를 분석가들에게 제공하기 위한 알고리즘 개발을 목표로, 픽셀의 불일치(디지털 무결성), 물리 법칙과의 불일치(물리적 무결성) 및 다른 정보 소스와의 불일치(의미론적 무결성) 등 딥페이크에서 발견되는 시청각적 불일치 식별 기술 연구 ** SemaFor(Semantic Forensics):MedFor 기술을 기반으로 다양한 유형의 딥페이크 이미지를 자동으로 감지, 속성화 및 특성화(양성 또는 악성으로 식별)하는 알고리즘 개발 ㅇ 정책적으로는 딥페이크 탐지 도구의 한계에 따른 사용자 규제 및 규제로 인한 표현의 자유 제한 문제 등을 고려할 필요가 있음 - 알고리즘 기반 탐지 도구에서 식별된 결함을 해결하기 위해 GAN이 빠른 속도로 업데이트될 수 있으므로, 딥페이크 탐지 도구 배포 외에 소셜 미디어 사용자를 대상으로 콘텐츠 라벨링 및 인증 등의 수단을 확대할 필요가 있음 - 한편, 딥페이크 기술 규제가 소셜 미디어 플랫폼에 과도한 부담을 주거나 언론의 자유와 예술적 표현에 대한 위헌적 제한으로 이어질 수 있다는 우려 제기 - 기술적인 대응만으로는 불충분하며 대중에게 딥페이크 교육을 실시하고, 악의적 딥페이크 제작자의 동기를 최소화하는데 초점을 맞춰야 한다는 주장도 제기 ㅇ 딥페이크 기술은 미국의 국방, 소셜 미디어 플랫폼 규제 등에 영향을 미칠 수 있으므로 의회에서는 다음의 내용에 대한 고려가 필요

    출처 : https://now.k2base.re.kr/portal/trend/mainTrend/view.do?poliTrndId=TRND0000000000050755&menuNo=200004

  • ‘사회주의 챗GPT’ 만드는 중국, 업계의 기술개발 열기는 한창 사진 ‘사회주의 챗GPT’ 만드는 중국, 업계의 기술개발 열기는 한창 2023-04-11

    □ 中, 챗봇 등 생성형 인공지능(AI) 서비스 규제안 공표 ㅇ 중국 국가인터넷정보판공실(互聯網信息辦公室)은 ‘네트워크 보안법 및 기타 법률 및 규정에 따른 생성형 AI에 대한 관리 조치(生成式人工智能服務管理辦法)’ 초안을 공개(4.11.) - 지침은 중국 영토 내에서 대중에게 서비스를 제공하기 위해 AI 제품의 연구・개발・활용에 적용되며 챗GPT 등 텍스트 모델뿐만 아니라 이미지・소리・영상・코드 및 기타 콘텐츠 등 생성 AI 기술 전반에 적용 - 주요 내용으로는 △안전하고 신뢰할 수 있는 소프트웨어・도구・컴퓨팅・데이터 자원의 우선 사용 장려, △AI 제품과 서비스의 중국 법률 및 규정 요구사항의 준수 등 - 특히 생성형 AI 제품과 서비스는 사회주의 핵심 가치를 반영해야 하며, △국가 권력 전복, △사회주의 체제 전복, △국가 분열 선동, △민족단결 저해, △테러 조장, △극단주의, △인종 증오와 차별, △폭력, △음란 및 허위 정보, △경제 및 사회 질서 교란 위험이 있는 콘텐츠는 피해야 한다고 명시 - 인종・민족・성별 및 기타 특성에 따른 차별을 방지하는 방식으로 알고리즘을 설계하는 방법에 대한 지침도 제시 - AI 제품에서 생성하는 모든 콘텐츠는 업체가 책임을 지며, 업체는 서비스 개시 이전에 당국에 사이버 보안 평가를 위한 AI 알고리즘 정보를 제출하는 것이 필수 - 만일 생성형 AI가 법률 및 규정 요구사항에 위배되는 콘텐츠를 제공한다면, 콘텐츠 여과 등 조처를 하고 3개월 안에 콘텐츠 재생성 방지 조처를 하는 것이 필수 - 콘텐츠 시정 명령을 받고 3개월 안에 조처를 하지 않은 업체는 1만 위안~10만 위안의 벌금이 부과할 예정 - 서비스 제공자가 위의 내용을 위반할 경우 ‘네트워크 보안법’, ‘데이터 보안법’, ‘개인정보보호법’ 등 법령 및 행정처분에 따라 처벌 - 중국 정부는 금년 5월 10일까지 생성형 AI 관리 조치 초안에 대한 의견 수렴을 진행하여 연내 시행 예정 ㅇ 한편, 중국 관계 당국은 AI챗봇이 검열을 받지 않은 답변을 내놓을 수 있다는 우려 때문에 중국 내 챗GPT 서비스 차단(2.23) - 텐센트와 전자상거래 기업 알리바바그룹의 핀테크 자회사 앤트그룹에게 플랫폼에 챗GPT에 접속할 수 있는 서비스를 제공하지 말 것을 지시 - 중국 정부는 챗GPT가 미국 정부가 지정학적 이익을 위해 거짓 정보를 퍼뜨리고, 사실을 조작하는 데 도움을 줄 수 있다고 주장 □ 앞서, 생성 AI를 이용한 콘텐츠에 대해 제작과 유통을 금지하는 규정도 발표 ㅇ 중국 국가사이버정보판공실 ‘인터넷 정보 서비스의 심층합성 관리에 관한 규정’을 발표(2022.12) - 규정에서는 중국 당국이 중요하다고 인식하는 텍스트, 이미지, 음성 및 비디오 합성 콘텐츠에 대해 워터마크 등 출처 표기가 없는 콘텐츠에 대한 제작 및 유통을 금지한다고 명시 - 각 콘텐츠가 공개되기 전에 규정을 준수하는지 확인하고, 생성 AI 콘텐츠를 나타내는 정확한 표기(워터마크)가 포함되어 있는지 규정에 따라 정부 당국의 보안 평가를 받아야 하는 것이 필수 - 아울러, 어떠한 조직이나 개인이 기술적 수단을 통해 관련 표기를 삭제하거나 변조 또는 은폐를 금지하였으며, 생성 AI 제작자 역시 제작 내용에 대한 기록과 실명 계정 등록을 의무화 - 특히, AI를 통해 만들어진 정치적 목적의 콘텐츠를 차단하는 것이 주된 목적으로 분석 - 앞서 중국 정부는 2019년부터 출처 표기가 없는 딥페이크 콘텐츠를 불법으로 규정했으며, 2020년부터 실제 규제에 들어가는 등 단속을 시행 □ 정부 규제와 검열에도 불구, 민간 업계의 AI 챗봇 개발은 한창 ㅇ 알리바바, 바이두, 센스타임, 하오모 등 중국 주요기업은 챗GPT 대항마 성격의 생성형 AI 챗봇을 연달아 발표하며 시장 경쟁 가세

    출처 : https://now.k2base.re.kr/portal/trend/mainTrend/view.do?poliTrndId=TRND0000000000050665&menuNo=200004

맨위로