연합인증

연합인증 가입 기관의 연구자들은 소속기관의 인증정보(ID와 암호)를 이용해 다른 대학, 연구기관, 서비스 공급자의 다양한 온라인 자원과 연구 데이터를 이용할 수 있습니다.

이는 여행자가 자국에서 발행 받은 여권으로 세계 각국을 자유롭게 여행할 수 있는 것과 같습니다.

연합인증으로 이용이 가능한 서비스는 NTIS, DataON, Edison, Kafe, Webinar 등이 있습니다.

한번의 인증절차만으로 연합인증 가입 서비스에 추가 로그인 없이 이용이 가능합니다.

다만, 연합인증을 위해서는 최초 1회만 인증 절차가 필요합니다. (회원이 아닐 경우 회원 가입이 필요합니다.)

연합인증 절차는 다음과 같습니다.

최초이용시에는
ScienceON에 로그인 → 연합인증 서비스 접속 → 로그인 (본인 확인 또는 회원가입) → 서비스 이용

그 이후에는
ScienceON 로그인 → 연합인증 서비스 접속 → 서비스 이용

연합인증을 활용하시면 KISTI가 제공하는 다양한 서비스를 편리하게 이용하실 수 있습니다.

ScienceON TREND 최신 과학기술 트렌드와 토픽에 대한 ScienceON 연관 콘텐츠 및 내외부 지식인프라 콘텐츠를 한 번에 볼 수 있는 서비스입니다. 목록

딥페이크 대표이미지

키워드 정의키워드 정의* Wikipedia, Google에서 수집한 이슈 키워드 정의 정보입니다.

딥페이크(Deepfake)란, 인공지능 기술인 딥러닝(deep learning)과 ‘가짜’를 의미하는 단어인 페이크(fake)의 합성어로, 인공지능 기술을 이용하여 진위 여부를 구별하기 어려운 가짜 이미지나 영상물을 뜻한다. 딥페이크라는 단어가 등장한 시기는 2017년으로, 미국 온라인 커뮤니티 Reddit의 한 회원이 기존 영상에 유명인의 얼굴을 입혀 가짜 콘텐츠를 게재한 데서 유래되었다. 이후 온라인 커뮤니티와 SNS를 중심으로 급속히 확산된 딥페이크 콘텐츠는 최근 DeepFaceLab, Faceswap 등 오픈 소스 형태의 영상 합성 제작 프로그램이 배포되면서 더욱 성행하고 있다.

출처 : file:///C:/Users/ADMIN/Downloads/2019%20%EB%AF%B8%EB%94%94%EC%96%B4%20%EC%9D%B4%EC%8A%88&%ED%8A%B8%EB%A0%8C%ED%8A%B8(12%EC%9B%94%ED%98%B8)_[%ED%8A%B8%EB%9E%9C%EB%93%9C%EB%A6%AC%ED%8F%AC%ED%8A%B8]%EB%94%A5%ED%8E%98%EC%9D%B4%ED%81%AC%20%EA%B8%B0%EC%88%A0%EC%9D%98%20%EB%B9%9B%EA%B3%BC%20%EA%B7%B8%EB%A6%BC%EC%9E%90%20(1).pdf

워드 클라우드워드 클라우드* ScienceON 논문 데이터에서 추출한 관련 키워드 클라우드입니다.

관심도 변화관심도 변화

시간 흐름에 따른 관심도 변화

수치는 특정 지역 및 기간을 기준으로 차트에서 가장 높은 지점 대비 검색 관심도를 나타냅니다.
값은 검색 빈도가 가장 높은 검색어의 경우 100, 검색 빈도가 그 절반 정도인 검색어의 경우 50, 해당 검색어에 대한 데이터가 충분하지 않은 경우 0으로 나타납니다.

대한민국 / 지난 12개월

요약정보요약정보* 웹에서 수집한 요약 정보입니다.

딥페이크의 확산

최근 유튜브를 통해 배포되는 영상 중에서 딥페이크(DeepFake)를 활용한 영상들이 자주 보인다. 이들은 단순히 재미와 유머를 목적으로 하는 예도 있지만, 정치·사회 영역에서 가짜 뉴스를 퍼트려 혼란을 유발하거나, 특정 인물을 콘텐츠로 활용하여 음해하는 등 심각한 부작용을 초래한다. 이미 악의적으로 인스타그램의 여성 사진을 누드로 편집(Deep porn)하는 AI가 등장1)한 지 오래이며, 유명 인사(트럼프, 오바마, BTS 등)를 다른 사람으로 편집하는 인권침해 사례도 다수 발생하고 있다. 최근에는 러시아와 전쟁을 겪고 있는 우크라이나의 젤린스키 대통령이 등장하는 가짜 영상이 공개되어 화제가 된 바 있다.2) 이처럼 딥페이크, 페이크 페이스(Fakeface)와 같이 인공지능(AI)을 활용하여, 진짜 같은 가짜를 만드는 이미지 합성 기술은 악의적인 기만행위로 사회 및 국가적인 혼란을 야기하고 있다.

출처 : https://spri.kr/posts/view/23469?code=data_all&study_type=industry_trend

딥페이크를 만드는 알고리즘

그러면 딥페이크는 어떻게 만들어질까? 딥페이크에 활용되는 AI는 생성적 적대 신경망(GAN, Generative Adversarial Network)이라는 모델이다. 이는 두 개의 신경망이 서로 경쟁하면서 더 나은 결과를 만들어내는 강화학습 방식의 AI 기술이다. 글자 그대로, 그럴듯한 가짜 이미지를 생성(Generative)하고, 생성 및 감별 기능의 두 개 모델을 서로 적대적 (Adversarial)으로 경쟁·학습시킨 인공신경망(Network)을 뜻한다. GAN을 설명하는 쉬운 예시로, 위조지폐범과 경찰의 비유를 종종 활용한다. 위조지폐범은 더욱 정교하게 가짜 돈을 만들고자 노력(학습)하며, 경찰은 이런 정교한 가짜 돈을 더 정확하게 감별해 내고자 노력(학습)하는 형식이다. 원래 GAN은 실제와 가상의 이미지를 보다 정밀하게 구별하고 구현하기 위한 기술로 개발 되었다. GAN을 통하여 영상이나 이미지를 정교하게 편집하거나, 보다 실감 나는 콘텐츠를 제작하고, 손상된 영상을 복원하는 등 다양한 영역에 활용되었다. 그러나 이 기술로 분별할 수 없는 수준의 콘텐츠를 제작하여 정치·사회적으로 테러 및 가짜 뉴스 등에 악용하는 사례가 점차 증가하고 있는 것이 현실이다. 최근에는 GAN을 활용하여 AI가 사람의 피부뿐 아니라 머리카락까지 실제와 비슷한 이미지를 생성하는 수준에 이르러, 기술적 한계(Uncanny Valley)를 이미 뛰어넘은 것으로 판단되고 있다. 미국 UC버클리대와 영국 랭커스터대 공동연구팀은 실제 얼굴과 AI가 합성한 얼굴을 구별하는 실험을 통하여, 사람들이 AI가 합성한 가짜를 구별하지 못하며 오히려 가짜를 더 신뢰한다는 결과를 도출하였다.3) 이 실험에서는 223명의 실험 참가자를 대상으로, 실제 사람 얼굴 사진과 AI가 합성한 얼굴 사진이 섞인 800장의 세트에서 무작위로 128장을 뽑아 신뢰도에 따라 1~7점 척도의 점수를 부여하게 했다. 그 결과, 합성 얼굴에 대한 평균 신뢰도(4.82)가 실제 얼굴 평균 신뢰도(4.48)보다 높게 나타났다. 또한 신뢰도 상위 4개의 얼굴 중 3개는 합성 얼굴이며, 신뢰도 하위 4개 얼굴은 모두 실제 얼굴이었다

출처 : https://spri.kr/posts/view/23469?code=data_all&study_type=industry_trend

웹 뉴스웹 뉴스* 구글 뉴스에서 검색한 관련 뉴스입니다.

오피니언오피니언* 구글 뉴스에서 자동으로 추출한 전문가들의 오피니언으로 적합하지 않은 정보가 있을 수 있습니다.

1. 네이버 측
(GMT)2024-03-06 02:11:44

딥페이크와 같은 생성형 AI 기술 활용에 주의가 필요한 부분들을 보다 적극적으로 알리고 이에 대한 모니터링도 지속 강화해 나가겠다

출처 : 네카오, 총선 앞두고 딥페이크 악용 방지 총력 - 프라임경제
2. 네이버
(GMT)2024-03-06 02:11:44

뉴스 댓글 집중 모니터링 기간 동안 전담 담당자를 확충하는 등 24시간 모니터링을 강화하고, 각 부서 핫라인을 구축해 이슈 발생시 빠르게 대응해 나갈 예정

출처 : 네카오, 총선 앞두고 딥페이크 악용 방지 총력 - 프라임경제
3. 카카오 관계자
(GMT)2024-03-06 02:11:44

비가시성 워터마크는 유저들에는 워터마크가 보이지 않으나 기술적으로는 칼로 생성 여부를 할 수 있는 기술로 구글에서도 해당 기술을 연구 운영 중

최대한 빨리 적용하기 위해 노력하고 있다

출처 : 네카오, 총선 앞두고 딥페이크 악용 방지 총력 - 프라임경제
4. 페이블 칼라딘 섬섭 인공지능(AI) 기계학습 책임자
(GMT)2023-12-07 08:00:00

사기꾼은 단순히 마스크를 쓰는 것부터 복잡한 딥페이크를 만드는 등 다양한 방법으로 시스템을 속이려 할 수 있다

딥페이크는 기계학습을 이용해 가짜 페르소나를 생성하거나 조작된 사진과 비디오를 이용해 기존 인물로 가장할 수 있다

출처 : “알고 봐도 모르겠다” 딥페이크 사기…45배 폭증한 나라도 있다는데 - 매일경제
5. 보고서
(GMT)2023-12-07 08:00:00

선진국의 문서는 신뢰할 만한 것으로 여겨지기 때문에 사기꾼들의 새로운 표적이 되고 있다

겉보기에 신뢰할만한 문서라도 문서 검증에 나서야 한다

출처 : “알고 봐도 모르겠다” 딥페이크 사기…45배 폭증한 나라도 있다는데 - 매일경제
6. 보고서
(GMT)2023-12-07 08:00:00

규제 프레임워크가 중요한 역할을 하는 시대에 규제받지 않는 기업은 사기꾼의 전술에 점점 더 취약해지고 있다

출처 : “알고 봐도 모르겠다” 딥페이크 사기…45배 폭증한 나라도 있다는데 - 매일경제
8. 정수환 숭실대 정보통신전자공학부 교수팀
(GMT)2024-01-02 08:00:00

최근 딥러닝 음성 합성 기술이 발전하면서 특정 대상을 겨냥한 음성 조작이 가능해졌고 실제 구분이 쉽지 않은 단계로 가고 있어 보이스피싱 조직이 이를 활용하면 거의 완벽하게 대상을 속일 수 있다

출처 : 세계적 골칫거리 부상 'AI 딥페이크 악용'…국회도 대응책 마련에 '골몰' - 굿모닝경제
9. 국회입법조사처
(GMT)2024-01-02 08:00:00

딥페이크 기술이 급격히 발전하면서 딥페이크를 통한 허위조작 영상의 위험성도 그만큼 커지고 있다

딥페이크는 진위 여부를 가려내기 어렵기에 피해를 막기 위한 가장 최선의 대응은 또 다른 AI 기반 딥페이크 식별기술의 발전

출처 : 세계적 골칫거리 부상 'AI 딥페이크 악용'…국회도 대응책 마련에 '골몰' - 굿모닝경제
10. 정보통신기획평가원 기술동향 보고서
(GMT)2024-01-02 08:00:00

AI를 활용한 보이스피싱 위험이 많이 증가했지만, 변조 음성 탐지 기술은 거의 없는 상황

해외 연구는 주로 영어 발화에 대한 연구이기 때문에 한국어 딥페이크 음성 탐지 연구가 필요하다

출처 : 세계적 골칫거리 부상 'AI 딥페이크 악용'…국회도 대응책 마련에 '골몰' - 굿모닝경제
11. 하정우 네이버클라우드 AI이노베이션 센터장
(GMT)2024-02-07 08:00:00

AI 생성물에 워터마크 등 표식이 필요하다는 점에 업계가 공감하고 있다

표식이 지워지거나 파괴되는 가능성도 고려해 기술을 준비 중

출처 : 진짜·가짜 경계 허무는 딥페이크...'1분 짜리 음성 데이터로도 완성' - 아시아경제
12. 이유현 딥브레인AI 딥러닝팀 연구원
(GMT)2024-02-07 08:00:00

딥페이크 수요가 더 많기 때문에 자본이나 기술이 더 몰리고 있다

덧셈과 뺄셈을 배운 AI에게 곱셈 문제를 주면 이해하지 못하는 것처럼 새로운 딥페이크 기술을 탐지하긴 어렵다

출처 : 진짜·가짜 경계 허무는 딥페이크...'1분 짜리 음성 데이터로도 완성' - 아시아경제
13. 오순영 KB금융지주 AI센터장
(GMT)2024-01-03 08:00:00

필요한 영역에 대한 명확한 규제는 AI 부작용, 소송을 비롯한 사회적 비용을 최소화할 수 있어 AI R&D 및 비즈니스를 활성화시킬 수 있다

출처 : [2024 신년기획]AI 규제 '네거티브로 적절하게'…현 수준과하지 않지만 속도낼 필요 없어 - 전자신문
14. 배순민 KT 기술혁신부문 AI2X Lab장
(GMT)2024-01-03 08:00:00

하라는 대로 하지 않으면 불법이 되는 '포지티브 규제가' 정책 중심이라는 인식이 강한 상황

허용 가능한 권리 범위에 대한 정책 방향성이 조금 더 명확하게 명시될 필요가 있다

출처 : [2024 신년기획]AI 규제 '네거티브로 적절하게'…현 수준과하지 않지만 속도낼 필요 없어 - 전자신문
15. 하정우 네이버클라우드 AI 이노베이션 센터장
(GMT)2024-01-03 08:00:00

초거대 AI 강대국은 모두 경쟁력 있는 자체 플랫폼 보유국이라는 점을 인식해야 한다

플랫폼 사전 규제는 결국 생성 AI 경쟁력 약화, 대한민국 국가 경쟁력 약화로 이어질 수 있다

출처 : [2024 신년기획]AI 규제 '네거티브로 적절하게'…현 수준과하지 않지만 속도낼 필요 없어 - 전자신문
16. 유회준 KAIST 교수
(GMT)2024-01-03 08:00:00

AI 발전이 초보 단계고, 새로운 기술들이 활발하게 개발되고 있어 섣부른 규제는 이를 저해할 수 있다

출처 : [2024 신년기획]AI 규제 '네거티브로 적절하게'…현 수준과하지 않지만 속도낼 필요 없어 - 전자신문
17. 네이처
(GMT)2024-01-26 08:00:00

모든 딥페이크에 적용 가능한 소프트웨어 기술 개발은 어렵기 때문에 딥페이크 탐지 기술은 올 한 해 내내 화두가 될 것

출처 : “딥페이크 판별-유전자 가위 등… 올해 흥미로운 혁신 일어날 것” - ZUM 뉴스
18. 네이처
(GMT)2024-01-26 08:00:00

매사추세츠공대 연구진이 개발한, 보다 규모가 큰 단위로 DNA를 교정할 수 있는 ‘프라임 편집’ 기술도 올해 주목된다

프라임 편집은 병원체 내성을 가진 농작물 개발에도 활용할 수 있다

출처 : “딥페이크 판별-유전자 가위 등… 올해 흥미로운 혁신 일어날 것” - ZUM 뉴스

논문논문* ScienceON에서 제공하는 관련 논문입니다.
더보기

특허특허* ScienceON에서 제공하는 관련 특허입니다.
더보기

[한국특허] 고성능 딥페이크 비디오 검출 방법 (HIGH-PERFORMANCE DEEPFAKE VIDEO DETECTION METHOD)

한국(KO) | 공개 | 출원인 : 부경대학교 산학협력단; | 출원번호 : 10-2021-0168809 ( 2021-11-30 ) | 공개번호 : 10-2023-0081091 (2023-06-07) | IPC : G06V-040/16; G06N-020/00; G06N-003/08; G06V-010/70 | 법적상태 : 거절

[한국특허] 인공지능 기반의 의료 영상 합성 장치 및 방법 (APPARATUS AND METHOD FOR SYNTHESIZING MEDICAL IMAGE BASED ON ARTIFICIAL INTELLIGENCE)

한국(KO) | 등록 | 출원인 : 고려대학교 산학협력단; | 출원번호 : 10-2020-0128003 ( 2020-10-05 ) | 공개번호 : 10-2022-0045366 (2022-04-12) | 등록번호 : 10-2456467-0000 (2022-10-14) | IPC : A61B-005/055; A61B-005/00; G06T-007/00; G16H-030/40; G16H-050/20 | 법적상태 : 등록

[한국특허] 동영상 딥페이크 탐지를 위한 페이크 비디오 검증 방법 및 이를 수행하는 전자 장치 (METHOD AND APPARATUS FOR VERIFICATION OF FAKE VIDEO THROUGH ARTIFICIAL INTELLIGENCE MODEL)

한국(KO) | 공개 | 출원인 : 울산과학기술원; | 출원번호 : 10-2022-0009364 ( 2022-01-21 ) | 공개번호 : 10-2023-0113012 (2023-07-28) | IPC : G06N-003/04; G06N-003/08; G06T-007/00; G06V-010/82; G06V-040/40 | 법적상태 : 공개

보고서보고서* ScienceON에서 제공하는 관련 보고서입니다.
더보기

COMPAS 핵심 경쟁자 탐색핵심 경쟁자 탐색* KISTI COMPAS에서 제공하는 핵심 경쟁자 분석 정보입니다.

특허 분석 정보에서 검색식 (ipc:(G06N*)) AND pd:[2019-03-11 TO 2024-03-11] 으로 분석한 결과입니다.    COMPAS 분석결과 보기

COMPAS 특허 분석특허 분석* KISTI COMPAS에서 제공하는 특허 분석 정보입니다.

특허 분석 정보(COMPAS) 사진

DataONDataON* KISTI DataON에서 제공하는 연구 데이터셋, API 입니다.
DataON

  • 데이터셋데이터셋
  • 2022
  • 해외
FAD: A Chinese Dataset for Fake Audio Detection
  • 데이터 제공처 : OpenAIRE
  • 생성자 : Haoxin Ma; Jiangyan Yi
  • 라이센스 : CC-BY-4.0
  • doi : 10.5281/zenodo.6641573
  • Fake audio detection is a growing concern and some relevant datasets have been designed for research. But there is no standard public Chinese dataset under additive noise conditions. In this paper, we aim to fill in the gap and design a Chinese fake audio detection dataset (FAD) for studying more generalized detection methods. Twelve mainstream speech generation techniques are used to generate fake audios. To simulate the real-life scenarios, three noise datasets are selected for noisy adding
자세히 보기
  • 데이터셋데이터셋
  • 2023
  • 해외
DEepfake CROss-lingual evaluation dataset (DECRO)
  • 데이터 제공처 : OpenAIRE
  • 생성자 : Weichen Lian; Yuexin Wu; Zhehan Gu; Lingxiao Yu
  • 라이센스 : CC-BY-4.0
  • doi : 10.5281/zenodo.7603208
  • Deepfake cross-lingual evaluation dataset (DECRO) is constructed to evaluate the influence of language differences on deepfake detection.;{ eferences: [DataTang. 2020. aidatatang_200zh, a free Chinese Mandarin speech corpus by Beijing DataTang Technology Co., Ltd ( www.datatang.com ). Online; accessed 08-Oct-2022., Hui Bu, Jiayu Du, Xingyu Na, Bengu Wu, and Hao Zheng. 2017. Aishell-1: An open-source mandarin speech corpus and a speech recognition baseline. In 2017 20th conference of the oriental
자세히 보기
  • 데이터셋데이터셋
  • 2022
  • 해외
Heavyweight Faceswap Video Dataset
  • 데이터 제공처 : OpenAIRE
  • 생성자 : Saahil Sood
  • 라이센스 : CC-BY-4.0
  • doi : 10.5281/zenodo.6430355
  • This dataset consists of the 300 original videos modified using deepfake manipulation methods. The 300 videos are split into zip files of 30 videos each for your convenience. Deepfake manipulation is a learning-based faceswap approach that uses poisson imaging to merge a manipulated face with another image. 
자세히 보기

외부자료외부자료* 외부 보고서, 동향, 분석자료입니다.

맨위로