생성형 인공지능은 현재 빠른 속도로 발전하고 있고, 산업적으로도 확대되고 있다. 생성형 인공지능의발전은 대부분의 산업 분야에서 생산성을 향상시킬 수 있을 것이라 기대되고 있다. 그러나 생성형 인공지능은 악용될 수 있으며, 실제로 범죄까지 이어지는 사례들이 등장하고 있다. 빠르게 발전하는 인공지능의 속도에 비해 이를 규제할 수 있는 법안이 존재하지 않는다. 국내의 경우, 법률제정을 위한 생성형 인공지능 기술과 관련된 범죄 및 위험에 대한 분류가 명확하게 이루어지지 않은 상황이다. 이에 본 연구에서는 생성형 인공지능 관련 범죄를 기존 사이버범죄 분류법에 착안하여 생성형 인공지능 침해범죄 위협, 생성형 인공지능 이용범죄 위협, 기타 인공지능 관련 위협으로 구분하고자 하였다. 또한, 범죄 및 위험에 대한 기술적 대응 방안을 인공지능 개발 단계별로 제시하여 현실성 있는 위협 대응 방안을 다루었다. 법·제도적 개선사항을 통해 생성형 인공지능 범죄에 대한 개발사의 책임과 데이터 수집 방법론의 법제화 등을 제시하였다.
생성형 인공지능은 현재 빠른 속도로 발전하고 있고, 산업적으로도 확대되고 있다. 생성형 인공지능의발전은 대부분의 산업 분야에서 생산성을 향상시킬 수 있을 것이라 기대되고 있다. 그러나 생성형 인공지능은 악용될 수 있으며, 실제로 범죄까지 이어지는 사례들이 등장하고 있다. 빠르게 발전하는 인공지능의 속도에 비해 이를 규제할 수 있는 법안이 존재하지 않는다. 국내의 경우, 법률제정을 위한 생성형 인공지능 기술과 관련된 범죄 및 위험에 대한 분류가 명확하게 이루어지지 않은 상황이다. 이에 본 연구에서는 생성형 인공지능 관련 범죄를 기존 사이버범죄 분류법에 착안하여 생성형 인공지능 침해범죄 위협, 생성형 인공지능 이용범죄 위협, 기타 인공지능 관련 위협으로 구분하고자 하였다. 또한, 범죄 및 위험에 대한 기술적 대응 방안을 인공지능 개발 단계별로 제시하여 현실성 있는 위협 대응 방안을 다루었다. 법·제도적 개선사항을 통해 생성형 인공지능 범죄에 대한 개발사의 책임과 데이터 수집 방법론의 법제화 등을 제시하였다.
Generative artificial intelligence is currently developing rapidly and expanding industrially. The development of generative AI is expected to improve productivity in most industries. However, there is a probability for exploitation of generative AI, and cases that actually lead to crime are emergin...
Generative artificial intelligence is currently developing rapidly and expanding industrially. The development of generative AI is expected to improve productivity in most industries. However, there is a probability for exploitation of generative AI, and cases that actually lead to crime are emerging. Compared to the fast-growing AI, there is no legislation to regulate the generative AI. In the case of Korea, the crimes and risks related to generative AI has not been clearly classified for legislation. In addition, research on the responsibility for illegal data learned by generative AI or the illegality of the generated data is insufficient in existing research. Therefore, this study attempted to classify crimes related to generative AI for domestic legislation into generative AI for target crimes, generative AI for tool crimes, and other crimes based on ECRM. Furthermore, it suggests technical countermeasures against crime and risk and measures to improve the legal system. This study is significant in that it provides realistic methods by presenting technical countermeasures based on the development stage of AI.
Generative artificial intelligence is currently developing rapidly and expanding industrially. The development of generative AI is expected to improve productivity in most industries. However, there is a probability for exploitation of generative AI, and cases that actually lead to crime are emerging. Compared to the fast-growing AI, there is no legislation to regulate the generative AI. In the case of Korea, the crimes and risks related to generative AI has not been clearly classified for legislation. In addition, research on the responsibility for illegal data learned by generative AI or the illegality of the generated data is insufficient in existing research. Therefore, this study attempted to classify crimes related to generative AI for domestic legislation into generative AI for target crimes, generative AI for tool crimes, and other crimes based on ECRM. Furthermore, it suggests technical countermeasures against crime and risk and measures to improve the legal system. This study is significant in that it provides realistic methods by presenting technical countermeasures based on the development stage of AI.
본 연구에서는 생성형 인공지능에 의해 발생할 수 있는 범죄 위협 유형을 분류하고, 각 행위의 처벌 가능성을 확인하였다. 더 나아가 범죄 위협에 대한 기술적 대응 방안과 법적 개선방안을 제시하여 안전한 인터넷 사회를 구축하고자 하였다.
그러나, 생성형 인공지능의 학습 데이터 및 생성 데이터가 위법적이거나 비윤리적인내용을 포함할 경우, 개발사의 책임 여부가 명확하지 않은 상황이다. 본 연구에서는 기존 연구에서 분석하지 않은 개발자의 고의 또는 과실로 인해 사회에 해를 끼칠 수 있는 행위를 연구하고자 한다. 또한, 인공지능 관련 범죄의 대응 방안을 인공지능 개발 단계를 기반으로 제시하여 기존 연구보다 더 현실적으로 범죄대응 방안을 제시하고자 한다.
생성형 인공지능을 활용한 범죄가 등장함에따라 법적인 영역에서는 새로운 법을 만들기 전 기존의 법의 범위와 한계를 파악하는 것을 필요로 한다. 본 연구에서는 생성형 인공지능의 위협에 대해 분류 후 현행법상의 처벌 가능성을 파악하여 현행법의 한계를 파악하였다.
인공지능의 법⸱제도적 규제가 필요하지만, 현재 국내에서는 생성형 인공지능에 대한 범죄의 분류 연구가 부족하다. 이에 본 연구에서는 생성형 인공지능과 관련된 범죄를 생성형 인공지능 이용범죄 위협, 생성형 인공지능 침해범죄 위협, 기타 인공지능 관련 위협으로 분류하고자 하였다. 또한, 범죄 원인을 파악 후 인공지능 개발 단계에 기반하여 기술적 대응 방안을 제시하였다.
또한, 기타 인공지능 관련 위협에 포함되는 행위 중 일부는 구체적인 방안 제시가 어려울 수 있다. 이에 본 장에서는 범죄 위협 유형별 원인이 아닌, 인공지능 개발 단계를 기반으로 제시하여, 중복되는 대응 방안을 최소화하며 실제 개발사에서 인공지능 개발 시 쉽게 적용할 수 있도록 하고자 하였다. 본 장에서 인공지능 개발 단계를 기반으로 대응 방안을 정리한 그림은 Fig.
제안 방법
2016년 출시 후 Tay의 ‘Repeat after me’ 기능을 사용하여 사용자에게 입력값을 받아 학습할 수 있도록 하였는데, 일부 사용자들이 해당 기능을 사용하여 불쾌감을 줄 수 있는 단어와 문구를 학습시켰다
그러나 본 연구팀은 Oh(2023) 외 3인의 연구[20]에서 확인할 수 있는 직간접적 질의에서의 범죄 활용 가능성뿐만 아니라 유료, 무료 계정의 차이에 따라 인공지능을 범죄에 활용 가능함을 실험을 통해 확인하였다. ChatGPT는 무료계정과 유료계정을 제공함에 따라 계정별로 실험을 진행하였다. 먼저, 무료 계정의 경우 OpenAI 사용 정책상직접적인 질문으로는 사기와 기만행위에 대한 답변을 얻을 수 없으므로 간접적으로 피싱에 사용할 수 있는 텍스트 작성을 요청하였다.
본 장에서는 인공지능과 관련된 공격을 비롯한 행위들과 관련하여 기존의 연구에서 포함하고 있지 않은 생성형 인공지능과 관련된 범죄 위협을 3가지 항목으로 분류하였다. 국내 사이버범죄 분류[18]를 참고하여 생성형 인공지능을 이용해서 범죄를 저지를 수 있는 생성형 인공지능 이용범죄 위협, 생성형 인공지능 서비스를 범죄의 대상으로 하는 생성형 인공지능 침해범죄 위협, 개발사의 고의 또는 과실로 인하여 사회에 해를 끼칠 수 있는 기타 인공지능 관련 위협으로 분류하였다. 현재 인공지능이 활발하게 발전하고 있지만, 법의 제정 속도가 인공지능의 발전속도를 따라오지 못하는 경우가 존재한다.
그러므로 7단계 중 3단계를 제외한 데이터 수집⋅전처리, 구현, 테스트, 유지보수의 4단계를 대상으로 대응 방안을 제시하고자 한다
이에 본 연구에서는 생성형 인공지능과 관련된 범죄를 생성형 인공지능 이용범죄 위협, 생성형 인공지능 침해범죄 위협, 기타 인공지능 관련 위협으로 분류하고자 하였다. 또한, 범죄 원인을 파악 후 인공지능 개발 단계에 기반하여 기술적 대응 방안을 제시하였다. 단계별 대응 방안은 개인정보와 인공지능의 데이터 편향성 등 다양한 분야의 논문에서 제시하는 대응 방안을 인공지능 개발 단계 기반으로 분류 및 정리하여 실제 개발 시 순차적으로 방안을 적용하는 것을 통해 쉽게 위협에 대응할 수 있다는 의의가 있다.
또한, 법·제도적 개선방안에 대해 3가지를 제안하였다.
하지만, 현재까지 생성형 인공지능에 의해 발생할 수 있는 범죄에 대한 분류가 명확하게 이루어지지 않았다. 본 연구에서는 생성형 인공지능에 의해 발생할 수 있는 범죄 위협 유형을 분류하고, 각 행위의 처벌 가능성을 확인하였다. 더 나아가 범죄 위협에 대한 기술적 대응 방안과 법적 개선방안을 제시하여 안전한 인터넷 사회를 구축하고자 하였다.
본 장에서는 인공지능과 관련된 공격을 비롯한 행위들과 관련하여 기존의 연구에서 포함하고 있지 않은 생성형 인공지능과 관련된 범죄 위협을 3가지 항목으로 분류하였다. 국내 사이버범죄 분류[18]를 참고하여 생성형 인공지능을 이용해서 범죄를 저지를 수 있는 생성형 인공지능 이용범죄 위협, 생성형 인공지능 서비스를 범죄의 대상으로 하는 생성형 인공지능 침해범죄 위협, 개발사의 고의 또는 과실로 인하여 사회에 해를 끼칠 수 있는 기타 인공지능 관련 위협으로 분류하였다.
인공지능 관련 범죄 위협이 발생했을 때, 국가기관과 수사기관에서의 대응도 중요하지만, 이런 행위가 나타나지 않도록 미리 대응하는 것이 요구된다. 이에 따라 본 장에서는 생성형 인공지능과 관련된 범죄 위협의 원인과 대응 방안을 인공지능 개발 단계에 기반하여 제시하였다.
Lin 외 2인(2022)의 연구는 네트워크 침입 탐지 시스템에 대한 공격을 GAN으로 생성할 수 있음을 증명하였다. 해당 연구에서 제안된 프레임워크 IDSGAN은 침입 탐지 시스템에 대한 회피공격을 하는 적대적인 악성 트래픽 레코드를 생성하였다. 침입 탐지 시스템에 일반적으로 적용되는 7개의 알고리즘에 대한 DoS 공격 실험 결과, 어떤 적대적 사례도 분류할 수 없었고, 탐지율이 약 80%에서 1% 미만으로 현저하게 감소하여 공격이 성공적으로 발생할 수 있음을 보여주었다[22].
대상 데이터
본 논문은 총 5장으로 구성되어 있다. 2장에서는 인공지능의 개념과 분류, 인공지능 관련 위협에 대한 기존 연구를 살피며, 3장에서는 생성형 인공지능 관련 범죄 위협 분류에 대해 설명하였다.
성능/효과
스팸 메일은 광고성 메시지가 담긴 메일을 불특정 다수에게 보내는 것으로, Fig. 3.과 같이 생성형 인공지능을 통해서 불특정 다수의 이메일 계정과 광고성 메일 내용을 계속해서 생성할 수 있다. 이를 기반으로 가능한 많은 이들에게 메일이 도달할 수 있도록 자동화하는 것이 가능하다.
Fig. 4.는 ChatGPT를 통해 허위 주민등록번호를 생성하는 코드 작성 요청한 결과이다. 직접적으로 주민등록번호를 생성하는 코드 작성 요청에 대해서는 불가능하지만, 우회적으로 코드 작성 요청 시 답변으로 코드를 출력한다.
악의적으로 개발된 대화형 인공지능 서비스만이 악성 프로그램을 작성하는 것은 아니다. ChatGPT 같은 상용 대화형 인공지능 서비스를 통해서도 악성프로그램을 작성할 수 있음을 본 연구팀은 실험을 통해 확인할 수 있었다. OpenAI의 사용 정책에 따라 ChatGPT를 통한 불법 행위에 서비스를 사용할 수 없지만, 우회적으로 악성 프로그램 작성을 요청한다면, Fig.
인공지능 활용 시, 이미지나 코드, 텍스트 등의 다양한 콘텐츠를 생성할 수 있으며, 이를 악용할 경우 사이버 스토킹이 심화될 수 있다. SNS상에서 스토킹 대상의 정보를 수집하는 프로그램을 생성할 수도 있으며, 수집한 데이터를 토대로 공포심이나 불안감을 유발하는 이미지와 텍스트를 생성하여 피해자에게 반복적으로 전달할 수 있다. 상용화된 인공지능을 사용하지 않아도, LLaMA와 KoboldCPP 등의 공개된 인공지능 모델을 사용하여 직접 원하는 콘텐츠를 생성할 수 있다.
가장 대표적인 생성형 인공지능 서비스인 ‘ChatGPT’는 2022년 11월 출시하여, 두 달 만에 월 이용자 수 1억 명을 기록하였고, 2023년 2월에 메타에서 출시된 ‘LLaMA’는 기존의 인공지능 모델과 다르게 모델의 가중치까지 완전히 공개되어 생성형 인공지능의 개발 진입장벽을 낮추었다[1, 2]
최근 SNS에서 게시글은 인공지능에 의해 생성될 수 있으며, 개인은 이러한 계정을 제한없이 생성할 수 있다. 결과적으로 다수의 계정에서 성적인 텍스트와 이미지 등의 콘텐츠 업로드 시 불특정 다수를 대상으로 성적인 수치심을 주는 것이 가능해진다. 또한, 사람들에게 노출되는 속도가 매우 빠르며, 파급력이 크기때문에 다수에게 효과적으로 영향을 미칠 수 있다.
미국은 인공지능 신뢰성 확보의 요소로서 대중의 신뢰, 과학적 무결성과 정보 품질, 공정성과 차별 금지 등 10가지 원칙을 제시하였다[43]. 결과적으로, 신뢰할 수 있는 인공지능은 인공지능 신뢰성을 기반으로 인공지능의 내재적 위험과 부작용을 방지할 수 있는 인공지능 모델을 의미한다.
그러나 본 연구팀은 Oh(2023) 외 3인의 연구[20]에서 확인할 수 있는 직간접적 질의에서의 범죄 활용 가능성뿐만 아니라 유료, 무료 계정의 차이에 따라 인공지능을 범죄에 활용 가능함을 실험을 통해 확인하였다. ChatGPT는 무료계정과 유료계정을 제공함에 따라 계정별로 실험을 진행하였다.
또한, 범죄 원인을 파악 후 인공지능 개발 단계에 기반하여 기술적 대응 방안을 제시하였다. 단계별 대응 방안은 개인정보와 인공지능의 데이터 편향성 등 다양한 분야의 논문에서 제시하는 대응 방안을 인공지능 개발 단계 기반으로 분류 및 정리하여 실제 개발 시 순차적으로 방안을 적용하는 것을 통해 쉽게 위협에 대응할 수 있다는 의의가 있다. 법⋅제도적 개선방안으로 개발자의 책임에 대한 논의와 수사관 및 일반인의 교육 프로그램 개발, 데이터 수집 방법론의 법제화를 제시하였다.
두 번째로, 인공지능 개발 후 콘텐츠 생성 시 생성된 결과물의 일부가 학습 데이터를 표절할 수 있으며 이는 저작권법에서 보장하는 저작자의 2차적저작물작성권을 침해할 수 있다. 인터넷 상에서 대량의 저작물을 수집함에 따라 인공지능에서 모든 데이터의 출처를 표시할 수 없으며, 전 세계의 저작권 관련 법이 동일하지 않기에 수집한 데이터와 유사한 결과물을 생성하였을 때, 저작권법에서 보장하는 저작자의 2차적저작물작성권을 침해할 수 있다.
전자에는 오염공격과 백도어 공격이 해당하며, 후자에는 적대적 공격, 도치 공격 등이 있다. 두 번째항목인 인공지능 안전성 이슈는 복잡하고 불확실한 환경, 비상행동, 목표 불일치, 인간-기계 상호작용으로 구분된다. 마지막 항목인 프라이버시 침해는 인공지능에 의한개인 식별 문제와 음성 및 얼굴인식, 민감정보 예측 등의 문제로 분류된다[15].
VAE RECAP은 입력 데이터의 잠재변수에 대한 분포를 계산한 후, 어떤 변수가 편향을 유발하는지 파악하고, 잠재변수의 분포를 균등화하여 데이터 편향을 방지하는 방식이다. 따라서, VAE 아키텍처를 사용하는 생성형 인공지능은 VAE RECAP을 통해 잠재변수의 편향성도 방지할 수 있다.
해당 사진으로 인하여 주가가 일시적으로 하락하기도 하였는데, 이는 인공지능으로 생성된 가짜 이미지로 확인되었다[23]. 또한, 2023년 11월 할리우드 유명배우 톰 크루즈가 국제 올림픽위원회(IOC)의 부패를 주장하는 영상이 텔레그램 채널에 업로드되었다. 이는 인공지능을 통해서 생성된 톰 크루즈의 목소리를 입힌 영상으로 밝혀졌다[24].
결과적으로 다수의 계정에서 성적인 텍스트와 이미지 등의 콘텐츠 업로드 시 불특정 다수를 대상으로 성적인 수치심을 주는 것이 가능해진다. 또한, 사람들에게 노출되는 속도가 매우 빠르며, 파급력이 크기때문에 다수에게 효과적으로 영향을 미칠 수 있다.
금융보안원(2023)에 따르면 적대적 예시 또는 노이즈가 데이터에 추가되어 공격이 발생할 때 성능 저하를 입증할 수 있다[48]. 또한, 사용자의 입력값을 재학습하는 과정에서 적대적 예시가 생성형 인공지능의 입력값으로 사용된 경우, 모델의 업데이트 벡터 각도의 큰 변화 여부를 확인하여 인공지능 모델의 변경 여부를 확인할 수 있다. 다음과 같이 공격자의 데이터를 학습 시 성능이 저하되는 것을 감지하여, 학습하지 않거나 머신 언러닝 방법으로 학습한 데이터를 제거하는 방식 등의 다양한 방식을 활용할 수 있다.
이를 악용하여 특정 인물 또는 기관을 가장하는 메일을 보내는 방식으로 사회공학적 기법을 활용한 피싱 메일 전달이 가능하다. 또한, 생성형인공지능을 채팅방에 연결 시, 피해자와의 실시간 상호작용이 가능하므로 피해자는 본인이 인공지능과 대화한다는 것을 인지하지 못할 수 있다. 대표적인 대화형 인공지능 서비스 중 하나인 ChatGPT는 해당 서비스를 이용한 사기 및 기만행위를 사용 정책상 제한하고 있다[19].
ChatGPT는 무료계정과 유료계정을 제공함에 따라 계정별로 실험을 진행하였다. 먼저, 무료 계정의 경우 OpenAI 사용 정책상직접적인 질문으로는 사기와 기만행위에 대한 답변을 얻을 수 없으므로 간접적으로 피싱에 사용할 수 있는 텍스트 작성을 요청하였다. 질의 시 단순 이메일 피싱뿐만 아니라 보이스피싱의 대본을 작성할 수 있음을 Fig.
법⋅제도적 개선방안으로 개발자의 책임에 대한 논의와 수사관 및 일반인의 교육 프로그램 개발, 데이터 수집 방법론의 법제화를 제시하였다
와 같이 관련된 악성 코드를 출력하도록 할 수 있다. 실험에서는 파일을 암호화하는 랜섬웨어의 일부 기능을 코딩할 수 있었다.
가짜 뉴스는 허위 정보를 생성하여 이를 유포시키는 행위이다. 온라인상에서 특정 집단을 대상으로 한 홍보 기술인 온라인 타겟팅과 결합하여 생성된 텍스트가 가짜 뉴스 및 허위 정보의 양, 품질 및 영향력을 증가시킬 수 있다. 단순한 허위 정보 생산은 문제가 되지 않을 수 있지만, 소셜 네트워크 서비스와 이미지 생성 인공지능의 발전으로 인하여 빠른 속도로 설득력 있는 허위 정보가 생성되고 유포될 수 있다.
회피공격은 적대적 예시를 생성하여 모델의 성능을 떨어뜨리는 공격으로 모델맞춤형 적대적 예시뿐만 아니라 다른 모델을 타겟으로 만들어진 적대적 예시를 통한 공격도 가능하다. 이는 전송 가능성에 기반한 공격으로 전송 가능성은 동일한 인공지능 아키텍처가 아니더라도 다른 인공지능 아키텍처에서 유효한 적대적 예시가 또 다른 인공지능 아키텍처에서도 유효하게 동작할 수 있는 성질을 의미한다.
이를 기반으로 인공지능 개발 단계를 정리한 결과, 계획, 설계, 데이터수집⋅전처리, 구현, 테스트, 배포, 유지보수의 단계로 세분화할 수 있다
OpenAI의 ChatGPT와 같은 대화형 인공지능 서비스는 사용자 질의에 맞는 답변을 생성하는데, 특정 사람 또는 기관의 말투를 학습하여 유사한 문구나 글을 작성할 수 있다. 이를 악용하여 특정 인물 또는 기관을 가장하는 메일을 보내는 방식으로 사회공학적 기법을 활용한 피싱 메일 전달이 가능하다. 또한, 생성형인공지능을 채팅방에 연결 시, 피해자와의 실시간 상호작용이 가능하므로 피해자는 본인이 인공지능과 대화한다는 것을 인지하지 못할 수 있다.
해당 인공지능 사용 시 숫자 10개로 이루어진 비밀번호는 즉시 해킹할 수 있으며, 소문자만 있는 10글자 비밀번호는 1시간 내에 해킹할 수 있다고 알려져 있다. 이를 활용할 경우 짧은 시간에 다량의 무차별 암호 대입공격 실행 등 반복적으로 대입하는 행위가 가능해졌을 뿐만 아니라 무차별 대입 공격 코드에 특정 개인의 개인정보를 수집하여 반영할 경우, 사회공학적인 암호 대입 공격을 수행할 수 있다. 본 모델은 보안회사인 Home Security Heroes가 보안 위협을 설명하기 위하여 개발한 것으로, 악성 행위를 목적으로 만들어진 인공지능이 아니라 경각심을 목적으로 개발되어 다른 사람들에게 모델을공유하지 않고 있다.
Batch Selection은 학습 데이터의 각 그룹에서 동일한 비율로 무작위적인 추출을 하여 모든 Batch가 동일한 데이터 비율을 갖도록 구성하는 방식을 의미한다. 이외에도 이미지 데이터에 내포된 feature인 잠재변수 추출을 통해 이미지를 재구성하는 VAE 과정상에서 VAE RECAP 과정을 통해 데이터 편향을 방지할 수 있다. VAE RECAP은 입력 데이터의 잠재변수에 대한 분포를 계산한 후, 어떤 변수가 편향을 유발하는지 파악하고, 잠재변수의 분포를 균등화하여 데이터 편향을 방지하는 방식이다.
두 번째로, 인공지능 개발 후 콘텐츠 생성 시 생성된 결과물의 일부가 학습 데이터를 표절할 수 있으며 이는 저작권법에서 보장하는 저작자의 2차적저작물작성권을 침해할 수 있다. 인터넷 상에서 대량의 저작물을 수집함에 따라 인공지능에서 모든 데이터의 출처를 표시할 수 없으며, 전 세계의 저작권 관련 법이 동일하지 않기에 수집한 데이터와 유사한 결과물을 생성하였을 때, 저작권법에서 보장하는 저작자의 2차적저작물작성권을 침해할 수 있다. 하지만 현행법상 인공지능의 생성물과 저작물의 유사성을 입증해야 하며, 저작물이 실제 인공지능의 학습 데이터로 활용되었다는 사실을 저작자가 입증해야 한다는 한계를 갖는다.
자연어 처리 기술과 같은 인공지능 기술을 통해 콘텐츠를 생성하여 인터넷상에서 실제 사람과 인공지능이 자연스럽게 대화할 수 있음에 따라 사기와 피싱을 더 효과적으로 수행할 수 있게 되었다. OpenAI의 ChatGPT와 같은 대화형 인공지능 서비스는 사용자 질의에 맞는 답변을 생성하는데, 특정 사람 또는 기관의 말투를 학습하여 유사한 문구나 글을 작성할 수 있다.
한국인터넷진흥원(2022)이 분류한 생성형 인공지능 관련 위험은 크게 3가지가 있다. 첫 번째 항목인 인공지능 모델 공격은 인공지능 모델이 가지는 고유의 취약점에 대한 공격을 의미하며 학습 단계 공격과 활용 단계 공격으로 구분할 수 있다. 전자에는 오염공격과 백도어 공격이 해당하며, 후자에는 적대적 공격, 도치 공격 등이 있다.
해당 연구에서 제안된 프레임워크 IDSGAN은 침입 탐지 시스템에 대한 회피공격을 하는 적대적인 악성 트래픽 레코드를 생성하였다. 침입 탐지 시스템에 일반적으로 적용되는 7개의 알고리즘에 대한 DoS 공격 실험 결과, 어떤 적대적 사례도 분류할 수 없었고, 탐지율이 약 80%에서 1% 미만으로 현저하게 감소하여 공격이 성공적으로 발생할 수 있음을 보여주었다[22].
는 해당 기능을 활용하여 극단적 선택과 관련된 그림을 생성한 예시이다. 텍스트 생성과 관련하여 실제로 2023년 3월, 벨기에에 거주하고 있는 30대 남성이 Chai라는 대화형 인공지능 애플리케이션에서 제공하는 Eliza라는 이름의 인공지능 캐릭터 중 하나와 6주간의 대화 끝에 극단적인 선택을 하였다. 인공지능 캐릭터와의 대화를 통한 사용자와의 친밀한 관계형성을 목표로 하는 해당 어플은 캐릭터와 대화 시 처음에는 지구온난화 등의 환경 문제를 주제로 대화하였다.
악성 프로그램을 제작하는 것은 개발 지식 등 전문적인 지식을 요구한다. 하지만생성형 인공지능을 사용한다면, 전문지식이 없는 일반 사용자도 파급력이 큰 악성 프로그램을 쉽게 개발할 수 있으며, 악성 프로그램의 제작 속도가 빨라짐에 따라 제작한 악성 프로그램을 사용하여 사이버 공격을 빈번하게 시도할 수 있다. 실례로 대화형 인공지능 서비스인 WormGPT는 단순 피싱 이메일 본문 작성뿐만 아니라 Google의 웹사이트 악성 프로그램 탐지 기술인 reCAPTCHA를 우회하는 코드를 작성하는 등 다양한 악성 행위를 가능하게 한다.
전송 가능성을 줄이기 위해서는 학습 데이터의 다양성을 증가시켜야 한다. 학습 데이터의 다양성은 생성형 인공지능 개발 과정에서 개발자가 모델에 대하여 적대적 예제를 생성하는 방식으로 증가시킬 수 있다. 만약 적대적 예시를 인공지능 모델 학습 데이터에 포함할 경우, 공격자가 생성할 적대적 예시에 취약하지 않도록 할 수 있다.
인공지능 서비스 인프라를 대상으로 하는 공격은 인공지능 모델을 대상으로 하는 것이 아닌, 인공지능 서비스를 운영할 수 있게 하는 인프라에 대한 공격을 의미한다. 해당 공격에는 DoS, DDoS 공격 등을 통하여 사용자가 서비스를 사용하지 못하게 하는 공격뿐만 아니라, 클라우드 서비스에 대한 계정 탈취, 데이터베이스 변경 및 유출, 랜섬웨어 유포 등의 악의적인 행동을 할 수 있다.
후속연구
이는 클라이언트의 데이터를 중앙서버에 모아서 학습을 하는 것이 아닌, 클라이언트의 기기에서 데이터에 대한 가중치만을 수집하여 본 모델로 전송하는 연합학습에서 일어날 수 있다[40]. 개발사에서는 인공지능 서비스를 개발할 때, 사용자의 입력값을 재학습하거나 답변을 생성하는 과정에서 생명을 존중하고 자살을 방지하는 등의 윤리지침에 기반하여 업데이트 데이터를 필터링하는 방법을 적용해야 한다. 또한, 업데이트를 하기 위해 사용자의 질의 데이터를 처리하는 클라이언트의 기기의 모델에서 질의 데이터에 대해 필터링으로 학습할 데이터를 파악하는 단계를 구현해야 한다.
머신 언러닝은 프라이버시와 잊혀질 권리 등을 목적으로 모델에서 특정 정보를 제거하기 위해 개발되었지만, 아직 기술이 성숙해지지 않았기 때문에 현재로서는 아직 적용될 가능성이 높지 않다. 그러므로 현재 질의 데이터를 학습하기 전, 성능에 대한 변화를 비교하는 방식으로 가중치 업데이트를 하는 단계가 필요하다.
생성형 인공지능이발전함에 따라 수사관도 새로운 범죄를 맞이하게 되었다. 다양한 생성형 인공지능 관련 범죄 중 생성형 인공지능 침해범죄 위협의 경우에는 인공지능에 범죄 행위가 일어났는지를 확인하기 위해 인공지능에 대한 분석이 필요하다. 역공학을 통하여 인공지능 모델의 하이퍼파라미터 변경 여부를 확인하거나 활성화 계수를 통한 데이터베이스 변경 여부 등을 수사관이 확인하여야 하므로 수사관은 인공지능을 분석하고 확인하기위한 지식을 갖춰야 한다[29, 50].
멤버십 추론 공격(모델 인버전 공격)은 머신러닝 모델의 학습 데이터를 재구성하기 위한 행위로, 모델의 종류, 파라미터 등의 알려진 정보를 기반으로 유사 모델을 생성하여 출력값으로부터 입력값을 유추하는 공격으로 공격자는 쿼리를 통한 입출력값, 신뢰점수 추측을 통하여 학습 데이터 추측이 가능하다. 대상 데이터셋은 유전 또는 바이오 데이터를 포함할 수 있으므로 유출 시 치명적인 영향을 미칠 수 있으며, 바이오 데이터가 아니더라도 개인이 제공한 데이터의 사용 범위를 인공지능으로 제한하였을 때 추론을 통하여 유출될 수 있다는 점에서 개인정보 측면에서 보호가 필요하다. 멤버십 추론 공격은 정보통신망법 제48조와 저작권법 제136조 제1항에 의해 처벌할 수 있다.
후자인 학습 데이터 저작권 침해의 경우에는 모든 데이터에 대한 저작권 표기가 기술적으로 어려우며, 저작권의 특성상 기간에 따라 만료가 될 수 있다는 점 등을 고려해야 하므로 적절한 대응 방안을 현 상황에서 제시할 수 없다. 두 번째 한계점은 본 연구에서 제시한 범죄 분류와 대응 방안이 현재까지 개발된 생성형 인공지능 기반의 연구라는 점이다. 생성형 인공지능 기술은 여전히 개발 중인 기술이며, 추후에등장할 수 있는 기술은 무궁무진하다.
두 번째로 수사관과 일반인 대상 교육 프로그램 개발이 필요하다. 생성형 인공지능이발전함에 따라 수사관도 새로운 범죄를 맞이하게 되었다.
그러나 현재 상용화된 생성형 모델 서비스의 경우, 학습 데이터상의 데이터 편향성을 방지하기 위한 대책이 구축되어 있지 않은 실정이다. 따라서 데이터처리 단계의 기술적 보완뿐만 아니라 법⸱제도적 방안을 제안하여 편향이 최대한 제거된 학습 데이터셋 구축을 규제해야 하며, 편향성뿐만 아니라 저작권을 보호할 수 있는 법⸱제도 개선도 필요하다. 파운데이션 모델 학습 시 데이터의 60~70%가 크롤링 데이터라고 알려져 있으며, 양은영(2023)에 따르면, 생성형 인공지능의 학습 데이터에 대한 저작권 침해 문제가 존재한다[51].
생성형 인공지능으로 만들어진 콘텐츠가 2025년에는 인터넷에 돌아다니는 콘텐츠의 90% 이상을 차지할 것이라는 전망과 같이 인터넷상 데이터가 대부분 생성형 인공지능에 의해 생성된다면, 일반인들은 습득하는 정보가 진실인지 거짓인지를 확인하기 어려워진다. 따라서 사용자 입장에서 올바른 정보를 습득하는 방법이 안내되어야 한다.
현재까지 공개된 가이드라인과 평가표는 상이한 평가 항목을 제시하고 있으며, 각 항목에 대한 평가지표가 Yes, No로 구분되어 평가의 구체성이 부족하다는 한계점이 존재한다. 따라서 신뢰할 수 있는 인공지능에 대한 표준화된 가이드라인과 평가 항목이 개발되어야 하며, 모델에 대한 실질적 측정을 위해 수치화된 평가 기준이 제공되어야한다. 또한, 평가항목을 표준화하여 공신력 있는 평가 결과를 제공할 수 있는 가이드라인이 필요하다.
또한, 생성형 인공지능에서 가장 문제가 되는 Hallucination을 막기 위해 데이터의 진위를 검증할 수 있는 데이터셋을 구축하는 것이 하나의 방안에 포함될 수 있다. 하지만, 진위 검증 데이터셋은 방대한 지식의 범위와 종류를 포괄해야 하며, 데이터셋 구축 시 방대한 양의 데이터를 효과적인 접근 및 관리 방안 등 다양한 요소에 대해 추가적인 기술연구가 선행되어야 한다.
개발사에서는 인공지능 서비스를 개발할 때, 사용자의 입력값을 재학습하거나 답변을 생성하는 과정에서 생명을 존중하고 자살을 방지하는 등의 윤리지침에 기반하여 업데이트 데이터를 필터링하는 방법을 적용해야 한다. 또한, 업데이트를 하기 위해 사용자의 질의 데이터를 처리하는 클라이언트의 기기의 모델에서 질의 데이터에 대해 필터링으로 학습할 데이터를 파악하는 단계를 구현해야 한다.
본 연구에서는 기존 연구에서 분석하지 않은 개발자의 고의 또는 과실로 인해 사회에 해를 끼칠 수 있는 행위를 연구하고자 한다. 또한, 인공지능 관련 범죄의 대응 방안을 인공지능 개발 단계를 기반으로 제시하여 기존 연구보다 더 현실적으로 범죄대응 방안을 제시하고자 한다.
따라서 신뢰할 수 있는 인공지능에 대한 표준화된 가이드라인과 평가 항목이 개발되어야 하며, 모델에 대한 실질적 측정을 위해 수치화된 평가 기준이 제공되어야한다. 또한, 평가항목을 표준화하여 공신력 있는 평가 결과를 제공할 수 있는 가이드라인이 필요하다.
마지막으로 데이터 수집 방법론의 법제화가 필요하다. 생성형 인공지능에 있어서 학습 데이터의 구축은 필수적인 단계이다.
이를 활용할 경우 짧은 시간에 다량의 무차별 암호 대입공격 실행 등 반복적으로 대입하는 행위가 가능해졌을 뿐만 아니라 무차별 대입 공격 코드에 특정 개인의 개인정보를 수집하여 반영할 경우, 사회공학적인 암호 대입 공격을 수행할 수 있다. 본 모델은 보안회사인 Home Security Heroes가 보안 위협을 설명하기 위하여 개발한 것으로, 악성 행위를 목적으로 만들어진 인공지능이 아니라 경각심을 목적으로 개발되어 다른 사람들에게 모델을공유하지 않고 있다. 하지만, 이와 같은 목적이 아닌, 다른 사람들에게 피해를 미칠 목적으로 개발된 인공지능에 대해 법적으로 제재하는 방안이 부재하다.
설계 후 데이터 수집⋅전처리 단계에서는 데이터를 수집하고 전처리하는데, 이때 데이터는 인공지능 학습에 사용되는 빅데이터이다. 빅데이터 수집 시 다양한 소스로부터 데이터를 가져와야 하고, 빅데이터의 특성상 비정형 데이터로 구성되어 있으므로 적절한 전처리가 필요하다. 이후 전처리된 데이터를 기반으로 인공지능 서비스를 개발하는 구현단계, 인공지능을 평가하는 테스트 단계를 거치게 된다.
기존의 연구는 인공지능의 위험에 대해 각자의 기준에 따라 분류를 진행하여 통일된분류 기준이 존재하지 않으며, 생성형 인공지능의 정의가 제대로 확립되지 않음에 따라 행위의 범죄 성립 여부가 불명확하다. 생성형 인공지능을 활용한 범죄가 등장함에따라 법적인 영역에서는 새로운 법을 만들기 전 기존의 법의 범위와 한계를 파악하는 것을 필요로 한다. 본 연구에서는 생성형 인공지능의 위협에 대해 분류 후 현행법상의 처벌 가능성을 파악하여 현행법의 한계를 파악하였다.
또한, 국내기업이 아닌 해외 기업이라는 점에서 국내법으로 처벌하기 어려울 수 있다. 악성 행위를 하는 인공지능 서비스를 개발만 하였다면 현행법상 처벌은 불가능하지만, 만약 악성 생성형 인공지능 서비스를 사용하여 범죄를 저지른다면, 정보통신망법으로 처벌할 수 있으며 적용될 법률은 서비스의 행동에 따라 결정된다.
유지보수 단계는 배포 이후의 사용자 활동을 의미하며, 적대적 예시와 같이 공격자가인공지능 모델을 공격하기 위해 악의적인 데이터를 전송하였을 때 공격자의 데이터가 들어오기 전후로 성능을 비교하는 과정이 필요하다. 금융보안원(2023)에 따르면 적대적 예시 또는 노이즈가 데이터에 추가되어 공격이 발생할 때 성능 저하를 입증할 수 있다[48].
이는 현행법상 범죄로 규정되어 있지만 입증이 어려워 법·제도적 개선을 필요로 한다.
현재 유럽연합은 AI Act를 통해 인공지능 학습에 활용된 데이터의 저작권을 명시하도록 규제안을 발표하였으나, 이에 대한 기술적인 구현이 현실적으로 어렵다는 쟁점이 존재하는 실정이다. 이에 기술적으로 구현할 수 있는 저작권 보호 법안에 대한 연구도 진행되어야 한다.
Son(2023)에 따르면, 비정형 데이터나 반정형 데이터는 저작물로서 독창성이 있는 경우 보호대상이 됨에 따라 트위터, 블로그와 같은 인터넷상에서 업로드된 글, 그림, 사진, 음악, 동영상 등의 데이터는 저작물로서 보호가 가능하다[31]. 이에 저작권법 35조의5에 명시된 것과 같이 저작물의 일반적인 이용 방법과 충돌하지 않고, 저작자의 정당한 이익을 부당하게 해치지 않는 경우에 한하여 저작물 이용이 허용될 수 있다. 하지만 저작물의 공정 이용에 해당하지 않으며, 저작자 본인이 인공지능에 이용할 수 없다고 언급하였다면, 해당 데이터를 인공지능 학습에 활용할 수 없다.
인공지능 개발 시 데이터 수집⋅전처리 단계를 통해 학습 데이터를 생성하게 되는데, 학습 데이터 생성 시 학습 데이터의 다양성을 증가시키고, 데이터의 편향을 감소시키는 것이 필요하다
하지만 인공지능이 혐오 및 차별 표현을 답변으로 생성하였을 때, 답변 생성의 주체가 인공지능이 되기에 인공지능의 법적 주체 문제로 인하여 처벌할 수 없다. 인공지능 발전에 따라 다양한 생성형 인공지능 서비스가 등장할 수 있으므로 혐오 및 차별 금지 등의 인공지능 윤리에 대한 고려가 필요하다.
실제 한국음악저작권협회에서는 모 가수의 노래에서 저작권자로 등록되었던 작곡 인공지능 프로그램에 대해 2022년 7월부터 저작권료 지급을 중단하며, 저작권법에서 인공지능의 저작권을 인정하지 않는다고 밝혔다[30]. 인공지능의 출력값에 대한 저작권은 큰 문제가 되지 않지만, 학습 데이터의 저작권에 대해 논의가 필요하다.
생성형 인공지능 기술은 여전히 개발 중인 기술이며, 추후에등장할 수 있는 기술은 무궁무진하다. 즉, 앞으로 어떤 구조의 인공지능이 등장하는지 예측하기 어려우며, 새로운 구조의 인공지능 등장 시 추가적인 연구를 필요로 한다.
생성형 인공지능 서비스에 대하여 3가지 법⋅제도적 개선 사항이 존재한다. 첫 번째로 개발사의 책임에 대한 논의가 필요하다. 개발사의 책임소재는 현행법상 범죄로 규정되지 않은 행위를 범죄로 규정하기 위해 필요한 요소 중 하나이다.
하지만, 본 연구는 2가지의 한계점을 갖는다. 첫 번째로 기타 인공지능 범죄 위협의 일부는 대응 방안을 제시하지 못한다는 한계점이 있다. 이와 관련하여 예시로는 개발사의 고의적 악성 생성형 인공지능 서비스 개발과 학습 데이터 저작권 침해가 있다.
인터넷 상에서 대량의 저작물을 수집함에 따라 인공지능에서 모든 데이터의 출처를 표시할 수 없으며, 전 세계의 저작권 관련 법이 동일하지 않기에 수집한 데이터와 유사한 결과물을 생성하였을 때, 저작권법에서 보장하는 저작자의 2차적저작물작성권을 침해할 수 있다. 하지만 현행법상 인공지능의 생성물과 저작물의 유사성을 입증해야 하며, 저작물이 실제 인공지능의 학습 데이터로 활용되었다는 사실을 저작자가 입증해야 한다는 한계를 갖는다. 이는 현행법상 범죄로 규정되어 있지만 입증이 어려워 법·제도적 개선을 필요로 한다.
본 모델은 보안회사인 Home Security Heroes가 보안 위협을 설명하기 위하여 개발한 것으로, 악성 행위를 목적으로 만들어진 인공지능이 아니라 경각심을 목적으로 개발되어 다른 사람들에게 모델을공유하지 않고 있다. 하지만, 이와 같은 목적이 아닌, 다른 사람들에게 피해를 미칠 목적으로 개발된 인공지능에 대해 법적으로 제재하는 방안이 부재하다. 또한, 국내기업이 아닌 해외 기업이라는 점에서 국내법으로 처벌하기 어려울 수 있다.
또한, 생성형 인공지능에서 가장 문제가 되는 Hallucination을 막기 위해 데이터의 진위를 검증할 수 있는 데이터셋을 구축하는 것이 하나의 방안에 포함될 수 있다. 하지만, 진위 검증 데이터셋은 방대한 지식의 범위와 종류를 포괄해야 하며, 데이터셋 구축 시 방대한 양의 데이터를 효과적인 접근 및 관리 방안 등 다양한 요소에 대해 추가적인 기술연구가 선행되어야 한다.
악의적 모델로의 재학습은 공격자가 생성형 인공지능 서비스에 침입하여, 데이터셋 또는 하이퍼파라미터 등의 값을 변경하여 악의적인 행동을 하는 인공지능 모델로 학습을 하고 범죄를 일으키는 행위이다. 해당 행위는 대화형 인공지능 서비스를 제공하는 회사의 자산인 데이터베이스, 웹서버 등에 침입함을 전제로 하고 있기에 높은 기술적 수준을 요구한다. 이와 관련하여 Schneider 외 1인(2023)은 드론이 스포츠 경기에서 영상을 촬영하거나 물건을 배달하고 있을 때, 드론의 비전 시스템에 침입하여 데이터셋을 변경하고 재학습하여 특정 사람의 얼굴을 시스템에서 인식하면 드론을 추락시켜서 상해를 입히는 등의 사례를 통해 해당 공격 방식을 설명하였다[29].
현재까지 공개된 가이드라인과 평가표는 상이한 평가 항목을 제시하고 있으며, 각 항목에 대한 평가지표가 Yes, No로 구분되어 평가의 구체성이 부족하다는 한계점이 존재한다. 따라서 신뢰할 수 있는 인공지능에 대한 표준화된 가이드라인과 평가 항목이 개발되어야 하며, 모델에 대한 실질적 측정을 위해 수치화된 평가 기준이 제공되어야한다.
전자의 경우, 악의적인 서비스를 개발하여 공유할 시 이를 탐지하고 차단하는 것이 현실적으로 어렵다. 후자인 학습 데이터 저작권 침해의 경우에는 모든 데이터에 대한 저작권 표기가 기술적으로 어려우며, 저작권의 특성상 기간에 따라 만료가 될 수 있다는 점 등을 고려해야 하므로 적절한 대응 방안을 현 상황에서 제시할 수 없다. 두 번째 한계점은 본 연구에서 제시한 범죄 분류와 대응 방안이 현재까지 개발된 생성형 인공지능 기반의 연구라는 점이다.
참고문헌 (51)
Krystal Hu, "ChatGPT sets record for fastest-growing user base-analyst note," https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/, Accessed on Nov. 2023.?
Lim Yeongshin, "2023 Key Issues and Meaning for Generative AI," KISDI Perspectives. 2023 August No.3. 1-13. Aug. 2023.?
Anrirudh VK, "Leaked LLaMA Unveils the Power of Open Source for AI," Analytics India Magazine, https://analyticsindiamag.com/leaked-llama-unveils-the-power-of-open-source/, Accessed on Nov. 2023.?
Skylar Harris, et al, "High schooler calls for AI regulations after manipulated pornographic images of her and others shared online," https://edition.cnn.com/2023/11/04/us/new-jersey-high-school-deepfake-porn/index.html, Acce ssed on Nov. 2023?
Vincent Acovino, et al, "A sci-fi magazine has cut off submissions after a flood of AI-generated stories," https://www.npr.org/2023/02/24/1159286436/ai-chatbot-chatgpt-magazine-clarkesworld-artificial-intelligence, Accessed on Nov. 2023.?
Interpol, "ChatGPT Impacts on Law Enforcement," Aug. 2023.?
Ahn SungMahn, "Deep Learning Architectures and Applications," Journal of Intelligence and Information Systems, 22(2), pp. 127-142, Jun. 2016.?
Lee Seungchul, Jeong Hae-dong, Park Seung-tae and Kim Soohyun, "Deep Learning," Journal of KSNVE. vol. 27(3), pp. 19-25, May. 2017.?
Kitae Kim, Bomi Lee and Jong Woo Kim, "Feasibility of Deep Learning Algorithms for Binary Classification Problems," Journal of Intelligence and Information Systems, 23(1), pp. 95-108, Mar. 2017.?
Joyjit Chatterjee and Nina Dethlefs, "This new conversational AI model can be your friend, philosopher, and guide... and even your worst enemy," Pat erns, vol. 4, no. 1, Jan.2023.?
Sumit Pandey and Srishti Sharma, "A comparative study of retrieval-based and generative-based chatbots using Deep Learning and Machine Learning," Healthcare Analytics, vol. 3, no. 100198, Nov. 2023.?
Blauth, T.F., Gstrein, O.J., and Zwitter, "A. Artificial intelligence crime: An overview of malicious use and abuse of AI," IEEE Access, 10, 77110-77122. Jul. 2022.?
D. Jeong, "Artificial Intelligence Security Threat, Crime, and Forensics: Taxonomy and Open Issues," IEEE Access, vol. 8, pp. 184560-184574, Oct. 2020.?
Younghee Kim, "Generative AI Industry Status Report," Korea Copyright Commission, Apr. 2023.?
Jinho Yoo, et al, "An Analysis of the Arrival of AI-Centered Society and Security Issues," KISA Insight, 2022 vol. 3, Apr. 2022.?
Google, "Reporting content under Article 6-4 of the LCEN," https://support.google.com/legal/answer/11512794?hlen-GB, Accessed on Nov. 2023.?
Park Yunsuk, "Analysis of the European Union Digital Service Act on Copyright and its implications for Korea's system," Copyright Issue report 2022-30, Oct. 2022.?
Korea National Police Agency, "Cyber crime classification," https://ecrm.police.go.kr/minwon/crs/quick/cyber1, Accessed on Nov. 2023.?
OpenAI, "Usage policies," https://openai.com/policies/usage-policies, Accessed on Nov. 2023.?
Oh Sojeong, Sin Jiho, Park Jaehyun and Kim Kibum, "The possibility and countermeasures of cyber attack using ChatGPT," 2023 Korea Institute of Digital Forensics Summer Conference. pp. 303-324. Jun. 2023.?
Ella Cao and Eduardo Baptista, "'Deep-fake' scam in China fans worries over AI-driven fraud," https://www.reuters.com/technology/deepfake-scam-china-fans-worries-over-ai-driven-fraud-2023-05-22/, Accessed on Nov. 2023.?
Lin, Z., Shi, Y., and Xue, Z. "Idsgan: Generative adversarial networks for attack generation against intrusion detection," In Pacific-asia conference on knowledge discovery and data mining, pp. 79-91, May. 2022.?
Shannon Bond, "Fake viral images of an explosion at the Pentagon were probably created by AI," https://www.npr.org/2023/05/22/1177590231/fake-viral-images-of-an-explosion-at-the-pentagon-were-probably-created-by-ai, Accessed on Nov. 2023.?
Kyeonghoon Jeong, "Digital sex crimes, portrait rights infringement will be easier to punish," https://m.mt.co.kr/renew/view.html?no2023111010123345938#_doyouad, Accessed on Nov. 2023.?
Tramer, F., Zhang, F., Juels, A., Reiter, M. K., and Ristenpart, T., "Stealing machine learning models via prediction APIs," 25th USENIX security symposium (USENIX Security 16), pp. 601-618. Aug. 2016.?
Wu, Bang, Yang, Xiangwen, Pan, Shirui, and Yuan, Xingliang, "Model extraction attacks on graphneural networks: Taxonomy and realisation," the 2022 ACM on Asia Conference on Computer and Communications Security. pp. 337-350. May. 2022.?
Fredrikson, M., Jha, S., and Ristenpart, T, "Model inversion attacks that exploit confidence information and basic countermeasures," the 22nd ACM SIGSAC conference on computer and communications security. pp. 1322-1333. Oct. 2015.?
Schneider, J., and Breitinger, F, "Towards AI forensics: Did the artificial intelligence system do it?", Journal of Information Security and Applications, vol. 76, pp. 103517, Jun. 2023.?
Youji Jang, "The Korean Government Should Not Grant a Copyright of AI's Creations," https://herald.cauon.net/news/articleView.html?idxno20966, Accessed on Nov. 2023.?
Young-Hoa Son. "A Study on Creation by Generative AI and Copyright," Journal of Law and Politics research, 23(3), pp. 357-289, Sep. 2023.?
Kris Holt, "Three Samsung employees reportedly leaked sensitive data to ChatGPT," https://www.engadget.com/three-samsung-employees-reportedly-leaked-sensitive-data-to-chatgpt-190221114.html, Accessed on Nov. 2023.?
Justin Mccurry, "South Korean AI chatbot pulled from Facebook after hate speech towards minorities," https://www.theguardian.com/world/2021/jan/14/time-to-properly-socialise-hate-speech-ai-chatbot-pulled-from-facebook, Accessed on Nov. 2023.?
Lia Parisyan-Schmidt, "Racial and Gender Bias Lessons Learned from Midjourney and Disordered Eating Prompts," https://www.linkedin.com/pulse/racial-gender-bias-lessons-learned-from-midjourney-lia, Accessed on Nov. 2023.?
Chloe Xiang "He Would Still Be Here: Man Dies by Suicide After Talking with AI Chatbot, Widow Says," https://www.vice.com/en/article/pkadgm/man-dies-by-suicide-after-talking-with-ai-chatbot-widow-says, Accessed on Nov. 2023.?
James Vincent, "OpenAI sued for defamation after ChatGPT fabricates legal accusations against radio host," https://www.theverge.com/2023/6/9/23755057/openai-chatgpt-false-information-defamation-lawsuit, Accessed on Nov. 2023.?
Shen, Z., Cui, P., Zhang, T., and Kunag, K, "Stable learning via sample reweighting," Proceedings of the AAAI Conference on Artificial Intelligence, pp. 5692-5699, Feb. 2020?
Shirokikh, B., Shevtsov, A., Kurmukov, A., Dalechina, A., Krivov, E., Kostjuchenko, V Golanov, A. and Belyaev, M, "Universal loss reweighting to balance lesion size inequality in 3D medical image segmentation," In Medical Image Computing and Computer Assisted Intervention-MICCAI 2020, pp. 523-532, Sep. 2020.?
Roh, Y., Lee, K., Whang, S. E., and Suh, C, "Fairbatch: Batch selection for model fairness," Proceedings of the 9th International Conference on Learning Representations (ICLR), May. 2020?
Seungmin, Lee, "Trends and Industrial Implications of Joint Learning Technology," ETRI insight, Nov. 2020.?
Ministry of Science and ICT, "Strategy to realize trustworthy artificial intelligence," May. 2021.?
European Commission, "Ethics Guidelines for Trustworthy Artificial Intelligence," Apr. 2019.?
United States Office of Management and Budget, "Guidance for Regulation of Artificial Intelligence Applications," Nov. 2020.?
Li, B., Qi, P., Liu, B., Di, S., Liu, J., Pei, J., Yi, J. and Zhou, B., "Trustworthy AI: From principles to practices," ACM Computing Surveys, 55(9), pp. 1-46, Jan. 2023.?
Poretschkin, M., Schmitz, A., Akila, M., Adilova, L., Becker, D., Cremers, A. B., ... & Wrobel, S., "Guideline for Trustworthy Artificial Intelligence-AI Assessment Catalog," arXiv preprint arXiv:2307.03681, Jun. 2023.?
European Commision, "The final Assessment List for Trustworthy AI (ALTAI)," Jul. 2020.?
European Commission, "Digital Services Act: Commission designates first set of Very Large Online Platforms and Search Engines," Apr. 2023.?
Wojciech Samek, et al, Explainable AI: Interpreting, Explaining and Visualizing Deep Learning, pp. 121-144, Sep. 2019.?
Eunyoung Yang, "Necessity of regulation on the development and use of generative AI - Focusing on Large language Models conversational A.I. services (LLMs AI)," Sungkyunkwan Law, 35(2), pp. 293-325, Jun. 2023.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.