Social Risks of Deepfakes and Their Regulatory Approaches: Focusing on Deepfake-related Crimes
딥페이크란 인공지능 기술에 의해 합성된 이미지, 비디오, 오디오 등의 미디어로서 실제 존재하지 않거나 발생하지 않은 사건 등을 묘사한 것을 뜻하며, 창의적인 콘텐츠 문화를 만들어 낼 수 있다는 긍정적인 측면과 함 께, 여론조작을 통한 민주주의에 대한 위협, 범죄에의 활용 등 여러 사회적 위험성 또한 내포하고 있다. 이 글에서는 딥페이크 기술의 악의적 활용의 위험성에 기초하여 딥페이크 기술 이용에 대한 규제방안을 검토함으로써, 우리 사회에서 이 인공지능 기술을 안전하게 이용할 수 있는 방법을 모색 해 본다. 이를 위하여 딥페이크 기술을 악용하는 행위의 위험에 대하여 살 펴보고, 이에 관련된 국내외 입법동향 및 딥페이크 기술 일반에 관련된 전 반적인 대응 방향성을 검토하였다. 딥페이크의 일반 규제를 위해서는 딥페이크에 대한 규제내용을 담은 기 본법이 필요하며, 딥페이크의 특징인 허위성, 미디어의 파급력, 디지털 형 식의 빠른 유포를 고려한 고려한 규제방식이 필요하다. 이를 위하여 딥페이 크 생성물에 대한 표시강제제도 도입, 악의적 딥페이크의 유통 금지, 그 외 온라인 서비스 제공자의 의무로서 사전 모니터링 및 자율규제, 피해자 지원 을 위한 신속 삭제 등이 요구된다. 이에 대한 입법 및 개발자와 온라인 플 랫폼 업체의 적극적인 대응이 동시에 요구되고 있다.
The term "deepfake" refers to synthetic media, such as images, videos, and audio, generated using artificial intelligence (AI) technology. This technology depicts events that either do not exist or have not occurred. While deepfakes have the potential to contribute to a new content culture, they also present various social risks, such as the manipulation of public opinion, leading to threats to democratic processes and potential misuse in criminal activities. This article provides an overview of the issues associated with deepfake abuse and discusses potential regulatory measures for safely integrating deepfake technology into society. To address these concerns, it suggests the need for a fundamental law to regulate deepfakes. The proposed regulations include introducing a mandatory labeling system for deepfake media, prohibiting and penalizing the malicious use of deepfakes, proactive monitoring and self-regulation as mandatory requirements for online service providers, and the prompt removal of deepfake content to support affected individuals. Both legislative actions and proactive measures by developers and online platform companies are essential to combat the social risks of deepfake technology.