본 논문에서는 미국 내 생성형 AI에 의한 선거 방해 행위 사례를 분석 하였다. 또한 본고에서는 이전 시기 신기술 등장 시 선거활용 및 악용에 의 문제점과 최근의 생성형 AI 활용 사례를 비교, 분석하였다. 미국사회 는 선거 및 정당과 관련한 생성형 AI 창작물의 투명성 확보에 집중하고 있다. 즉 ‘AI에 의해 제작되었음’ 혹은 창작물임을 알 수 있도록 하는 표 식에 대한 제도화가 필요함에 공감하고 있다. 하지만 정치와 민주주의에 관한 표현의 자유와 주장을 억제하기 위해, 생성형 AI에 의한 창작을 제 도적으로 제어해야 할 필요성에 관해 논의하지는 않는다. 이와 대조적으 로 군사, 안보와 관련한 생성형 AI 창작물 유포와 관련하여 미국 정부는 좀 더 강경한 입장이다. 군사, 안보와 관련한 생성 AI 창작물은 사회에 극 단적인 악의적 영향을 미칠 우려가 있기 때문이다. 군사, 안보와 관련한 생 성형 AI 창작물은 국제 수준에서 악의적 의도로 제작될 가능성을 배제할 수 없기 때문에, 투명성을 높이는 것만으로 대응할 수 없는 것이다.
In this paper, we analyzed cases of election interference by generative AI in the United States. In addition, this paper compared and analyzed problems in election use and abuse when new technologies emerged in the previous period and recent cases of generative AI use. American society is focusing on securing transparency in generative AI creations related to elections and political parties. In other words, we agree that there is a need to institutionalize a mark that allows people to recognize that it was ‘produced by AI’ or that it is a creative work. However, it does not discuss the need to institutionally control creation by generative AI in order to curb freedom of expression and arguments about politics and democracy. In contrast, the U.S. government takes a more hardline stance regarding the distribution of generative AI creations related to military and security. This is because AI creations related to military and security concerns are likely to have an extremely malicious impact on society.