논문 상세보기

AI 필터링과 설명가능 인공지능

AI filtering and Explainable AI

  • 언어KOR
  • URLhttps://db.koreascholar.com/Article/Detail/395104
구독 기관 인증 시 무료 이용이 가능합니다. 4,000원
서울대학교 기술과법센터 (Center for Law & Technology)
초록

악성 게시글 및 댓글의 위험성에 대한 사회적 경각심이 높아지고 있는 상황 속에서, 인터넷 포 털 사이트와 SNS 등은 악성 게시글 및 댓글 등 을 AI를 통하여 필터링하는 기능을 도입하고 있 다. 그 과정 속에서 AI가 어떠한 기준에 따라 필 터링을 하는지 구체적인 내용이 공개되지 않아 이용자들의 반발이 계속되고 있다. AI 필터링의 확산은 불가피하게 이용자의 표 현의 자유, 알 권리를 제약하는 결과로 이어진다. 특히 AI 필터링은 인간에 의한 필터링과 달리 필 터링 결과에 이른 근거가 무엇인지 인간이 이해 할 수 있는 방법으로 인간에게 전달하는 것이 어 렵다는 점에 특징이 있다. 설명가능 인공지능(XAI)은 이용자에게 시스 템의 개별 의사결정에 대한 설명을 제공하고, 이 용자가 AI 시스템의 전반적인 강점 및 약점을 이 해하도록 도와주는 기술이며, 미국 방위고등연구 계획국(DARPA)의 주도하에 연구가 진행되고 있다. XAI는 다양한 분야에서 이용자로부터 신뢰 를 얻고 사회적 수용을 위한 공감대를 형성하는 수단이 될 것으로 예상된다. EU의 일반개인정보보호규정(GDPR)은 정보 주체들이 인공지능 알고리듬이 어떻게 결과를 도 출하는지에 대한 설명을 요구하는 근거규범을 포 함하고 있다. 설명요구권과 자동화된 의사결정을 제한할 권리를 규정함으로써 정보주체의 기본 권 리를 보장하기 위한 규제 메카니즘을 구축하였다. 이로써 XAI 개발과 설계를 위한 노력이 긴요한 과제가 되었다. GDPR의 AI 규제 메카니즘 구축이 기술 발전 을 저해하는 효과를 낳을 수 있다는 부정론도 제 기되고 있다. 하지만 AI 알고리듬의 오류 발생 가 능성이 상존하므로, AI 필터링의 신뢰도를 확보 하기 위한 근거 설명의 필요성이 크다는 점에서 AI의 알고리듬 도출 결과의 근거를 요구할 수 있 는 입법이 긴요하다고 볼 수 있다.

Amid growing social awareness about the dangers of malicious postings and comments, internet portals and social media sites are introducing ways to filter out malicious postings and comments through Artificial Intelligence. Due to unclear nature of the standards for those AI filters, users of the social media sites are continuing to criticize these actions. The spread of AI filtering inevitably leads to restriction of users’ freedom of expression and rights to know. Particularly, unlike filtering by humans, AI filtering is uniquely characterized by the difficulty of conveying to humans how and why it reached a certain conclusion by ways humans can understand. Explainable artificial intelligence (XAI) is a technology that provides users with transparency in individual decision making process rendered by the system and helps users understand the overall strengths and weaknesses of AI systems. The research is being conducted under the leadership of the U.S. Defense Advanced Research Planning Agency (DARPA). XAI is expected to provide a means to gain trust from users in various fields and form a consensus among the public. The EU’s General Data Privacy Regulation (GDPR) provides a legal framework requiring information producers to explain how Artificial Intelligence algorithms operate. This regulatory mechanism was established to ensure the basic rights of the information producers by way of setting forth the rights to request explanation of AI and to limit automated decision-makings. This has made the effort for XAI development and design an important task. Of course, there are also criticisms that the establishment of the GDPR's AI regulation mechanism could potentially have an hindering effect on the technology development. However, since there always coexists possibility of AI algorithm error, given the need for explanation of the grounds to secure the credibility of AI filtering, it is essential that some legal requirement for the basis of results reached by AI algorithm be legislated.

목차
요약
I. AI 필터링의 확산
II. 표현의 자유 및 알 권리와의 충돌
III. 설명가능 인공지능(XAI)
IV. GDPR에 대한 대응과 XAI
V. 기술 발전과 규제, 사회적 합의의 반영
ABSTRACT
저자
  • 김주현(변호사(KBS 법무실), 서울대학교 법과대학원) | Juhyun Kim