논문 상세보기

손해배상책임 관점에서의 인공지능 특징과 관련 제도 논의

Features of Artificial Intelligence and Challenges in Liability for Damages

  • 언어KOR
  • URLhttps://db.koreascholar.com/Article/Detail/371758
구독 기관 인증 시 무료 이용이 가능합니다. 4,800원
서울대학교 기술과법센터 (Center for Law & Technology)
초록

인공지능 시대가 점점 다가오고 있다. 각국 정 부와 기업이 앞다투어 투자하고 다양한 인공지능 제품 및 서비스를 선보이면서, 인공지능 알고리즘의 오작동, 데이터로 인한 차별행위 발생 등으로 인한 사고가 등장하기 시작하였다. 이런 사고는 앞으로 더 많이, 더 자주 일어날 것이다. 문제는 인공지능 사고에 대한 손해배상책임을 묻기 쉽지 않다는 것이다. 인공지능 사고는 데이터를 활용하여 스스로 수많은 학습 과정을 통해 결과를 도출하는 기계학습 및 딥러닝의 특성상 피해자가 사고 원인을 파악하여 가해 행위를 특정하고 그 손해를 입증하기 쉽지 않다. 기업의 알고리즘 비공개 및 분산된 소프트웨어 개발 방식 은 손해 원인의 입증을 한층 더 어렵게 만든다. 또한 피해자가 손해의 원인을 밝힌다고 하더라도 데이터로부터 정보를 추출하고 확률적인 판단을 내리는 인공지능 기술의 특성상 정확한 결과 예측이 어려워 개발자의 과실 및 과실과 손해 사이의 인과관계가 부정될 가능성이 높다. 이와 같은 이유로 인공지능 사고의 피해자가 그에 대한 보상을 받기 어렵다면, 이는 결국 기술에 대한 불신으로 이어져 인공지능 기술의 확산이 저해될 것이다. 지속 가능한 인공지능 시대를 위해서 는 개발자 등 관련자가 인공지능 동작에 대한 설명 가능성 및 투명성을 제고하도록 그들에게 일정한 의무와 책임을 부과하여야 한다. 일반적으로 인공 지능의 예측 정확도와 설명가능성은 반비례하기 때문에, 성능뿐만 아니라 설명가능성을 위한 연구개발 역량을 배분하도록 제도를 마련할 필요가 있다. 따라서 GDPR과 같이 개발자등에게 인공지능 동작을 설명할 행정 의무를 부과하거나 인공지능 사고에 대해서 손해배상 청구 시 증명책임을 전환하는 방안을 고민할 시점이다. 이와 같은 법제 방향은 개별적 사고에서 손해를 공평하고 타당하 게 분담하게 할 뿐 아니라, 제조자등이 본인에게 부과된 입증을 다하기 위해 인공지능의 판단 과정 및 근거를 설명하기 위한 기술을 모색하게 함으로써 결과적으로 인공지능의 불투명성을 완화 하고 설명가능성을 높일 것이다. 실제로 GDPR에서 인공지능 동작에 대한 설명요구권이 논의되기 시작하면서 설명가능 인공지능에 대한 연구가 활 발히 진행되기 시작하였다. 인공지능 사고에 대한 책임을 어떻게 분담하여야 혁신은 장려하면서 위험을 방지할 수 있을지, 인공지능이 사회에서 신뢰를 쌓을 수 있으려면 어떠한 기준을 설정해야 할지 앞으로 계속 찾아가야 할 것이다.

The age of AI (Artificial Intelligence) is coming. As governments and company expand their investment on AI and presents many AI products and services, the problems about AI algorithm malfunction and discrimination has occurred. These problems would occur more often in the future.
The main issue on the AI-related accidents is that it is hard to point out who takes the liability for the damages. Since AI uses data by machine learning and deep learning, it is hard for the victim to understand the cause of accident and prove the damage. Furthermore, since companies usually do not reveal the algorithm of the AI and numerous developers are involved in AI program, it is even harder to prove the cause of damage. AI extracts the information from the data and make decisions based on statistics so the developer (other interested parties are included) cannot accurately predict the decisions of the AI. Even when a victim finds out the cause of accident it is uncertain that there is causality between negligence of the developer and the damage.
If the victim is not compensated for this reason, it will eventually lead to distrust of AI technology and hinder the AI development. For sustainable AI era, developers should be given certain duties and responsibilities to enhance explainability and transparency of AI. The method for increasing AI explainability and transparency is needed because there is an inverse relationship between prediction accuracy and explainability of AI.
Therefore, it is time to think about ways to impose administrative duties or shift the burden of proof to developers for explaining AI behavior. This kind of legal direction would make developer to find a new technology to explain the AI decision making process and base of the decision. And this would strengthen the explainability and the transparency of AI. In practice, research of explainable AI is in progress as GDPR starts to discuss about the right to explanation. In order to successful move to the age of AI, we should continue to seek a direction of AI-related liability system that gain the trust of society while encouraging innovation.

목차
요약
 I. 서론-인공지능으로 인한 손해의 등장
 II. 손해배상책임의 입증을 어렵게 하는인공지능의 특징
 III. 인공지능 사고에 대한 책임을 묻기위한 제도적 고민
 IV. 결론
 ABSTRACT
저자
  • 박소영(한국과학기술기획평가원) | Soyoung Park