Criminal Liability of Artificial Intelligence
인공지능의 형사책임에 대해서는 긍정설과 부정설이 대립하지만, 현재의 약한 인공지능 단계에서는 인공지능의 형사책임은 인정되지 않는다. 사용자가 인공지능에게 범죄를 지시한 경우에는 그 사용자가 고의범으로 책임을 져야 할 것이고, 인공지능의 오작동이나 예상치 못한 행동에 대해서는 인공지능 설계, 제조자가 과실범으로 책임을 져야 할 것이다. 이를 면하기 위해서는 인공지능 설계, 제조자는 그러한 해악을 회피하기 위한 제조물책임 법리에 따른 자신의 주의의무를 다하여야 한다. 그러나, 강한 인공지능이 범죄를 저지른 경우, 우리는 인공지능에게 형사책임을 지우는 것을 생각해 보아야 할 것이다. 이를 위해서는 인간의 의사자유를 전제로 하는 비난가능성이라는 전통적 책임개념의 수정을 고려하여야 한다. 인간으로 하여금 행위를 하게 하는 것은 인간의 의사가 아니라 뇌의 활동(준비전위)이라는 21세기 뇌과학 연구 성과는 인간 중심의 전통적 책임개념에 대한 수정을 제안하였는데, 인간의 의사자유라는 허구적 가정을 제거하고 뇌과학적 사후진단방법을 통해 행위자의 특성과 환경을 고려한 책임과 형벌을 정해야 한다는 것이다. 이는 인간이 아닌 인공지능의 책임과 관련하여 중요한 시사점을 줄 수 있다. 뇌과학에 기초한 새로운 책임이론 하에서, 의사자유가 인정되지 않는 인공지능에게도 책임을 물을 수 있고, 처벌, 응보가 아닌 치료, 개선에 목적을 둔 실효성 있는 형벌제도의 고안이 가능하다. 한편, 인간에 적용되는 기존의 형벌제도의 존엄성을 보존함으로써 인간과 인공지능이 형사사법 체계 하에서 상호 공존할 수 있게 한다.
There are theories for and against criminal liability of artificial intelligence. But, at the time of weak AI, criminal liability of AI is not accepted. The user who gives AI a criminal order should be responsible for the crime committed by AI as an intentional offense. For the results from AI’s malfunction or unexpected action, AI designer/ manufacturer should be responsible as negligence. To exempted from responsibility of negligence, designer/manufacturer should have exert one’s own care under product liability principle to evade harm from AI. But, if strong AI commits a crime, we have to rethink the possibility of criminal liability of AI. For this trial, we have to consider the possibility of change of the concept of a traditional responsibility which is based on the blame under the precondition of human’s free will. But, at 21st century a brain science study found that a brain activity(readiness potential), not a human mind, makes human act, and suggested the change of the traditional concept of human centered responsibility. To sum up the idea, a fictional hypothesis of the existence of human’s ‘free will’ should be evacuated and filled up with a brain scientific ex-post study of responsibility and punishment considering the features and environment of the agent. This new idea could give a hint to the building of criminal liability of AI, not human. Under this new responsibility theory suggested by a brain science, AI without ‘free will’ could take criminal liability and a new and effective punishment for AI, which set a goal of ‘cure and enhancement’ rather than ‘penalty and retribution’, could be designed. Meanwhile, by protecting the dignity of a punishment system for human under a traditional human centered responsibility theory, human and AI could co-exist under a criminal law system.