인공지능의 형사책임에 대해서는 긍정설과 부정설이 대립하지만, 현재의 약한 인공지능 단계에서는 인공지능의 형사책임은 인정되지 않는다. 사용자가 인공지능에게 범죄를 지시한 경우에는 그 사용자가 고의범으로 책임을 져야 할 것이고, 인공지능의 오작동이나 예상치 못한 행동에 대해서는 인공지능 설계, 제조자가 과실범으로 책임을 져야 할 것이다. 이를 면하기 위해서는 인공지능 설계, 제조자는 그러한 해악을 회피하기 위한 제조물책임 법리에 따른 자신의 주의의무를 다하여야 한다. 그러나, 강한 인공지능이 범죄를 저지른 경우, 우리는 인공지능에게 형사책임을 지우는 것을 생각해 보아야 할 것이다. 이를 위해서는 인간의 의사자유를 전제로 하는 비난가능성이라는 전통적 책임개념의 수정을 고려하여야 한다. 인간으로 하여금 행위를 하게 하는 것은 인간의 의사가 아니라 뇌의 활동(준비전위)이라는 21세기 뇌과학 연구 성과는 인간 중심의 전통적 책임개념에 대한 수정을 제안하였는데, 인간의 의사자유라는 허구적 가정을 제거하고 뇌과학적 사후진단방법을 통해 행위자의 특성과 환경을 고려한 책임과 형벌을 정해야 한다는 것이다. 이는 인간이 아닌 인공지능의 책임과 관련하여 중요한 시사점을 줄 수 있다. 뇌과학에 기초한 새로운 책임이론 하에서, 의사자유가 인정되지 않는 인공지능에게도 책임을 물을 수 있고, 처벌, 응보가 아닌 치료, 개선에 목적을 둔 실효성 있는 형벌제도의 고안이 가능하다. 한편, 인간에 적용되는 기존의 형벌제도의 존엄성을 보존함으로써 인간과 인공지능이 형사사법 체계 하에서 상호 공존할 수 있게 한다.