논문 상세보기

형사절차에서 인공지능 알고리즘의 활용가능성과 그 한계

Artificial Intelligence Algorithms in the Criminal Justice System: A Brief Overview of Potential Uses and Limits

  • 언어KOR
  • URLhttps://db.koreascholar.com/Article/Detail/399007
구독 기관 인증 시 무료 이용이 가능합니다. 5,700원
서울대학교 기술과법센터 (Center for Law & Technology)
초록

인공지능 기술이 발전함에 따라, 과거의 범죄 관련 데이터를 광범위하게 수집ㆍ분석하여 미래의 범죄발생 시간ㆍ장소나 범죄자, 피해자를 예측 하고 특정인의 재범위험성을 예측하는 인공지능 알고리즘이 개발되어 형사절차에 실제로 활용되는 단계에 이르렀다. 이러한 알고리즘의 활용은 수사기관이나 재판기관의 자의적 판단을 방지하고 판단의 객관성과 합리성을 제고하는 방법이 될 수도 있는 반면, 데이터의 오류로 인해 왜곡된 판단이 도출될 가능성, 기존의 편견을 강화ㆍ재생 산할 위험성, 예측의 부정확성, 알고리즘의 작동 방식 비공개로 인한 검증 불가능성, 법관을 비롯한 의사결정주체들이 알고리즘의 판단결과에 지나친 영향을 받을 위험성 등이 문제점으로 지적 된다. 형사절차에서 인공지능 알고리즘의 활용가능성과 한계는 구체적인 형사절차상의 국면에 따라 달리 판단되어야 한다. 인공지능 알고리즘의 예측 결과는 경찰관이 불심검문 대상자 여부를 판단할 때나 법원이 피의자의 인신구속 여부를 판단할 때 근거자료로 활용될 수 있을 것이나, 개별적ㆍ 구체적인 정황 없이 오로지 알고리즘의 예측결과만을 근거로 불심검문을 시행하거나 인신구속을 할 수는 없다고 보아야 한다. 공판절차에서의 유무죄 판단의 경우에는 엄격한 증명의 법리가 적용되는데, 현재 개발ㆍ활용되고 있는 인공지능 예측기술들은 아직 그 이론적 근거나 정확성이 충분히 검증되어 일반적으로 승인되는 수준에 이르렀다고 할 수 없으므로 증거능력을 인정할 수 없다고 보아야 한다. 엄격한 증명의 법리가 적용되지 않는 양형 판단의 경우에는 인공지능 알고리즘에 의한 재범위험성 평가결과를 판단의 근거자 료로 참작할 수 있을 것이나, 이 경우 헌법상 피고인에게 보장되는 법관에 의한 공정한 재판을 받을 권리에 의한 제한을 받는다. 따라서 알고리즘에 의한 자료를 제출할 때는 반드시 알고리즘의 정확성에 대한 검증결과를 함께 제출하게 하여야 하고, 알고리즘의 작동원리를 공개하고 이를 법관과 당사자들이 이해할 수 있는 방식으로 설명하도록 하여야 하며, 알고리즘의 판단결과에 대해 피고인이 실질적으로 반박할 수 있는 기회를 보장하여야 할 것이다. 입법론으로는 인공지능 알고리즘의 형사절차에서의 활용에 관한 기준과 한계를 법령으로 명확하게 정하는 것이 바람직하다.

Advances in Artificial Intelligence(AI) technology have led to the development and widespread use of predictive algorithms in the criminal justice system. While some argue that these algorithms have the potential to prevent arbitrary decision-making by courts and law enforcement agencies, many raise concerns regarding the possibility of inaccurate data leading to distorted results, reenforcement of existing biases, potential inaccuracy of the algorithms, inability to evaluate the algorithms because of their proprietary nature, and decision makers being overly influenced by the algorithms. The legal limits involving the use of AI algorithms in the criminal justice system must be determined differently depending on which of the many different decision-making processes is concerned. Predictions made by AI algorithms may be used by police officers when determining reasonable suspicion to conduct stop-and-frisks, and also by judges when finding probable cause or risk of flight to issue an arrest warrant. Algorithmic predictions alone, however, should not be considered enough either to stop-and-frisk or arrest someone. At the trial stage, rules of evidence prevent algorithmic predictions to be admitted as evidence. Current predictive technology lack the firm theoretical foundation and universal approval required for scientific evidence to be admitted in criminal trials. At sentencing, where the rules of evidence do not apply, recidivism risk assessments made by AI algorithms can be allowed to be introduced as one of many factors a judge may consider. Even here, however, the use of algorithmic predictions is constrained by the defendant’s constitutional right to a fair trial by the judiciary, and should be allowed only when the following conditions are met: an independent evaluation of the accuracy of the algorithm must be provided; the mechanism of the algorithm must be explained to the court and the defendant; and the defendant must be granted an opportunity to challenge the algorithm’s assessment.

목차
요약
I. 서론
II. 형사절차 관련 인공지능 예측기술의 현황과 논란
III. 형사절차에서 인공지능 알고리즘의활용가능성
IV. 결론
저자
  • 김웅재(부산지방법원) | Woongjae Kim