인공지능 기술이 발전함에 따라, 과거의 범죄 관련 데이터를 광범위하게 수집ㆍ분석하여 미래의 범죄발생 시간ㆍ장소나 범죄자, 피해자를 예측 하고 특정인의 재범위험성을 예측하는 인공지능 알고리즘이 개발되어 형사절차에 실제로 활용되는 단계에 이르렀다. 이러한 알고리즘의 활용은 수사기관이나 재판기관의 자의적 판단을 방지하고 판단의 객관성과 합리성을 제고하는 방법이 될 수도 있는 반면, 데이터의 오류로 인해 왜곡된 판단이 도출될 가능성, 기존의 편견을 강화ㆍ재생 산할 위험성, 예측의 부정확성, 알고리즘의 작동 방식 비공개로 인한 검증 불가능성, 법관을 비롯한 의사결정주체들이 알고리즘의 판단결과에 지나친 영향을 받을 위험성 등이 문제점으로 지적 된다. 형사절차에서 인공지능 알고리즘의 활용가능성과 한계는 구체적인 형사절차상의 국면에 따라 달리 판단되어야 한다. 인공지능 알고리즘의 예측 결과는 경찰관이 불심검문 대상자 여부를 판단할 때나 법원이 피의자의 인신구속 여부를 판단할 때 근거자료로 활용될 수 있을 것이나, 개별적ㆍ 구체적인 정황 없이 오로지 알고리즘의 예측결과만을 근거로 불심검문을 시행하거나 인신구속을 할 수는 없다고 보아야 한다. 공판절차에서의 유무죄 판단의 경우에는 엄격한 증명의 법리가 적용되는데, 현재 개발ㆍ활용되고 있는 인공지능 예측기술들은 아직 그 이론적 근거나 정확성이 충분히 검증되어 일반적으로 승인되는 수준에 이르렀다고 할 수 없으므로 증거능력을 인정할 수 없다고 보아야 한다. 엄격한 증명의 법리가 적용되지 않는 양형 판단의 경우에는 인공지능 알고리즘에 의한 재범위험성 평가결과를 판단의 근거자 료로 참작할 수 있을 것이나, 이 경우 헌법상 피고인에게 보장되는 법관에 의한 공정한 재판을 받을 권리에 의한 제한을 받는다. 따라서 알고리즘에 의한 자료를 제출할 때는 반드시 알고리즘의 정확성에 대한 검증결과를 함께 제출하게 하여야 하고, 알고리즘의 작동원리를 공개하고 이를 법관과 당사자들이 이해할 수 있는 방식으로 설명하도록 하여야 하며, 알고리즘의 판단결과에 대해 피고인이 실질적으로 반박할 수 있는 기회를 보장하여야 할 것이다. 입법론으로는 인공지능 알고리즘의 형사절차에서의 활용에 관한 기준과 한계를 법령으로 명확하게 정하는 것이 바람직하다.