본 연구는 공공서비스 AI가 인권을 침해하는 구조적 메커니즘을 분석하고, 인권기반 거버넌스 모델을 제시하는 것을 목적으로 한다. 공공서비스 AI의 권리 침해는 단순한 기술 결함이 아닌 제도 설계와 운영 과정에서 구조적으로 발생한다. 이에 본 연구는 인권기반접근(HRBA)을 이론적 토대로 삼아, 네덜란드 SyRI와 호주 Robodebt 사례를 비교 분석하였다. 분석 결과, 공공서비스 AI의 인권 침해는 3단계 메커니즘 을 통해 형성되고 누적된다. 첫째, 설계 단계에서 행정 효율성 중심의 목표가 우선되면서 권리 보호 장치가 충분히 내장되지 못한다. 둘째, 운영 단계에서 자동화된 판단이 알 권리와 이의제기권을 실질적으로 약화 시킨다. 셋째, 결과 단계에서 사회경제적 취약 집단에 감시와 제재가 불균형하게 집중된다. 이러한 발견에 기초하여 본 연구는 공공서비스 AI를 국가 권력 행사의 새로운 인프라로 재정의하고, 인권영향평가(HRIA) 를 핵심으로 하는 거버넌스 체계를 제안한다. 이는 기존의 위험기반 규제가 간과한 절차적 권리 보장과 구조적 차별 통제를 통해 공공서비스 AI 거버넌스의 인권적 공백을 보완하는 데 기여한다.
본 연구는 한국과 대만의 인공지능(AI) 거버넌스와 윤리 정책을 비교·분석하고, 그 철학적 함의를 공리주의적 관점에서 규명하는 데 목적이 있다. 한국의 인공지능 정 책은 산업 진흥과 기술 혁신을 핵심 목표로 설정하고, 규제 샌드박스 제도를 중심으 로 빠른 상용화를 촉진하는 경향을 보인다. 반면 대만은 디지털부(Ministry of Digita l Affairs)를 중심으로 시민 참여와 공공 신뢰를 중시하는 참여적 거버넌스 모델을 발전시켜 왔다. 이러한 차이는 양국이 기술 발전과 사회적 윤리의 조화를 어떤 방식 으로 이해하는가를 잘 보여준다. 이론적으로 본 논문은 제러미 벤담과 존 스튜어트 밀의 공리주의 이론을 토대로, 효용의 극대화와 분배 정의의 문제, 행복의 질적 다양 성, 자유의 내재적 가치라는 세 가지 한계를 지적한다. 이를 보완하기 위해 아마르티 아 센과 마사 누스바움의 ‘능력 접근(capabilities approach)’을 결합하여, 인공지능 정책의 윤리적 정당성을 ‘효율성의 크기’가 아닌 ‘자유와 역량의 질’로 평가하는 새로운 기준을 제시한다. 분석 결과, 한국의 인공지능 정책은 산업 중심형 효용 모델, 대만 의 정책은 참여 중심형 역량 모델로 유형화할 수 있으며, 이는 동아시아적 맥락에서 공리주의적 가치와 민주적 숙의의 조화를 탐색하는 중요한 철학적 과제를 제기한다.
본 연구는 중국의 AI 국가 전략이 공공서비스 분야에 미친 영향과 그 이면에 내재 된 윤리적 쟁점을 인문학적 관점에서 분석한다. 중국은 2017년 ‘차세대 인공지능 발 전계획’을 통해 AI를 국가 핵심 기술로 지정하고, 국가 주도형 데이터 통제 및 투자 를 통해 공공서비스의 비약적인 효율성 증대를 달성했다. 스마트시티 및 스마트 복 지 행정 사례는 이러한 기술적 성과를 입증한다. 그러나 중국의 AI 모델은 효율성 증대와 개인의 자유보다 사회 안정과 국가 통제를 우선하는 국가 통제형 윤리 모델 이라는 이중성을 지닌다. 특히 사회신용시스템(SCS)과 같은 감시 시스템은 개인의 프라이버시를 침해하고, 감시 사회화 위험을 내포한다. 따라서 본 논문은 중국 사례 를 통해 효율성 중심의 기술 만능주의를 경계하고 인간 중심의 가치를 최우선으로 하는 민주적 AI 거버넌스 프레임워크 구축의 필요성과 공공소통 방안을 제언한다. 이는 기술 발전이 인간의 존엄성을 훼손하지 않고 공공선에 기여하기 위한 필수적인 인문학적 성찰이다.