2030년 무렵 인공지능(AI) 분야에서 세계의 리더가 되고자 하는 목표의 일환으로, 중국 국무원은 2017년에 ‘차세대 인공지능 개발 계획’을 발표하였다. 본 논문은 AI 연구 및 개발과 관련한 중국의 현재 위치를 조명하고, 중국의 AI 거버넌스 및 윤리 원칙들에 대한 맥락적인 이해를 시도하는 것을 목표로 한다. 이를 위해 2장은 중국 이 꿈꾸는 ‘AI굴기’라는 야망을 실현하기 위해 현재 중국이 AI 분야에서 도달해 있 는 지점을 살펴본다. 연구자는 비록 중국이 AI 연구와 개발에서 국가적 차원의 노력 을 통해 상당한 기술적 수준에 도달해 있지만, 아직 가야할 길이 남아 있음을 주장 한다. 3장은 AI를 위해 중국 정부와 기업 그리고 학계가 제시하고 있는 AI 관련 윤 리 원칙들과 규범들의 특징을 조명한다. 이를 위해 연구자는 EU의 AI 윤리 원칙을 상호 비교하면서 중국의 AI 윤리 원칙의 성격과 특징을 드러낸다. 이 과정에서 본 논문은 중국 정부는 AI가 가져다 줄 잠재적 이익들과 AI로 인한 위험들과 이에 대 한 도전들을 인지하고 있지만, 이러한 요인들의 상호작용에서 정부의 이익과 공공의 보안을 그 중심에 두고 있음을 주장한다. 자연스럽게 4장에서 연구자는 이러한 중국 정부의 이익을 위한 AI의 활용이 초래할 우려들과 현재 목격되는 부작용들을 ‘감시 국가를 위한 AI의 기술적 활용’으로 규정하고, 그 실태를 살펴본다. 연구자는 중국의 AI 거버넌스가 전 세계적인 신뢰를 얻고, 다른 나라들과의 바람직한 협력을 구축할 수 있는 방향으로 나아갈 때, 진정한 AI 리더 국가로서 그 보편성을 획득할 수 있음 을 결론을 통해 주장하며 본 연구를 마무리 한다.
제4차 산업혁명이 시작되면서 주목받기 시작한 인공지능은 선박에도 적용되 어 자율운항선박 개발이 진행되고 있다. 자율운항선박은 선원의 승선유무와 원 격조종자의 조종여부에 따라 총 4단계로 구분되며, 완전자율운항선박은 인간의 개입 없이 설계자가 설계한 알고리즘에 따라 최적의 결정을 내리게 된다. 그러 나 인공지능의 자율성과 예측곤란성이라는 특징으로 인하여 완전자율운항선박 의 결정이 예측하기 어려우며 이러한 결정이 항상 윤리적이라고 기대하기 어렵 다. 그러나 인공지능의 예측불가능성을 인공지능의 자율성에 의존해서는 안되므로 인간의 가치가 반영된 인공지능의 알고리즘이 설계되어야 한다. 특히, 충 돌의 위험을 피할 수 없는 상황에서 인공지능이 어떠한 원칙과 기준에 따라 결 정을 내리는 것인지 이러한 과정을 결정하는 사고 알고리즘에 대해 설명가능하 고 이러한 결정이 사회 구성원들에게 합리적으로 받아들여져야 한다.
이와 같은 인공지능의 윤리문제에 대한 논의는 자율주행자동차 분야에서 가 장 활발하게 이루어지고 있다. 그러나 인간의 가치가 일관성과 보편성을 가지 기 어렵다는 한계가 있다. 특히, 윤리적 딜레마 상황에서는 ‘실천이성의 이중성’ 으로 인하여 이성적이며 윤리적인 판단과는 다른 결정을 내리게 되며, 윤리적 이라는 행동에 대한 기준 역시 지역·문화·경제 상황에 따라 다르게 인식하고 있다. 그 결과 인공지능의 윤리적 가이드라인의 필요성에 대해 인식하면서도 사고 알고리즘에 대한 구체적인 기준을 정립하는 것에 대해서는 회의적이다. 자율주행자동차의 윤리적 딜레마 상황을 예견하여 사용과정에서 발생하게 될 현실적인 문제를 완벽하게 대응할 수 없다는 것이다. 그러나 문제가 발생한 이 후 대응책을 마련한다는 것은 현실적으로 발생한 피해를 구제하기 위한 조치일 뿐 근본적인 문제를 해결하는 방법이 아니다. 특히, 전 세계 해역을 운항하는 자율운항선박은 전 세계 구성원들에게 합리적으로 받아들여지는 결정을 내려 야 한다. 따라서 국제해사기구를 중심으로 자율운항선박과 관계된 사고 알고리 즘을 포함한 윤리적 가이드라인을 마련하고 이를 개별국가에서 정책적으로 반 영함으로써 자율운항선박 개발 단계부터 사용단계에 이르는 전 과정에서 프로 그램 개발자와 이해관계자가 윤리규범을 준수하고, 축적된 정보를 기초로 보완 작업을 통해 자율운항선박의 윤리문제에 대응해 나가야 할 것이다.