The limitation of the current algorithm transparency requirement and way ahead for domestic regulations
인공지능을 적용한 상품이나 서비스가 빠르게 증가하고 있다. 한 연구에 따르면 전 세계적으로 인공지능 관련 시장은 향후 5년간 평균 30% 이 상으로성장할전망이다. 시장성장과함께 인공지 능이 우리 일상에 광범위하게 적용되는 것에 대 한 일반 시민의 걱정과 우려도 점증하고 있다. 단 순히 신기술 출현에 수반되는 기우라고 치부할 수만은 없다. 국내 이루다사건 및 해외 마이크로 소프트사 인공지능 채용시스템 사건 등을 통해서 인공지능을 적용한 상품 또는 서비스가 우리 사 회가 지키고자 하는 가치에 반하고 법률에도 위 반되는 결과를 초래할 수 있음이 드러났기 때문이다. 사회적 우려와 걱정에 대응하기 위해서 입법권 자들은 주로 알고리즘 투명성 강화 법안을 내놓 고 있다. 블랙박스와 같이 결론 도출 과정과 영향요소가 불분명한 인공지능을 해체하여 그 소스코 드를 공개하고 어떻게 특정 결론에 도출하였는지 를 공개하겠다는 것이다. 이런 법안은 막연한 우 려를 불식하는 데 효과가 있을 수 있지만 인공지 능 알고리즘이 우리 사회의 법과 가치를 지키도 록 보장하는 효율적인 방안이 아닐 수도 있다. 아 울러, 영업비밀 침해, 인공지능 시장에서 국제경 쟁력 저하 등 의도치 않은 부작용 역시 낳을 수 있다. 미국, EU 등 선진국의 선행 사례와 알고리즘 투명성 요건의 본질적 한계를 고려할 때 모든 인 공지능 알고리즘에 대해서 일률적인 투명성 요건 을 적용하기보다는 산업별 위험수준에 따라 비례 적인 투명성 요건을 적용하는 것이 합리적인 대 안일것으로보인다. 인공지능의오판단으로인해 침해될 수 있는 가치가 중하거나, 그러한 가능성 이 상대적으로 큰 산업군에 적용하는 인공지능 알고리즘에 대해서는 높은 수준의 투명성을; 위 험이나 가능성이 낮은 산업군에 대해서는 상대적 으로 유연한 투명성을 요구하는 것이다. 이를 실 현하기 위해서 모든 인공지능 사업자 또는 서비 스 제공자로 하여금 알고리즘을 설계하고 구동하 는 데 있어 반영하는 모든 요소와 요인 그리고 그 과정을 항상 기록할 수 있도록 하고, 그 기록을 정해진 기간 동안 보관하여 필요시 철저한 평가 가 가능할 수 있도록 해야 할 것이다.
Products and services taking advantage of artificial intelligence technology have expanded rapidly in recent years. Surveys anticipate that the relevant market will continue to maintain fast growth globally in the near future. Along with market growth, the fear and concern regarding the application of artificial intelligence in our daily lives, have also grown. Such worries, albeit some may be unreasonable, cannot all be deemed groundless. There are real cases in which the application of artificial intelligence has resulted in unintended infringement of human rights. In response to rising civic concern over artificial intelligence, legislators worldwide, including the Republic of Korea, have mainly relied on transparency requirements for companies employing artificial intelligence in their products or services. Because modern algorithms tend to be not only complex and complicated but also somewhat secretive (like black boxes), it is difficult for ordinary users or people to grasp how algorithms work and function. Algorithmic transparency requriemnt is like opening up the black boxes and attempting to better comprehend how an algorithm arrives at a conclusion. However, stringent regulation on algorithmic transparency and openness may have unintended consequences. Such as reverse discrimination of the artificial intelligence industry over other sectors of industry, infringement of trade secrets, and an impediment to research and development. The possible damage to future economic growth and international competitiveness should also be factored in when devising a legal tool to regulate algorithms. In this regard, advance evaluation based on the level of the potential risk of an algorithm, record tracking responsibility, and after-action review based on thorough record track as well as the possible introduction of strict liability to a highly risky algorithm could be a way ahead to reach a harmony between the promotion of benefits and prevention of its potential dangers.