Research on Legal Countermeasures against Unauthorized Crawling of Competitors
크롤링(Crawling)이란 크롤러(Crawler) 혹은 스파이더(Spider)라고 알려진 로봇을 활용하여 웹페이지를 통째로 다운로드(Bulk Download)하는 시스템을 말한다. 이와 같은 크롤링은 주로 검색엔진에서 인터넷상의 수많은 웹페이지들을 수집하고 색인화하기 위해 사용하는 경우가 일반적 이지만, 최근에는 경쟁사가 구축해놓은 데이터베이스를 빼내어 이를 자신들의 영업활동에 이용하기 위해 크롤링을 활용하는 경우가 종종 발생하고 있다. 이를 방지하기 위한 기술적 조치로서 로봇배제표준(Robot Exclusion Protocol)이 있기는 하나 이는 권고적 기준에 불과하여 실질적으로 경쟁사 로봇의 크롤링을 막을 기술적 방법이 없다. 따라서 피해 회사로서는 법적인 대응방안을 고려해야 하는데, 그 대응방안으로는 ① 저작권법 상 데이터베이스제작자의 권리 침해 주장, ② 부정경쟁방지법 제2조 제1호 카목의 부정경쟁행위 주장, ③ 채무불이행 또는 불법행위로 인한 손해배상청구, ④ 형사 고소가 있다. 이러한 대응방안들과 관련된 법적 쟁점을 본고에서 개괄적으로 살펴보고자 한다.
Crawling refers to a system that uses robots known as ‘Crawler’ or ‘Spider’ to bulk download entire web pages. While crawling is often used primarily by search engines to collect and index numerous web pages on the Internet, it is sometimes used to collect databases from competitor’s webpage. Although there is a ‘Robot Exclusion Protocol’ as a technical measure to prevent such activity, it is only a voluntary standard and there is virtually no technical way to prevent competitor’s robot from crawling the company’s web pages. Therefore, the company should consider legal countermeasures which are, ① Claims of infringement of ‘Rights of database producers’ under the Copyright Act, ② Claims of ‘Act of unfair competition’ under the Unfair Competition Prevention and Trade Secret Protection Act(UCPA) Article 2(1)(k), ③ Claims of damages based on contract or tort and ④ Complaint for criminal offenses. This paper aims to review legal issues related to such countermeasures.