본 논문에서 온라인 쇼핑몰에 적용을 목적으로 2차원 이미지에 기반한 가상 의상 착용 알고리즘을 설계하고 개발하였다. 기존의 가상착용 시스템은 3차원 의상 및 사용자 정보에 기반하여 비용과 시간이 많이 들어가는 문제를 가지고 있다. 본 시스템은 최근 급격히 발전된 딥러닝기술과 컴퓨터 그래픽스 기술을 활용한다. 우선, 패션영상을 시멘틱 분할 네트워크를 사용하여 옷과 신체를 영상분할하고, 자세 네트워크를 사용하여 의상과 사용자의 골격정보를 확보한다. 이 두 가지 정보를 바탕으로 의상의 골격위치와 사용자의 골격위치를 일치시킴으로서 변형에 필요한 변수를 확보하고 이를 바탕으로 영상 변형을 하여 가상착용을 수행한다. 실험결과 단순한 기하형태의 옷과 선 자세를 유지하는 패션사진과 사용자사진의 경우 만족스러운 변형 결과를 얻을 수 있었으나 다양한 의상의 형태나 자세를 갖는 경우 원만한 착용결과를 얻을 수 없었다. 완벽한 시스템은 존재할 수 없으므로 현재 기술로 적용 가능한 의상의 범위와 문제 상황을 자세히 분석하여. 이를 바탕으로 추후 연구를 방향을 설정할 수 있도록 하였다.
개인별 신체 특성을 나타내는 가상피팅모델을 이용하여 제공되는 가상 착용 서비스는 웹을 기반으로 한 인터넷 의류 쇼핑의 흥미를 더해준다. 본 연구의 연구자들은 2000년과 2002년에 개발된 미국의 가상피팅모델과 국내에서 개발되었던 가상피팅모델의 개발 기술의 특성과 변화를 분석하였다. 연구결과는 가상피팅모델의 구축을 위해서는 인체의 치수, 형태, 얼굴의 특징들에 관한 정보 입력이 필요하며, 이때 요구되는 정보는 미국과 한국의 사이트에서 차이가 있음을 밝혔다. 미국의 사이트는 정면이나 측면의 실루엣에 대한 정보의 입력이 요구되는 반면 한국의 사이트는 더 많은 인체 치수 관련 정보를 요구하였다. 2000년에 개발되었던 한국의 가상피팅모델은 길고 좁은 프로포션으로 표현되어 사실적인 표현이 부족하였던 반면 2002년 미국에서 개발한 가상피팅모델은 다양한 인종의 특성을 반영하며, 그래픽 기술의 발전으로 사실적으로 표현된 가상피팅모델을 제공하는 것으로 나타났다.