반응-확산 모델을 이용한 연속적인 톤의 표현은 형태형성물질의 패턴 형성 방법을 이용한 기법이다. 그레이 스케일의 영상을 형태형성물질의 수학적 모델을 이용해서 이산적인 밝기를 가진 영상으로 변환할 수 있다. 이러한 방법은 영상을 점과 선의 형태로 변환할 수 있게 해주어 다양한 스타일의 영상 렌더링에 사용할 수 있다. 이는 영상의 밝기 정보가 형태형성물질로 변환되고 이를 통해 시뮬레이션을 했을 경우 예측 가능한 결과를 낸다는 가정에서 출발한다. 실제 실험에서는 대체적으로 급격히 변하지 않는 영상 신호에 대해서는 이러한 가정이 잘 들어맞기 때문에 좋은 결과를 나타내지만 영상 신호가 급격히 변화하는 부분에 대해서는 결과 영상에 문제(artifact)가 나타난다. 이는 밝기차이가 급격히 변하는 부분에서 검은 선 형태로 나타나며 이러한 부분은 원영상의 신호와 다른 결과를 낸다고 할 수 있다. 이를 해결하기 위해 본 논문에서는 반응-확산 모델에서 문제를 해결할 수 있는 방법을 도출하고 이를 적용한 새로운 계산 방법을 제시하여 문제를 해결하고자 한다. 제안된 방법에서는 밝기가 급격히 변화하는 부분을 검출하고 이러한 부분에서는 확산이 일어나지 않도록 제어함으로써 해결하였다.
In this paper, we proposed novel continuous tone representational method based reaction-diffusion model. We extended previous related research of hedcut-style rendering by adding controllability to reaction-diffusion based texture generation method. These controls includes pattern size and pattern direction for various style rendering. Our method is comparable with stipping method which can generate artistic style rendering with continuous tone representation of input images. While stippling can show stable tonal results for low density points area, high density region which stipples redundant is suffer from non-linear brightness. On the contrary, our method shows stable tonal results for all brightness spans. We also present anisotropic diffusion for directional pattern generation which can applied to more various style rendering. In this contribution includes mathematical model and results of various style.