방대한 빅데이터를 기반으로 발전한 인공지능 기술은 창작과 영상 예술, 인간의 고유 영역으로 여겨졌던 분야에 큰 영향을 미치기 시작했다. 전통적으로 선형적이었던 3D 애니메이션 제작 방식은 AI 이미지 생성 모델을 활용해 초기 기획, 컨셉 및 아이디어를 빠르게 비주얼화하고, 실시간 게임 엔진을 통해 실시간으로 수정 및 개선 작업을 반복하며 완성도를 높이는 비선형 적 방식으로 변화하고 있다. 본 논문에서는 Stable Diffusion의 노드 기반 비주얼 스크립트인 ComfyUI를 활용한 사전 제작 과정과 iClone 및 언리얼 엔진을 통해 디지털 휴먼을 제작하고 구체화하는 일련의 파이프라인을 분석한다. 이를 통해 전통적인 파이프라인을 넘어서는 새로운 예술적 표현의 가능성을 모색한다.
Tomato is one of the major widely cultivated crops around the world. The leaf area is directly related to the total amount of photosynthesis, which affects the yield and quality of the fruit. Traditional methods of measuring the leaf area are time-consuming and can cause damage to the leaves. To address these problems, various studies are being conducted for measuring the leaf area. In this study, we introduced a model to estimate the leaf area using images of tomatoes. Using images captured by a camera, we measured the leaf length and width and used linear regression analysis to derive the leaf area estimation formula. Furthermore, we used a Neural Network (NN) for additional analysis to compare the accuracy of the models. Initially, to verify the reliability of the image data, we conducted a correlation analysis between the actual measurement data and the image data, which showed a high positive correlation. The leaf area estimation model presented 23 estimation formulas. We used regression analysis to estimate the coefficients of each model and also used employed an artificial neural network analysis to derive high R-squared (R2) values and low Root Mean Square Error (RMSE) values. Among the estimation formulas, the ninth model showed the highest reliability with an R-squared value of 0.863. We conducted a verification experiment to confirm the accuracy of the selected model, and the R-squared value was 0.925. This study confirmed the reliability of data measured from images and the reliability of the leaf area estimation model using image data. These methods are expected to be an important tool in agriculture, using imaging equipment for measuring and monitoring the crop growth.
본 논문은 AI와 시각, 컴퓨터비전과 이미지의 관계를 비평적 관점에서 논하고 있다. 초대형 IT기업들은 빠짐없이 AI의 기계학습을 위한 컴퓨터비전의 개발에 앞장서면서 이미지의 입력을 통해 세상의 정보를 데이터베이스의 형태로 집적하고 있다. 컴퓨터비전의 분야는 ‘비전’이라는 단어가 가리키듯 인간의 시각과 컴퓨터의 시각데이터집적과정을 비유하지만, 실제로는 기계적이고 알고리즘화된 인간의 시각과는 전혀 별개의 성질을 갖는다. 기계에 정보를 제공하는 기계학 습을 위한 이미지의 모음인 이미지 데이터셋은 AI의 성능개발에 핵심적인데, 온라인상의 이미지가 무작위로 사용되거나 학습과정에서 사회적 차별이나 편견이 그대로 반영될 가능성이 높은 것 으로 경계가 필요하다. AI와 예술의 접목에서는 주로 생성적 적대 신경망을 사용하여 기존의 미술품을 학습한 후 이와 유사하지만 다른 이미지를 만들어내는 방식이 다용되고 있다. 컴퓨터비전 이 시각과 차이가 있듯, AI 미술이 기존 예술의 일부로 흡수되기 위해서는 새로운 기준들이 필요할 것이다.
최근 인공지능에 대중의 관심으로 인해, 인공신경망을 사용한 의료영상 처리가 학계와 산업계에서 관심이 커져가고 있다. 딥러닝을 이용한 컨볼루션 신경망은 영상을 효과적으로 표현할 수 있는 것으로 증명되었다. 그러나 학습을 위해서는 고성능 H/W 플랫폼이 요구된다. 따라서 고차원의 많은 학습 샘플을 저사양 H/W 플랫폼에서 학습하는 것은 매우 도전적인 문제이다. 본 논문에서는 온라인 인공 신경망을 사용해 라즈베리파이에서 동작할 수 있는 실시간 신경망 알고리즘을 제안하고자 한다. 다양한 실험 결과를 통해 제안된 방법은 실시간 학습이 가능함을 보여주었다.
본 연구에서는 최대우도법과 인공신경망 모형에 의해 카테고리 분류를 수행하고 각각의 분류 성능을 비교 평가하였다. 인공신경망 모형은 오류역전파 알고리즘을 이용한 것으로서 학습을 통한 은닉층의 최적노드수를 결정하여 카테고리 분류를 수행하도록 하였다. 인공신경망 최적 모형은 입력층의 노드수가 7개, 은닉층의 최적노드수가 18개, 그리고 출력층의 노드수가 5개인 것으로 구성하였다. 위성영상은 1996년에 촬영된 Landsat TM-5 영상을 사용하였고, 최대우도법과 인공신경망 모형에 의한 카테고리 분류를 위하여 각각의 카테고리에 대한 분광특성을 대표하는 지역을 절취하였다. 분류 정확도는 인공신경망 모형에 의한 방법이 90%, 최대우도법이 83%로서, 인공신경망 모형의 분류 성능이 뛰어난 것으로 나타났다. 카테고리 분류 항목인 토지 피복 상태에 따른 분류는 두 가지 방법에서 밭과 주거지의 분류오차가 큰 것으로 나타났다. 특히, 최대우도법에 의한 밭에서의 태만오차는 62.6%로서 매우 큰 값을 보였다. 이는 밭이나 주거지의 특성이 위성 영상 촬영시기에 따라 나지의 형태로 분류되거나 산림, 또는 논으로도 분류되는 경향이 있기 때문인 것으로 보인다. 차후에 카테고리 분류를 위한 각각의 클래스의 보조적인 정보를 추가한다면, 카테고리 분류 향상이 이루어질 것으로 기대된다.