본 연구는 수수를 대상으로 수수 주산지에서 취득한 무인기 기반 RGB영상에 Seg-Net과 U-Net모델을 작성 후, 일반화 가능성을 검토하여 실시간 재배지 파악에 더 효율적인 기법을 제안하기 위해 수행되었다. 경상북도 안동시의 수수 재배지 영상 264장을 이용해 모델학습을 진행하고, 충청북도 제천시 수수 재배지 영상 14장을 이용하여 테스트를 진행하였다. U-Net의 학습은 14epoch, AccuracyC = 0.9426, LossC = 0.1593, Dice_coefC = 0.9223, AccuracyV = 0.6403, LossV = 1.9624, Dice_coefV = 0.6402에 4시간 37분이 소요되었으며, Seg-Net의 학습은 101epoch, AccuracyC = 0.6363, LossC = 0.6573, Dice_coefC = 0.5586, AccuracyV = 0.5711, LossV = 0.6785, Dice_coefV = 0.5586이며 1시간 55분이 소요되었다. Test결과 U-Net은 AccuracyT = 0.6806, LossT = 0.7180, Dice_coefT = 0.5558, Seg-Net은 AccuracyT = 0.7472, LossT = 0.5225, Dice_coefC = 0.6159로 나타났다. Seg-Net의 Calibration성능은 낮지만 일반화 성능이 뛰어나며, 모델의 빠른 학습 시간, 더 낮은 메모리 요구량으로 수수 재배지 분할에서 U-Net보다 효율적인 모델이라고 사료된다.
This study was conducted to propose a more efficient method for real-time cultivation area detection by examining the generalization capability of Seg-Net and U-Net models using UAV-based RGB imagery obtained from major sorghum cultivation areas. A total of 264 sorghum cultivation area images from Andong City, Gyeongsangbuk-do, were used for model training, and 14 images from Jecheon City, Chungcheongbuk-do, were used for testing. U-Net training was performed for 14 epochs, achieving AccuracyC = 0.9426, LossC = 0.1593, Dice_coefC = 0.9223, AccuracyV = 0.6403, LossV = 1.9624, Dice_coefV = 0.6402, with a training time of 4 hours and 37 minutes. Seg-Net training was performed for 101 epochs, achieving AccuracyC = 0.6363, LossC = 0.6573, Dice_coefC = 0.5586, AccuracyV = 0.5711, LossV = 0.6785, Dice_coefV = 0.5586, with a training time of 1 hour and 55 minutes. Test results showed that U-Net achieved AccuracyT = 0.6806, LossT = 0.7180, Dice_coefT = 0.5558, while Seg-Net achieved AccuracyT = 0.7472, LossT = 0.5225, Dice_coefC = 0.6159. Although Seg-Net showed lower calibration performance, it demonstrated superior generalization performance, faster training time, and lower memory requirements, making it a more efficient model for sorghum cultivation area segmentation than U-Net.