본 연구의 목적은 무인기 정사영상 정보를 활용하여 초미세 고해상도 3차원 공간 모델을 구축하고, 구축된 모델을 이용하여 개체목의 수고와 흉고직경을 추정하는 기술을 분석하고자 하였다. 이를 위해 경상북도 봉화군 일대 잣나무 조림지를 대상으로 무인기 정사영상을 촬영하였으며, SfM 기술을 이용해 촬영영상에 대한 3차원 수고 모델을 추출하였다. 유역분류 알고리즘을 이용해 개체목을 선별·추출하였고, 개체목별 수관면적에 따른 흉고직경을 추정하였다. 본 연구 결과에 의하면, 추출된 수고모델과 현장에서 측정한 수고는 평균 제곱근 편차에서 1.492m (R2 = 0.3401) 차이를 보였으며, 오차율이 가장 적은 수고모델 추출 방법은 지형분석지점 사양이 각도 20°, 이격거리 1m, 격자크기 60m 이었다. 개체목 추출율은 75.4% 이었으며, 수고가 높은 우세목의 추출율은 85.2% 이상이었다. 추출된 개체목의 수관면적과 흉고직경의 상관성은 두 변수 사이에 유의 수준(P<0.01)에서 상관관계가 있었으며, 적합도 77.05% 수준에서 수관면적이 커질수록 흉고직경도 증가하는 추세를 확인할 수 있었다.
본 연구에서는 변량방제기술을 적용한 농용 회전익기를 이용하여 살포한 입자의 구간비행 상태에서의 거리별 살포 패턴을 측정함으로써 무인 항공방제의 농약 부착률과 입자경의 분포 균일도를 평가하였다. 비행을 등속으로 유지하는 안내비행과 자동비행 모드에서 유효살포폭 3.6m로 인접비행 구간과 살포폭이 일부 중첩된 피복률에 대한 가로방향 분포의 변이계수는 30% 정도를 보였고, 비행방향 진로위치에 대한 피복률의 변이계수는 10% 미만으로 매우 균등한 것으로 평가되었다. 따라서 살포작업시 기체의 지면속도(ground speed)의 변이를 보상하는 변량살포기술은 균일도 측면에서 우수한 것으로 판명되었으며, 또한 입자경의 분포에 있어서 체적중위직경(VMD)과 개체중위직경(NMD) 모두 항공방제에 적절한 크기와 균일한 분포를 보였다. 따라서 농용 회전익기를 이용하여 소필지의 항공방제작업을 무인화 하는 데 있어, 변량방제장치를 적용함으로써 소규모 필지의 균일 정밀방제를 도모하고자 하였다.
data. Recent developments in unmanned aerial vehicle (UAV) technology provide cost effective and real time applications for site specific data collection. For the mapping of herbage biomass (BM) on a hill pasture, we tested a UAV system with digital cameras (visible and near-infrared (NIR) camera). The field measurements were conducted on the grazing hill pasture at Hanwoo Improvement Office, Seosan City, Chungcheongnam-do Province, Korea on May 17 and June 27, 2014. Plant samples were obtained from 28 sites. A UAV system was used to obtain aerial photos from a height of approximately 50 m (approximately 30 cm spatial resolution). Normalized digital number (DN) values of Red and NIR channels were extracted from the aerial photos and a normalized differential vegetation index using DN (NDVIdn) was calculated. The results show that the correlation coefficient between BM and NDVIdn was 0.88. For the precision management of hilly grazing pastures, UAV monitoring systems can be a quick and cost effective tool to obtain site-specific herbage BM data.
최근 무인 항공기(UAV: Unmanned Aircraft Vehicle)의 활용범위가 넓어짐에 따라 다양한 형태의 무인 비행체 센서 가 개발되고 있으며 이를 활용한 국내·외 연구가 활발히 진행되고 있다. 본 연구에서는 UAV를 이용하여 촬영한 디 지털 영상의 공간해상도 및 정확도를 분석하여 식생조사에 서 무인항공사진촬영 시스템의 적용 가능성을 검토하였다. 사용된 기체는 미국 DJI사에서 제작된 S1000 기종을 이용 하였으며 고해상도 영상 촬영을 위해 RGB Camera(SONY, NEX-7)와 UAV 용 다중분광센서(Tetracam, Mini-MCA6) 를 활용하였다. 대상지는 하천생태계 교란 유해 식물인 가 시박(Sicyos angulatus)이 분포하고 있는 지역(안동시, 송내 천)을 선정하여 비행고도 150m에서 하천을 따라 500m 구 간을 촬영하였다. 촬영결과 공간해상도 3cm급 정사영상을 취득할 수 있었으며 촬영된 영상은 가시박의 개체 수준까지 파악 할 수 있었다. 이는 생태계 교란 식물의 관리 전후의 분포변화를 파악하여 관리 유형별 효과를 평가하는데 이용 가능 할 것으로 판단된다. 한편 다중분광센서를 통한 수종 분류의 가능성 여부를 알아보기 위하여 비교적 다양한 임분 을 형성하고 있는 인공식생지(국립생태원, 50m×50m)를 선 정하여 촬영하였다. 연구에 사용된 다중분광센서는 주요 파 장대별로 총 6개의(490FS10-25, 550FS10-25, 680FS10-25, 720FS10-25, 800FS10-25, 900FS20-25) 영상취득이 가능 하며 촬영된 다중분광 영상의 DN값으로 무감독 분류를 실 시하였다. 분석결과 침엽수종과 활엽수종에 대하여 80%의 분류정확도를 얻을 수 있었으며 향 후 다양한 파장대별 영 상 취득 및 분류기법을 적용하여 분류정확도를 향상 시킬 수 있을 것으로 판단된다. 무인항공촬영 시스템을 식생현황 파악에 적용한 결과, 신 속하고 정밀한 자료취득이 가능하며 특히 차량진입이 힘들 거나 육안조사가 어려운 지역의 식생조사, 특정 식생에 대 한 모니터링에 활용 가능할 것으로 판단된다.
Flight of an autonomous unmanned aerial vehicle (UAV) generally consists of four steps; take-off, ascent, descent, and finally landing. Among them, autonomous landing is a challenging task due to high risks and reliability problem. In case the landing site where the UAV is supposed to land is moving or oscillating, the situation becomes more unpredictable and it is far more difficult than landing on a stationary site. For these reasons, the accurate and precise control is required for an autonomous landing system of a UAV on top of a moving vehicle which is rolling or oscillating while moving. In this paper, a vision-only based landing algorithm using dynamic gimbal control is proposed. The conventional camera systems which are applied to the previous studies are fixed as downward facing or forward facing. The main disadvantage of these system is a narrow field of view (FOV). By controlling the gimbal to track the target dynamically, this problem can be ameliorated. Furthermore, the system helps the UAV follow the target faster than using only a fixed camera. With the artificial tag on a landing pad, the relative position and orientation of the UAV are acquired, and those estimated poses are used for gimbal control and UAV control for safe and stable landing on a moving vehicle. The outdoor experimental results show that this vision-based algorithm performs fairly well and can be applied to real situations.