This study investigates the effects of digital interface structure on the operational performance of unmanned and manned–unmanned integrated mechanical systems from a human factors perspective. Using case-based comparative analysis, changes in response time, operation error rate, and situational awareness accuracy before and after interface redesign were examined. The results indicate that improvements in interface integration, procedural simplification, and consistency significantly enhance operational performance without modifying mechanical hardware or control algorithms. The study highlights the importance of incorporating human factors engineering into the early design and evaluation stages of complex mechanical systems.
본 연구는 무인기로 촬영한 다중분광 영상으로부터 취득한 반사값을 통해 산출된 식생지수로 콩(Glycine max (L.) Merr.)의 경태를 추정하는 머신러닝 회귀모델 개발을 목표로 한다. 연구 대상은 경상남도 밀양시 국립식량과학원 남부작물부 실험포장에서 2022년 6월 20일과 2023년 6월 24일에 파종한 선풍 품종의 콩이며, 관행구와 처리구로 나누어 재배하였다. 생육조사는 2022년 8월 20일과 9월 20일, 2023년 8월 21일과 9월 25일에 수행하였고, 영상은 2022년 8월 22일과 9월 21일, 2023년 8월 22일과 9월 20일에 촬영하였다. 촬영된 영상으로부터 5가지 반사값을 추출하여 9가지 식생지수를 산출하였다. 모델 구축에는 Ridge Regression (RR)과 LASSO Regression (LR), Random Forest Regression (RFR)과 K-Nearest Neighbor Regression (KNR)을 사용하였고, 단계적 변수 선택법을 사용하였다. 훈련과 검증의 비율은 8:2, 7:3, 6:4로 설정하였고, 모델은 R2, RMSE, MAPE로 평가하였다. 단년차 월별 모델의 경우, 8월과 9월 모두 2023년의 모델이 좋은 모델로 선정되었다. 다년차 월별 모델의 경우, 환경적 조건에 편중되어 군집화 현상이 나타나는 경우(8월)와 통계적으로 유의한 차이가 있음에도 불구하고 군집화 현상이 나타나지 않는 경우(9월)가 확인되었다. 따라서 월별 모델에 비해 성능은 낮지만 군집화가 발생하지 않고, 더 많은 샘플 수를 가진 전체 통합 모델을 최적 모델로 선택하였고, Calibration에서 R2=0.916, RMSE=0.683mm, MAPE=5.644%, Validation에서 R2=0.708, RMSE=1.002mm, MAPE=8.957% 의 성능을 나타내었다.
설악산국립공원에서 무인센서카메라의 효율적인 활용을 위해 종의 분포, 상대풍부도(RAI), 그리고 카메라 운용 일수와 탐지된 종 수 간의 상관관계 를 추정했다. 2020년 7월부터 9월까지 24대의 카메라로 총 1,704 카메라 운용 일수 동안 모니터링한 결과, 설악산에 서식하는 중대형 포유류 10종이 모두 탐지되었다. 오소리(Meles leucurus)는 23개 지점(95.8%)에서, 멧돼지(Sus scrofa)는 22개 지점(91.7%)에서 각각 포착되어 설악산국립 공원 전역에 넓게 분포하고 있음이 확인되었다. 이 두 종은 최초 감지까지의 평균 시간이 가장 짧았고 RAI가 가장 높아, 10종 중에서 가장 쉽게 관찰되는 종임을 시사했다. 멸종위기에 처한 산양(Naemorhedus caudatus)은 24개 지점 중 13개 지점(54.2%)에서 기록되었는데, 신속한 감지와 높은 RAI를 보여 설악산국립공원이 대한민국 내에서 이 종의 핵심 서식지임을 입증했다. 반면, 멧토끼(Lepus coreanus)는 3개 지점에서만 관찰되었다. 멧토끼의 RAI는 낮았으며, 최초 감지까지의 평균 시간이 길어 관찰 확률이 낮았다. G7, G26, G28, G36, G37 조사지점은 7~8종이 관찰되어 높은 종다양성을 보였다. 특히, G7, G26, G28에서는 산양, 삵(Prionailurus bengalensis), 담비(Martes flavigula) 등 3종의 멸종위기종이 탐지되어, 이 지역들이 집중적인 보호가 필요한 생태학적 핵심 구역으로 기능함을 시사했다. 따라서, 이 지역의 효과적인 보호 및 관리를 위해 장기적인 모니터링이 필요하다. 운용 효율성 분석 결과, 24대 카메라의 총 운용 일수 1,704일 중 10종 전체(100%) 탐지에 1,066일이 소요되는 것으로 예측되었다. 24대 카메라로 모니터링할 경우, 카메라당 최소 44.42일이 소요되어야 10종 전체를 감지할 수 있다는 것을 의미한다. 9종(90%)은 10.75일, 8종(80%)은 6.21일이 소요될 것으로 예측했다. 향후 카메라 트랩 모니터링은 카메라 수, 공간적 범위, 종다양성을 고려하여 설계되어야 한다.
Crash risk in metropolitan areas arises from the interaction among driver behavior, enforcement infrastructure, and urban environmental conditions; however, microspatial evidence remains scarce. This study examines the effects of automated speed-enforcement cameras on the crash risk in Seoul at the legal-dong level using the accident risk index, which accounts for both crash frequency and injury severity. The dataset combines crash records, enforcement infrastructure, school-zone information, demographic indicators, and land-use characteristics. Methodologically, a Bayesian negative binomial regression model was employed to address overdispersed crash data, whereas gradient-boosting machine and eXtreme Gradient Boosting models with SHAP interpretations were applied to capture nonlinear effects, heterogeneity, and variable interactions. The results reveal that the crash risk is spatially concentrated, with a small proportion of districts contributing disproportionately to the overall exposure. Regression analysis highlights enforcement and behavioral factors as significant predictors, whereas machine-learning models emphasize the added importance of structural and demographic characteristics, such as road area and floating population. This divergence reflects the sensitivity of the regression to collinearity and linearity assumptions in contrast to the flexibility of tree-based methods in uncovering nonlinear and context-dependent influences. In general, the findings reflect the value of integrating statistical and machine-learning approaches for a more comprehensive understanding of crash risk at the microspatial scale. This study advances the methodological diversity in traffic-safety research and provides practical evidence that cameradeployment strategies should be context sensitive while targeting areas with concentrated risks and distinct structural and demographic profiles.
본 연구는 화장품 무인매장의 서비스품질이 고객만족과 행동의도에 미치는 영향과 신뢰성의 조 절효과를 검증하고자 하고자 화장품 무인매장 방문 경험이 있는 소비자를 대상으로 온라인 설문조사를 실 시하였다. 총 208부의 설문을 SPSS 27.0으로 분석한 결과, 서비스품질 요인 모두가 고객만족과 행동의도에 유의한 영향을 미쳤으며, 고객만족 또한 행동의도에 유의한 영향을 주는 것으로 나타났다. 또한 신뢰성은 고객만족과 행동의도에 직접적인 영향을 미치고, 서비스품질과 고객만족 및 행동의도 간의 관계에서 조절 효과를 보였다. 이러한 결과는 무인매장 운영 시 기능적·경험적 서비스품질과 신뢰성 제고가 고객만족과 행동의도 강화를 위한 핵심 요인임을 시사한다.
본 연구는 백두대간보호지역의 천왕봉에서 묘적령 구간을 대상으로 무인센서카메라를 활용한 우제목 포유류의 상대 적 풍부도 지수에 영향을 미치는 서식지 요인의 구명을 위해 수행되었다. 조사 지역은 공간적 규모가 크고 다양한 서식지 환경을 포함하고 있어 서식지 동질성 분석을 통해 선정된 3km×3km의 격자를 형성하여 30개의 조사구를 대상으로 2021년 4월부터 2023년 12월까지 수행하였다. 서식지 요인과 우제목 포유류의 풍부도 사이의 관계를 분석한 결과 시가화·건조지역의 비율을 비롯하여 나지의 비율, 초지의 비율, 수계의 비율이 영향을 미치는 것으로 도출되었다. 또한, 패치의 평균 크기와 패치 크기의 편차, 패치 크기의 다양성, 패치의 총둘레 길이 역시 우제목 포유류의 풍부도에 영향을 미치는 것으로 나타났다. 조사 지역에서 우제목 포유류의 풍부도는 서식지 내 먹이를 비롯한 물의 가용성과 깊은 관련이 있으며, 서식지의 경관 구조는 종에 따라 차이를 보였다. 이는 종 특이적 행동유형에 따른 서식지 이용에 영향을 받은 것으로 판단된다. 본 연구는 국내에서 산림을 서식지로 활용하는 우제목 포유류의 서식지 이용에 영향을 미치는 서식지 요인의 구명을 통해 우제목 포유류의 관리를 위한 기초 생태자료로서 의미가 높다고 판단된다.
전통적으로 선박은 사람이 탑승하여 조종하였지만 오늘날 선박, 인공지능, 정보통신을 비롯한 과학기술의 발전으로, 사람이 조종하지 않아도 독립적으로 항해하는 자율운항선박이 등장하였다. 그런데 무인잠수항행기기(unmanned under water vehicle)는 자율운항선박이 등장하기 이전부터 해양과학조사와 수 로측량, 해저자원 탐사·개발 등에 사용되었으며, 해양과학과 해양산업의 필수 적인 장비로 사용되고 있다. 무인잠수항행기기는 형태와 기능에 따라 원격조종 잠수정(ROV), 자율운항수중이동체(AUV), 해양글라이더(OG)로 구분되며, 자율운항선박과 마찬가지로 수밀성·부유성, 적재성, 이동성이 있으므로, 수중에서 항 행과 화물수송이 가능하다. 이러한 무인잠수항행기기의 다양한 해양 활동에도 불구하고, 그 법적 지위, 특히 선박성에 대해서는 명확하게 정리되지 못하고 있으며 회색지대(gray zone)에 놓여있다. 현재, 무인잠수항행기기는 원격 또는 자율 수중선박 또는 수중장비로서 해양 과학연구와 해양산업발전의 중요한 수단이 되었다. 이러한 무인잠수항행기기 의 다양한 기능에도 불구하고, 그 법적 지위에 관한 해석이 수행된 사례가 없다. 이 논문에서는 무인잠수항행기기의 법적 지위에 관하여 해양법·해사협약, 국 내법 중심의 문언상 해석과 실무 중심의 기능상 해석을 수행하고, 그 법적 지 위에 관하여 해석론적 결론과 합리적 운용 방안을 제시하고자 한다.
This study investigates a vision-based autonomous landing algorithm using a VTOL-type UAV. VTOL (Vertical Take-Off and Landing) UAVs are hybrid systems that combine the forward flight capability of fixed-wing aircraft with the vertical take-off and landing functionality of multirotors, making them increasingly popular in drone-based industrial applications. Due to the complexity of control during the transition from multirotor mode to fixed-wing mode, many companies rely on commercial software such as ArduPilot. However, when using ArduPilot as-is, the software does not support the velocity-based GUIDED commands commonly used in multirotor systems for vision-based landing. Additionally, the GUIDED mode in VTOL software is designed primarily for fixed-wing operations, meaning its control logic must be modified to enable position-based control in multirotor mode. In this study, we modified the control software to support vision-based landing using a VTOL UAV and validated the proposed algorithm in simulation using GAZEBO. The approach was further verified through real-world experiments using actual hardware.
In this paper, a water rescue mission system was developed for water safety management areas by utilizing unmanned mobility( drone systems) and AI-based visual recognition technology to enable automatic detection and localization of drowning persons, allowing timely response within the golden time. First, we detected suspected human subjects in daytime and nighttime videos, then estimated human skeleton-based poses to extract human features and patterns using LSTM models. After detecting the drowning person, we proposed an algorithm to obtain accurate GPS location information of the drowning person for rescue activities. In our experimental results, the accuracy of the Drown detection rate is 80.1% as F1-Score, and the average error of position estimation is about 0.29 meters.
Ensuring operational safety and reliability in Unmanned Aerial Vehicles (UAVs) necessitates advanced onboard fault detection. This paper presents a novel, mobility-aware multi-sensor health monitoring framework, uniquely fusing visual (camera) and vibration (IMU) data for enhanced near real-time inference of rotor and structural faults. Our approach is tailored for resource-constrained flight controllers (e.g., Pixhawk) without auxiliary hardware, utilizing standard flight logs. Validated on a 40 kg-class UAV with induced rotor damage (10% blade loss) over 100+ minutes of flight, the system demonstrated strong performance: a Multi-Layer Perceptron (MLP) achieved an RMSE of 0.1414 and R² of 0.92 for rotor imbalance, while a Convolutional Neural Network (CNN) detected visual anomalies. Significantly, incorporating UAV mobility context reduced false positives by over 30%. This work demonstrates a practical pathway to deploying sophisticated, lightweight diagnostic models on standard UAV hardware, supporting real-time onboard fault inference and paving the way for more autonomous and resilient health-aware aerial systems.
Anomaly detection technique for the Unmanned Aerial Vehicles (UAVs) is one of the important techniques for ensuring airframe stability. There have been many researches on anomaly detection techniques using deep learning. However, most of research on the anomaly detection techniques are not consider the limited computational processing power and available energy of UAVs. Deep learning model convert to the model compression has significant advantages in terms of computational and energy efficiency for machine learning and deep learning. Therefore, this paper suggests a real-time anomaly detection model for the UAVs, achieved through model compression. The suggested anomaly detection model has three main layers which are a convolutional neural network (CNN) layer, a long short-term memory model (LSTM) layer, and an autoencoder (AE) layer. The suggested anomaly detection model undergoes model compression to increase computational efficiency. The model compression has same level of accuracy to that of the original model while reducing computational processing time of the UAVs. The proposed model can increase the stability of UAVs from a software perspective and is expected to contribute to improving UAVs efficiency through increased available computational capacity from a hardware perspective.
This study evaluated the safety impact of automated traffic enforcement cameras targeting tailgating behavior at signalized intersections by comparing traffic conditions shortly after installation and one year later. The Kukkiwon intersection in Gangnam-gu, Seoul, South Korea was selected as the study site. Individual vehicle speeds, accelerations, and subsequent distances were extracted from video data using YOLOv8 and ByteTrack, which are advanced deep learning-based object detection and tracking algorithms. Surrogate safety measures (SSM), such as time to collision (TTC), modified time to collision (MTTC), and proportion of stopping distance (PSD), were calculated to assess changes in traffic safety. Every SSM indicated an improvement one year after the installation of enforcement cameras, suggesting a reduction in collision risks. In particular, the PSD indicator showed a notable improvement, reflecting a better maintenance of safe following distances. These results highlight the effectiveness of automated enforcement in improving intersection safety and suggest its scalability to other intersections with similar tail-gating issues. Future research should explore the long-term and multisite effects using diverse intersection types and behavioral indicators.