This study presents a truck classification method using panoramic side-view images to meet the Ministry of Land, Infrastructure and Transport’s 12-category standard (types 4–12). The system captures a vehicle’s full side profile via a panoramic imaging device, ensuring complete wheel visibility. A YOLOv12-based deep learning model detects wheels, and image processing extracts their center coordinates. Pixel distances between adjacent wheels are calculated and normalized to determine axle spacing patterns, which, together with wheel count, are applied to a rule-based classifier. Tests on 1,200 real-world panoramic truck images (1,000 for training, 200 for testing) achieved a mean average precision of 96.1% for wheel detection and 90.5% overall classification accuracy. The method offers explainable classification through measurable structural features, supporting applications in smart tolling, road usage billing, overloading enforcement, and autonomous vehicle perception.
Passive acoustic monitoring (PAM) has emerged as an effective tool for studying underwater soundscapes and monitoring marine organisms. In this study, the biological sounds of three fish species that mainly inhabit or occur in the Korean coastal oceans, brown croaker (Miichthys miiuy), Pacific cod (Gadus macrocephalus), and small yellow croaker (Larimichthys polyactis) were recorded using the PAM method. The possibility of automatic classification was evaluated using a deep learning-based convolutional neural network (CNN) model based on the measured data. The biological fish sounds were recorded using hydrophones in the sea cage environments. The three fish species data were converted into spectrogram images and used as input for training and evaluating the CNN model. Gaussian noise was added to the test data to simulate low signal-to-noise ratio (SNR) environments. The model achieved high classification performance, with F1-score of about 96% on raw data and about 77% accuracy under signal-to-noise ratio conditions. These results suggest that CNN-based models be adequate for fish sound classification, even in acoustically complex underwater environments. Applying CNN models to classify and detect fish sounds can improve the automation and efficiency of PAM-based acoustic analysis, thereby improving the monitoring of fish populations, resource assessment, and ecological management in the future.
Fault detection in electromechanical systems plays a significant role in product quality and manufacturing efficiency during the transition to smart manufacturing. Because collecting a sufficient number of datasets under faulty conditions of the system is challenging in practical industrial sites, unsupervised fault detection methods are mainly used. Although fault datasets accumulate during machine operation, it is not straightforward to utilize the information it contains for fault detection after the deep learning model has been trained in an unsupervised manner. However, the information in fault datasets is expected to significantly contribute to fault detection. In this regard, this study aims to validate the effectiveness of the transition from unsupervised to supervised learning as fault datasets gradually accumulate through continuous machine operation. We also focus on experimentally analyzing how changes in the learning paradigm of the deep learning model and the output representation affect fault detection performance. The results demonstrate that, with a small number of fault datasets, a supervised model with continuous outputs as a regression problem showed better fault detection performance than the original model with one-hot encoded outputs (as a classification problem).
This study proposes a real-time content design pipeline optimized for Unreal Engine, integrating generative AI-based image creation with AI-assisted 3D modeling tools. The pipeline aims to streamline the production of high-quality assets for real-time applications, including games and simulations. Two types of subjects were selected: a bust combining organic character features, and a stone slab characterized by planar and symmetrical structure. Multi-angle image data were first synthesized using advanced generative AI models to simulate diverse viewpoints. These were then processed using AI-enhanced photogrammetry and modeling tools to reconstruct detailed 3D meshes and extract base textures. Post-processing steps, including mesh decimation, UV unwrapping, and texture baking, were performed to ensure compatibility with Physically Based Rendering (PBR) workflows used in Unreal Engine. The final assets were successfully imported into Unreal Engine, demonstrating visual fidelity and performance suitability in a real-time environment. The study confirms the pipeline’s potential for accelerating asset development and suggests promising future directions in AI-driven digital content creation.
선박에는 단열을 위한 발포제가 적용된다. 기존의 발포제에는 지구온난화물질인 수소불화탄소(HFC)를 다량 포함하고 있는 문제점이 있으며, 우리나라는 몬트리올 의정서의 ‘키칼리 개정서’를 채택함에 따라 HFC를 ‘24년부터 ’45년까지 기준 수량의 80% 감 축하기로 결정되었다. 이에, 메틸포메이트 원료는 지구온난화지수가 0(HFC는 960~1,430)으로 향후 친환경발포제로 높은 기대를 갖고 있다. 하지만, 메틸포메이트 발포제의 성능은 원료의 순도 및 주변환경에 높은 영향을 받음으로 각 공정환경에 대한 정확한 분류가 필요하다. 이에, 본 논문에서는 주변환경(온도)과 메틸포메이트 순도에 따라, 총 4개의 케이스를 만들었다. 각 케이스에 대해서 10,010 장의 이미지를 학습하고, 이를 구글넷(GoogLeNet)알고리즘을 이용하여 분류하였다. 분류결과 정확도는 96.8%를 갖고, F1-Score는 0.969 를 갖는 것으로 계산하였다.
Today, as the social demand for tap water safety and the need for an ICT-based intelligent integrated control system increase, K-water (Korea Water Resources Corporation) is building and operating a ‘Water pipe monitoring CCTV system’ to quickly respond to crises in the event of a water leak. However, in the case of the existing system, when the CCTV rotates, the image information and the mapped water pipe image do net match, so the operator has the limitation that the water pipe image must be mapped anew every time. In this paper, in odert to solve the above problems, we propose an improved system that can extract feature points from CCTV images, detect changes in the coordinate values of the feature points, and automatically transform the location of the water pipe image by utilizing LoFTR (Detector-Free Local Feature Matching with Transformer), a type of deep learning image matching algorithm that is actively being studied in th field of the latest computer vision, and examine its effectiveness.
최근 광주 화정아이파크, 인천 검단 신도시 아파트 사고 등 국내에서 건축물 안전사고가 잇따라 발 생하고 있다. 시공 중 발생한 구조물 붕괴로 인해 인명·재산 피해가 수반된 대형 건설사고가 다수 발 생하였다. 건축물 안전사고의 발생 원인으로 무단 구조변경, 설계 및 시공 시 철근 누락 등이 제시되 면서 부실 감리에 대한 우려가 증가하고 있다. 하지만 현실적으로 건설 현장의 모든 장소에서 감리직 원이 상주하며 확인하는 것은 불가능하며 시공 정확도 검사 역시 감리자의 경험에 근거하여 육안 판 독 및 일부 수작업 계측으로 진행되고 있다. 감리 작업의 효율성을 높이기 위해 최근에는 3D 스캐너, Depth Camera 등을 구조 감리 기법 연구가 진행되고 있다. 철근 길이와 철근 배근 간격에 대한 연구 는 많이 진행되었지만 철근 직경의 검출 정확도는 아직 미흡한 상황이며, 특히 직경이 작은 D10과 D13의 구별에서는 한계를 나타내고 있다. 따라서 본 연구에서는 접근성이 용이한 스마트폰을 사용하 여 영상을 획득하고 이를 기반으로 3D 포인트 클라우드를 제가한 다음 철근 직경, 철근 길이, 철근 배근 간격 등의 자동 검측 기술을 개발하고 건설현장에서의 적용 가능성을 확인하고자 한다. 검증을 위한 실험체는 길이 2100mm, 폭 195mm, 높이 395mm의 철근 조립 상태의 보이다. 포인트 클라우드 제작을 위한 영상 촬영은 iPhone SE (3rd generation)을 사용하였다. 이후 MATLAB과 METASHAPE 를 사용하여 포인트 클라우드를 생성하고 Computer Vision과 Image Processing 기술을 활용하여 구 하고자 하는 철근 정보를 자동 검출하였다. 이후 실제 측정한 값과 자동 검출한 값을 비교하여 개발한 기법에 대한 적합성을 확인하였다.
본 논문에서는 역학적 변수들을 측정하는 방안으로 디지털 이미지 프로세싱과 강형식 기반의 MLS 차분법을 융합한 DIP-MLS 시 험법을 소개하고 추적점의 위치와 이미지 해상도에 대한 영향을 분석하였다. 이 방법은 디지털 이미지 프로세싱을 통해 시료에 부착 된 표적의 변위 값을 측정하고 이를 절점만 사용하는 MLS 차분법 모델의 절점 변위로 분배하여 대상 물체의 응력, 변형률과 같은 역 학적 변수를 계산한다. 디지털 이미지 프로세싱을 통해서 표적의 무게중심 점의 변위를 측정하기 위한 효과적인 방안을 제시하였다. 이미지 기반의 표적 변위를 이용한 MLS 차분법의 역학적 변수의 계산은 정확한 시험체의 변위 이력을 취득하고 정형성이 부족한 추 적 점들의 변위를 이용해 mesh나 grid의 제약 없이 임의의 위치에서 역학적 변수를 쉽게 계산할 수 있다. 개발된 시험법은 고무 보의 3 점 휨 실험을 대상으로 센서의 계측 결과와 DIP-MLS 시험법의 결과를 비교하고, 추가적으로 MLS 차분법만으로 시뮬레이션한 수치 해석 결과와도 비교하여 검증하였다. 이를 통해 개발된 기법이 대변형 이전까지의 단계에서 실제 시험을 정확히 모사하고 수치해석 결과와도 잘 일치하는 것을 확인하였다. 또한, 모서리 점을 추가한 46개의 추적점을 DIP-MLS 시험법에 적용하고 표적의 내부 점만을 이용한 경우와 비교하여 경계 점의 영향을 분석하였고 이 시험법을 위한 최적의 이미지 해상도를 제시하였다. 이를 통해 직접 실험이 나 기존의 요소망 기반 시뮬레이션의 부족한 점을 효율적으로 보완하는 한편, 실험-시뮬레이션 과정의 디지털화가 상당한 수준까지 가능하다는 것을 보여주었다.
Tomato is one of the major widely cultivated crops around the world. The leaf area is directly related to the total amount of photosynthesis, which affects the yield and quality of the fruit. Traditional methods of measuring the leaf area are time-consuming and can cause damage to the leaves. To address these problems, various studies are being conducted for measuring the leaf area. In this study, we introduced a model to estimate the leaf area using images of tomatoes. Using images captured by a camera, we measured the leaf length and width and used linear regression analysis to derive the leaf area estimation formula. Furthermore, we used a Neural Network (NN) for additional analysis to compare the accuracy of the models. Initially, to verify the reliability of the image data, we conducted a correlation analysis between the actual measurement data and the image data, which showed a high positive correlation. The leaf area estimation model presented 23 estimation formulas. We used regression analysis to estimate the coefficients of each model and also used employed an artificial neural network analysis to derive high R-squared (R2) values and low Root Mean Square Error (RMSE) values. Among the estimation formulas, the ninth model showed the highest reliability with an R-squared value of 0.863. We conducted a verification experiment to confirm the accuracy of the selected model, and the R-squared value was 0.925. This study confirmed the reliability of data measured from images and the reliability of the leaf area estimation model using image data. These methods are expected to be an important tool in agriculture, using imaging equipment for measuring and monitoring the crop growth.
선박은 화물 운송의 효율을 증대시키기 위해 대형화되는 추세이다. 선박 대형화는 선박 작업자의 이동시간 증가, 업무 강도 증가 및 작업 효율 저하 등으로 이어진다. 작업 업무 강도 증가 등의 문제는 젊은 세대의 고강도 노동 기피 현상과 맞물러 젊은 세대의 노동력 유 입을 감소시키고 있다. 또한 급속한 인구 노령화도 젊은 세대의 노동력 유입 감소와 복합적으로 작용하면서 해양산업 분야의 인력 부족 문 제는 극심해지는 추세이다. 해양산업 분야는 인력 부족 문제를 극복하기 위해 지능형 생산설계 플랫폼, 스마트 생산 운영관리 시스템 등의 기술을 도입하고 있으며, 스마트 자율물류 시스템도 이러한 기술 중의 하나이다. 스마트 자율물류 시스템은 각종 물품들을 지능형 이동로봇 을 활용하여 전달하는 기술로서 라이다, 카메라 등의 센서를 활용해 로봇 스스로 주행이 가능하도록 하는 것이다. 이에 본 논문에서는 이동 로봇이 선박 갑판의 통행로를 감지하여 stop sign이 있는 곳까지 자율적으로 주행할 수 있는지를 확인하였다. 자율주행은 Nvidia의 End-to-end learning을 통해 학습한 데이터를 기반으로, 이동로봇에 장착된 카메라를 통해 선박 갑판의 통행로를 감지하여 수행하였다. 이동로봇의 정지 는 SSD MobileNetV2를 이용하여 stop sign을 확인하여 수행하였다. 실험은 약 70m 거리의 선박 갑판 통행로를 이동로봇이 이탈 없이 주행 후 stop sign을 확인하여 정지하는지를 5회 반복 실험하였으며, 실험 결과 경로이탈 없이 주행하는 결과를 얻을 수 있었다. 이 결과를 적용한 스 마트 자율물류 시스템이 산업현장에 적용된다면 작업자가 작업 시 안정성, 노동력 감소, 작업 효율이 향상될 것으로 사료된다.
인터넷과 빅데이터 시대에 혼돈을 기반으로 한 디지털 영상암호화 알고리즘에 대한 연구는 정보보안 분야 의 연구 핫스팟 중 하나가 되었다. 기존의 텍스트 데이터에 비해 디지털 이미지는 데이터의 양이 많고 중복 성이 높은 특성을 가지고 있습니다. DES, AES 및 RSA와 같은 기존 방법은 디지털 이미지 암호화 요구 사 항을 충족할 수 없습니다. 초기 민감도와 고유한 임의성 때문에 카오스는 암호화의 혼란 및 확산 개념과 매 우 일치하므로 카오스 이미지 암호화에 대한 연구가 빠르게 발전했습니다. 본 논문에서는 주로 혼돈 영상 암호화에 대한 연구를 수행한다. 평문 영상에 대한 키 의존성을 목표로 비트 평면과 개선된 로지스틱 맵 기 반 영상 암호화 알고리즘을 제안한다. 알고리즘은 스크램블된 일반 텍스트 이미지의 낮은 4비트 비트 매트 릭스를 개선된 물류 맵의 제어 매개변수로 사용하여 일반 텍스트 이미지에 대한 키의 종속성을 높이고 놀 라운 일회성 비밀 특성을 갖습니다. 서로 다른 비트의 이미지 정보에 따라 서로 다른 강도의 암호화 알고리 즘을 설계하여 알고리즘의 효율성을 높입니다. 영상 암호화의 확산 모드를 목표로 하이퍼 카오스 시스템과 블록 모듈로 기반의 영상 암호화 알고리즘을 제안한다. 알고리즘은 하이퍼 카오스 시스템을 사용하여 카오 스 시퀀스를 반복적으로 생성하고, 암호화된 픽셀 주위에 임의의 이미지 블록을 분할하고, 블록의 픽셀 값 에 대해 적분 모듈로 연산을 수행하여 암호화된 픽셀 회색 값을 얻음으로써 확산 범위를 효과적으로 확장 하고 확산의 무작위성을 향상시킵니다.