선박에는 단열을 위한 발포제가 적용된다. 기존의 발포제에는 지구온난화물질인 수소불화탄소(HFC)를 다량 포함하고 있는 문제점이 있으며, 우리나라는 몬트리올 의정서의 ‘키칼리 개정서’를 채택함에 따라 HFC를 ‘24년부터 ’45년까지 기준 수량의 80% 감 축하기로 결정되었다. 이에, 메틸포메이트 원료는 지구온난화지수가 0(HFC는 960~1,430)으로 향후 친환경발포제로 높은 기대를 갖고 있다. 하지만, 메틸포메이트 발포제의 성능은 원료의 순도 및 주변환경에 높은 영향을 받음으로 각 공정환경에 대한 정확한 분류가 필요하다. 이에, 본 논문에서는 주변환경(온도)과 메틸포메이트 순도에 따라, 총 4개의 케이스를 만들었다. 각 케이스에 대해서 10,010 장의 이미지를 학습하고, 이를 구글넷(GoogLeNet)알고리즘을 이용하여 분류하였다. 분류결과 정확도는 96.8%를 갖고, F1-Score는 0.969 를 갖는 것으로 계산하였다.
Today, as the social demand for tap water safety and the need for an ICT-based intelligent integrated control system increase, K-water (Korea Water Resources Corporation) is building and operating a ‘Water pipe monitoring CCTV system’ to quickly respond to crises in the event of a water leak. However, in the case of the existing system, when the CCTV rotates, the image information and the mapped water pipe image do net match, so the operator has the limitation that the water pipe image must be mapped anew every time. In this paper, in odert to solve the above problems, we propose an improved system that can extract feature points from CCTV images, detect changes in the coordinate values of the feature points, and automatically transform the location of the water pipe image by utilizing LoFTR (Detector-Free Local Feature Matching with Transformer), a type of deep learning image matching algorithm that is actively being studied in th field of the latest computer vision, and examine its effectiveness.
최근 광주 화정아이파크, 인천 검단 신도시 아파트 사고 등 국내에서 건축물 안전사고가 잇따라 발 생하고 있다. 시공 중 발생한 구조물 붕괴로 인해 인명·재산 피해가 수반된 대형 건설사고가 다수 발 생하였다. 건축물 안전사고의 발생 원인으로 무단 구조변경, 설계 및 시공 시 철근 누락 등이 제시되 면서 부실 감리에 대한 우려가 증가하고 있다. 하지만 현실적으로 건설 현장의 모든 장소에서 감리직 원이 상주하며 확인하는 것은 불가능하며 시공 정확도 검사 역시 감리자의 경험에 근거하여 육안 판 독 및 일부 수작업 계측으로 진행되고 있다. 감리 작업의 효율성을 높이기 위해 최근에는 3D 스캐너, Depth Camera 등을 구조 감리 기법 연구가 진행되고 있다. 철근 길이와 철근 배근 간격에 대한 연구 는 많이 진행되었지만 철근 직경의 검출 정확도는 아직 미흡한 상황이며, 특히 직경이 작은 D10과 D13의 구별에서는 한계를 나타내고 있다. 따라서 본 연구에서는 접근성이 용이한 스마트폰을 사용하 여 영상을 획득하고 이를 기반으로 3D 포인트 클라우드를 제가한 다음 철근 직경, 철근 길이, 철근 배근 간격 등의 자동 검측 기술을 개발하고 건설현장에서의 적용 가능성을 확인하고자 한다. 검증을 위한 실험체는 길이 2100mm, 폭 195mm, 높이 395mm의 철근 조립 상태의 보이다. 포인트 클라우드 제작을 위한 영상 촬영은 iPhone SE (3rd generation)을 사용하였다. 이후 MATLAB과 METASHAPE 를 사용하여 포인트 클라우드를 생성하고 Computer Vision과 Image Processing 기술을 활용하여 구 하고자 하는 철근 정보를 자동 검출하였다. 이후 실제 측정한 값과 자동 검출한 값을 비교하여 개발한 기법에 대한 적합성을 확인하였다.
본 논문에서는 역학적 변수들을 측정하는 방안으로 디지털 이미지 프로세싱과 강형식 기반의 MLS 차분법을 융합한 DIP-MLS 시 험법을 소개하고 추적점의 위치와 이미지 해상도에 대한 영향을 분석하였다. 이 방법은 디지털 이미지 프로세싱을 통해 시료에 부착 된 표적의 변위 값을 측정하고 이를 절점만 사용하는 MLS 차분법 모델의 절점 변위로 분배하여 대상 물체의 응력, 변형률과 같은 역 학적 변수를 계산한다. 디지털 이미지 프로세싱을 통해서 표적의 무게중심 점의 변위를 측정하기 위한 효과적인 방안을 제시하였다. 이미지 기반의 표적 변위를 이용한 MLS 차분법의 역학적 변수의 계산은 정확한 시험체의 변위 이력을 취득하고 정형성이 부족한 추 적 점들의 변위를 이용해 mesh나 grid의 제약 없이 임의의 위치에서 역학적 변수를 쉽게 계산할 수 있다. 개발된 시험법은 고무 보의 3 점 휨 실험을 대상으로 센서의 계측 결과와 DIP-MLS 시험법의 결과를 비교하고, 추가적으로 MLS 차분법만으로 시뮬레이션한 수치 해석 결과와도 비교하여 검증하였다. 이를 통해 개발된 기법이 대변형 이전까지의 단계에서 실제 시험을 정확히 모사하고 수치해석 결과와도 잘 일치하는 것을 확인하였다. 또한, 모서리 점을 추가한 46개의 추적점을 DIP-MLS 시험법에 적용하고 표적의 내부 점만을 이용한 경우와 비교하여 경계 점의 영향을 분석하였고 이 시험법을 위한 최적의 이미지 해상도를 제시하였다. 이를 통해 직접 실험이 나 기존의 요소망 기반 시뮬레이션의 부족한 점을 효율적으로 보완하는 한편, 실험-시뮬레이션 과정의 디지털화가 상당한 수준까지 가능하다는 것을 보여주었다.
Tomato is one of the major widely cultivated crops around the world. The leaf area is directly related to the total amount of photosynthesis, which affects the yield and quality of the fruit. Traditional methods of measuring the leaf area are time-consuming and can cause damage to the leaves. To address these problems, various studies are being conducted for measuring the leaf area. In this study, we introduced a model to estimate the leaf area using images of tomatoes. Using images captured by a camera, we measured the leaf length and width and used linear regression analysis to derive the leaf area estimation formula. Furthermore, we used a Neural Network (NN) for additional analysis to compare the accuracy of the models. Initially, to verify the reliability of the image data, we conducted a correlation analysis between the actual measurement data and the image data, which showed a high positive correlation. The leaf area estimation model presented 23 estimation formulas. We used regression analysis to estimate the coefficients of each model and also used employed an artificial neural network analysis to derive high R-squared (R2) values and low Root Mean Square Error (RMSE) values. Among the estimation formulas, the ninth model showed the highest reliability with an R-squared value of 0.863. We conducted a verification experiment to confirm the accuracy of the selected model, and the R-squared value was 0.925. This study confirmed the reliability of data measured from images and the reliability of the leaf area estimation model using image data. These methods are expected to be an important tool in agriculture, using imaging equipment for measuring and monitoring the crop growth.
선박은 화물 운송의 효율을 증대시키기 위해 대형화되는 추세이다. 선박 대형화는 선박 작업자의 이동시간 증가, 업무 강도 증가 및 작업 효율 저하 등으로 이어진다. 작업 업무 강도 증가 등의 문제는 젊은 세대의 고강도 노동 기피 현상과 맞물러 젊은 세대의 노동력 유 입을 감소시키고 있다. 또한 급속한 인구 노령화도 젊은 세대의 노동력 유입 감소와 복합적으로 작용하면서 해양산업 분야의 인력 부족 문 제는 극심해지는 추세이다. 해양산업 분야는 인력 부족 문제를 극복하기 위해 지능형 생산설계 플랫폼, 스마트 생산 운영관리 시스템 등의 기술을 도입하고 있으며, 스마트 자율물류 시스템도 이러한 기술 중의 하나이다. 스마트 자율물류 시스템은 각종 물품들을 지능형 이동로봇 을 활용하여 전달하는 기술로서 라이다, 카메라 등의 센서를 활용해 로봇 스스로 주행이 가능하도록 하는 것이다. 이에 본 논문에서는 이동 로봇이 선박 갑판의 통행로를 감지하여 stop sign이 있는 곳까지 자율적으로 주행할 수 있는지를 확인하였다. 자율주행은 Nvidia의 End-to-end learning을 통해 학습한 데이터를 기반으로, 이동로봇에 장착된 카메라를 통해 선박 갑판의 통행로를 감지하여 수행하였다. 이동로봇의 정지 는 SSD MobileNetV2를 이용하여 stop sign을 확인하여 수행하였다. 실험은 약 70m 거리의 선박 갑판 통행로를 이동로봇이 이탈 없이 주행 후 stop sign을 확인하여 정지하는지를 5회 반복 실험하였으며, 실험 결과 경로이탈 없이 주행하는 결과를 얻을 수 있었다. 이 결과를 적용한 스 마트 자율물류 시스템이 산업현장에 적용된다면 작업자가 작업 시 안정성, 노동력 감소, 작업 효율이 향상될 것으로 사료된다.
인터넷과 빅데이터 시대에 혼돈을 기반으로 한 디지털 영상암호화 알고리즘에 대한 연구는 정보보안 분야 의 연구 핫스팟 중 하나가 되었다. 기존의 텍스트 데이터에 비해 디지털 이미지는 데이터의 양이 많고 중복 성이 높은 특성을 가지고 있습니다. DES, AES 및 RSA와 같은 기존 방법은 디지털 이미지 암호화 요구 사 항을 충족할 수 없습니다. 초기 민감도와 고유한 임의성 때문에 카오스는 암호화의 혼란 및 확산 개념과 매 우 일치하므로 카오스 이미지 암호화에 대한 연구가 빠르게 발전했습니다. 본 논문에서는 주로 혼돈 영상 암호화에 대한 연구를 수행한다. 평문 영상에 대한 키 의존성을 목표로 비트 평면과 개선된 로지스틱 맵 기 반 영상 암호화 알고리즘을 제안한다. 알고리즘은 스크램블된 일반 텍스트 이미지의 낮은 4비트 비트 매트 릭스를 개선된 물류 맵의 제어 매개변수로 사용하여 일반 텍스트 이미지에 대한 키의 종속성을 높이고 놀 라운 일회성 비밀 특성을 갖습니다. 서로 다른 비트의 이미지 정보에 따라 서로 다른 강도의 암호화 알고리 즘을 설계하여 알고리즘의 효율성을 높입니다. 영상 암호화의 확산 모드를 목표로 하이퍼 카오스 시스템과 블록 모듈로 기반의 영상 암호화 알고리즘을 제안한다. 알고리즘은 하이퍼 카오스 시스템을 사용하여 카오 스 시퀀스를 반복적으로 생성하고, 암호화된 픽셀 주위에 임의의 이미지 블록을 분할하고, 블록의 픽셀 값 에 대해 적분 모듈로 연산을 수행하여 암호화된 픽셀 회색 값을 얻음으로써 확산 범위를 효과적으로 확장 하고 확산의 무작위성을 향상시킵니다.
2D 퍼즐은 인기있는 보드게임이다. 2D 퍼즐을 완성하는 기술은 많이 연구되었다. 하지만 2D만으로는 대상 을 효과적으로 표현하기 어렵다는 한계가 있다. 본 연구에서는 영상으로부터 높이를 가진 2D+ 레고 퍼즐을 생성하는 방법을 제안한다. 이를 위해서 본 연구에서는 영상의 높이 맵과 분할 맵의 정보를 활용한다. 우리 는 2D+ 퍼즐에 적용하기위해 다양한 대상의 높이 및 영역 정보를 적절하게 처리해야한다. 이러한 이유로, 우리는 깊이 맵과 분할영역 맵을 추출하기 위해 모델에 심층 학습 모델을 적용한다. 높이 맵을 추출하기 위 해 우리는 CelebAMask-HQ dataset으로 학습한 BiseNet을 채택했다. 그리고 분할 맵을 얻기 위해 NYU Depth V2 dataset으로 학습한 DenseDepth를 사용했다. 입력 영상에 대해서 저해상도 영상 및 높이 맵과 분할 맵을 추출하고, 저해상도 영상을 레고 브릭의 색 팔레트를 적용한 영상에 대해서 높이 맵과 분할 맵 정보를 적용해서 높이를 가진 2D+ 픽셀 아트 영상을 생성한다. 그리고, 이 픽셀 아트 영상에 대해서 같은 높이와 같은 색을 가진 픽셀들에 대해서 최대한 큰 브릭을 적용하는 그리디 알고리즘을 적용해서 2D+ 레 고 퍼즐을 완성한다. 본 연구에서는 다양한 초상화를 대상으로 2D+ 레고 퍼즐을 완성하는 예를 제시하였으 며, 그 중 하나를 직접 제작하여 그 결과를 제시한다.
PURPOSES : This study aims to develop and evaluate computer vision-based algorithms that classify the road roughness index (IRI) of road specimens with known IRIs. The presented study develops and compares classifier-based and deep learning-based models that can effectively determine pavement roughness grades.
METHODS : A set road specimen was developed for various IRIs by generating road profiles with matching standard deviations. In addition, five distinct features from road images, including mean, peak-to-peak, standard variation, and mean absolute deviation, were extracted to develop a classifier-based model. From parametric studies, a support vector machine (SVM) was selected. To further demonstrate that the model is more applicable to real-world problems, with a non-integer road grade, a deep-learning model was developed. The algorithm was proposed by modifying the MNIST database, and the model input parameters were determined to achieve higher precision.
RESULTS : The results of the proposed algorithms indicated the potential of using computer vision-based models for classifying road surface roughness. When SVM was adopted, near 100% precision was achieved for the training data, and 98% for the test data. Although the model indicated accurate results, the model was classified based on integer IRIs, which is less practical. Alternatively, a deep-learning model, which can be applied to a non-integer road grade, indicated an accuracy of over 85%.
CONCLUSIONS : In this study, both the classifier-based, and deep-learning-based models indicated high precision for estimating road surface roughness grades. However, because the proposed algorithm has only been verified against the road model with fixed integers, optimization and verification of the proposed algorithm need to be performed for a real road condition.
Various underwater studies using underwater sonar sensors are actively in progress. However, unlike the ground, the underwater has a lot of noise. So it is difficult to accurately recognize the underwater environment. The final purpose of this study is to improve the efficiency of the underwater environment recognition using the underwater sonar sensor by developing a filtering algorithm that removes noise and expresses the object from the underwater sonar image captured by the underwater sonar sensor. To develop a filtering algorithm, convolutional calculations were used with three types of filters. This paper is about the case study that conducted to set the parameters of ‘Gabor Filter’ suitable for underwater sonar image during the design process of filtering algorithm. As a result, it was possible to find the most suitable ‘Gabor Filter’ parameters for underwater sonar images. And it showed high accuracy with a binary map of obstacles created by hand using the naked eye. Through this study, it can be utilized not only as a binary map of real-time obstacles, but also as an algorithm for generating object masks in underwater sonar images for deep learning.