선박에는 단열을 위한 발포제가 적용된다. 기존의 발포제에는 지구온난화물질인 수소불화탄소(HFC)를 다량 포함하고 있는 문제점이 있으며, 우리나라는 몬트리올 의정서의 ‘키칼리 개정서’를 채택함에 따라 HFC를 ‘24년부터 ’45년까지 기준 수량의 80% 감 축하기로 결정되었다. 이에, 메틸포메이트 원료는 지구온난화지수가 0(HFC는 960~1,430)으로 향후 친환경발포제로 높은 기대를 갖고 있다. 하지만, 메틸포메이트 발포제의 성능은 원료의 순도 및 주변환경에 높은 영향을 받음으로 각 공정환경에 대한 정확한 분류가 필요하다. 이에, 본 논문에서는 주변환경(온도)과 메틸포메이트 순도에 따라, 총 4개의 케이스를 만들었다. 각 케이스에 대해서 10,010 장의 이미지를 학습하고, 이를 구글넷(GoogLeNet)알고리즘을 이용하여 분류하였다. 분류결과 정확도는 96.8%를 갖고, F1-Score는 0.969 를 갖는 것으로 계산하였다.
Background: Artificial intelligence (AI) research on physical fitness posture estimation has been limited by a lack of comprehensive datasets and guidelines. This study analyzes the fitness image dataset provided by Korea's AIHub platform to advance posture estimation algorithms from exercise prescription and behavioral analysis perspectives. Objectives: To analyze fitness movements and guide correct exercise posture using AI-based visual and auditory feedback. Design: Descriptive analysis of a large-scale dataset. Methods: The study examined image and JSON labeling files from AI-Hub, analyzing 6.39 million fitness images across 41 exercise types. Data structure, exercise states, and annotation characteristics were analyzed in detail. Results: The dataset encompasses 816 distinct exercise states, captured from five camera angles with 24 key body points labeled per posture. Exercises were categorized into full-body workouts (17), barbell/dumbbell exercises (16), and furniture exercises (8). Gender distribution was 76% male and 24% female, with 41% in the 27-29 age group. The dataset allows for detailed analysis of correct and incorrect postures. Conclusion: This comprehensive analysis of the AI-Hub fitness dataset provides a robust foundation for developing AI models for fitness posture evaluation and feedback, benefiting exercise coach web/app service developers.
급성 뇌경색 진단에는 환자에 따라 관류강조영상과 조영증강 자기공명혈관영상이 동시에 촬영되는 경우가 있으며, 이 과정에서 MRI 조영제인 가돌리늄의 T1 단축 효과가 발생하여 동맥과 정맥의 신호 겹침이 빈번히 발생한다. 특 히, 3D T1 경사에코 기법을 사용한 CE-MRA에서 첫 번째 조영제 주입(PWI) 후 연속적으로 발생하는 T1 감소 효과로 인해 혈관의 정확한 묘사에 한계가 있었다. 본 연구에서는 이러한 문제를 해결하기 위해 마스크 영상의 획득 시점을 조정하여 새로운 방법(B)을 제안하였다. 기존 방법(A)에서는 관류강조영상 이전에 마스크 영상을 획득했지 만, 새로운 방법(B)에서는 관류강조영상 이후 마스크 영상을 획득하여 동맥과 정맥 신호 겹침을 효과적으로 줄였다. 연구 결과, S상 정맥동과 내경정맥에서 새로운 방법이 기존 방법보다 유의미하게 낮은 대조대잡음비를 보였으며, 신호 겹침이 줄어들어 정맥 신호의 억제 효과가 극대화되었다(p<0.05). 본 연구의 새로운 방법은 기술적으로 추가적 인 복잡성 없이 효율적으로 정맥 신호를 제거하여 CE-MRA 영상의 진단적 정확성을 향상하는 유용한 기법으로 평 가된다. 향후 연구에서는 더 다양한 환자군을 대상으로 본 방법의 유용성을 검증하고, 최적의 방안 모색을 할 필요가 있다.
자기공명영상은 인체 내부 구조와 병변을 비침습적으로 시각화하는 핵심 의료 영상 기법으로 자리 잡고 있으며, 특히 신경계 및 심혈관계 질환과 같은 복잡한 질병의 진단에서 필수적인 도구로 활용되고 있다. 기존의 자기공명영상 시스 템은 영상의 해상도와 신호대잡음비에서 한계가 있었으나, 최근의 기술 발전은 이러한 한계를 극복하고 진단 정확성 을 높이는 방향으로 나아가고 있다. 고자기장 자기공명영상 시스템의 도입은 해상도와 신호대잡음비를 개선하는 데 기여하고 있으며, 병렬 영상 기법은 촬영 속도를 향상시키면서도 영상 품질의 손실을 최소화한다. 또한, 압축 센싱 (compressed sensing) 기술은 데이터 획득 시간을 줄여 촬영 효율성을 높이는 데 중요한 역할을 하고 있다. 최근 인공지능(AI)의 발전으로, 자기공명영상 데이터에서 초해상도 복원(super-resolution) 및 노이즈 제거와 같은 영상 후처리 기술이 획기적으로 향상되었다. 인공지능 기반의 영상 향상 기술은 저해상도 데이터를 고해상도로 변환하고, 촬영 과정에서 발생할 수 있는 왜곡과 노이즈를 효과적으로 제거하여, 더 정확하고 명확한 진단 영상을 제공한다. 이러한 발전은 단순히 영상의 품질을 높이는 것을 넘어, 임상 진단의 정확성과 효율성을 크게 향상시키고 있으며, 특히 제한된 촬영 시간을 요구하는 응급 상황에서 유용성이 두드러진다. 본 논문에서는 자기공명영상 촬영 기법의 최신 발전과 인공지능 기반 영상 향상 기술의 동향을 여러모로 분석하고, 이들의 임상적 유용성을 조명함으로써 고해 상도 자기공명영상이 의료 분야에서 가지는 의미와 향후 발전 방향을 제시하고자 한다.
Today, as the social demand for tap water safety and the need for an ICT-based intelligent integrated control system increase, K-water (Korea Water Resources Corporation) is building and operating a ‘Water pipe monitoring CCTV system’ to quickly respond to crises in the event of a water leak. However, in the case of the existing system, when the CCTV rotates, the image information and the mapped water pipe image do net match, so the operator has the limitation that the water pipe image must be mapped anew every time. In this paper, in odert to solve the above problems, we propose an improved system that can extract feature points from CCTV images, detect changes in the coordinate values of the feature points, and automatically transform the location of the water pipe image by utilizing LoFTR (Detector-Free Local Feature Matching with Transformer), a type of deep learning image matching algorithm that is actively being studied in th field of the latest computer vision, and examine its effectiveness.
최근 광주 화정아이파크, 인천 검단 신도시 아파트 사고 등 국내에서 건축물 안전사고가 잇따라 발 생하고 있다. 시공 중 발생한 구조물 붕괴로 인해 인명·재산 피해가 수반된 대형 건설사고가 다수 발 생하였다. 건축물 안전사고의 발생 원인으로 무단 구조변경, 설계 및 시공 시 철근 누락 등이 제시되 면서 부실 감리에 대한 우려가 증가하고 있다. 하지만 현실적으로 건설 현장의 모든 장소에서 감리직 원이 상주하며 확인하는 것은 불가능하며 시공 정확도 검사 역시 감리자의 경험에 근거하여 육안 판 독 및 일부 수작업 계측으로 진행되고 있다. 감리 작업의 효율성을 높이기 위해 최근에는 3D 스캐너, Depth Camera 등을 구조 감리 기법 연구가 진행되고 있다. 철근 길이와 철근 배근 간격에 대한 연구 는 많이 진행되었지만 철근 직경의 검출 정확도는 아직 미흡한 상황이며, 특히 직경이 작은 D10과 D13의 구별에서는 한계를 나타내고 있다. 따라서 본 연구에서는 접근성이 용이한 스마트폰을 사용하 여 영상을 획득하고 이를 기반으로 3D 포인트 클라우드를 제가한 다음 철근 직경, 철근 길이, 철근 배근 간격 등의 자동 검측 기술을 개발하고 건설현장에서의 적용 가능성을 확인하고자 한다. 검증을 위한 실험체는 길이 2100mm, 폭 195mm, 높이 395mm의 철근 조립 상태의 보이다. 포인트 클라우드 제작을 위한 영상 촬영은 iPhone SE (3rd generation)을 사용하였다. 이후 MATLAB과 METASHAPE 를 사용하여 포인트 클라우드를 생성하고 Computer Vision과 Image Processing 기술을 활용하여 구 하고자 하는 철근 정보를 자동 검출하였다. 이후 실제 측정한 값과 자동 검출한 값을 비교하여 개발한 기법에 대한 적합성을 확인하였다.
Tomato is one of the major widely cultivated crops around the world. The leaf area is directly related to the total amount of photosynthesis, which affects the yield and quality of the fruit. Traditional methods of measuring the leaf area are time-consuming and can cause damage to the leaves. To address these problems, various studies are being conducted for measuring the leaf area. In this study, we introduced a model to estimate the leaf area using images of tomatoes. Using images captured by a camera, we measured the leaf length and width and used linear regression analysis to derive the leaf area estimation formula. Furthermore, we used a Neural Network (NN) for additional analysis to compare the accuracy of the models. Initially, to verify the reliability of the image data, we conducted a correlation analysis between the actual measurement data and the image data, which showed a high positive correlation. The leaf area estimation model presented 23 estimation formulas. We used regression analysis to estimate the coefficients of each model and also used employed an artificial neural network analysis to derive high R-squared (R2) values and low Root Mean Square Error (RMSE) values. Among the estimation formulas, the ninth model showed the highest reliability with an R-squared value of 0.863. We conducted a verification experiment to confirm the accuracy of the selected model, and the R-squared value was 0.925. This study confirmed the reliability of data measured from images and the reliability of the leaf area estimation model using image data. These methods are expected to be an important tool in agriculture, using imaging equipment for measuring and monitoring the crop growth.
이 연구는 위성사진을 활용하여 건설지점의 기대풍속을 예측하기 위한 인공신경망 방법론을 제안한다. 제안된 방법은 기존 의 엔지니어의 판단을 대체하여, Auto-Encoder를 사용해 지형적 특성을 정량화하고, 이를 바탕으로 대상지점과 유사한 지역의 관측소 풍속 데이터를 선형 조합해 기대 풍속을 예측한다. 또한, 머신러닝과 인공신경망을 활용한 종단간 풍속 예측 모델을 제안하고, 성능을 비교 분석하였다. 그 결과 관측소의 풍속 데이터의 선형 조합보다는 종단간 모델을 구성하는 방법이 더 높은 정확도를 보였으며, 특히 Graph Neural Network (GNN)이 Multi-Layer Perceptron (MLP)에 비해 상당히 우수한 예측 성능을 나타내었다.
This study was conducted to develop a model for predicting the growth of kimchi cabbage using image data and environmental data. Kimchi cabbages of the ‘Cheongmyeong Gaual’ variety were planted three times on July 11th, July 19th, and July 27th at a test field located at Pyeongchang-gun, Gangwon-do (37°37′ N 128°32′ E, 510 elevation), and data on growth, images, and environmental conditions were collected until September 12th. To select key factors for the kimchi cabbage growth prediction model, a correlation analysis was conducted using the collected growth data and meteorological data. The correlation coefficient between fresh weight and growth degree days (GDD) and between fresh weight and integrated solar radiation showed a high correlation coefficient of 0.88. Additionally, fresh weight had significant correlations with height and leaf area of kimchi cabbages, with correlation coefficients of 0.78 and 0.79, respectively. Canopy coverage was selected from the image data and GDD was selected from the environmental data based on references from previous researches. A prediction model for kimchi cabbage of biomass, leaf count, and leaf area was developed by combining GDD, canopy coverage and growth data. Single-factor models, including quadratic, sigmoid, and logistic models, were created and the sigmoid prediction model showed the best explanatory power according to the evaluation results. Developing a multi-factor growth prediction model by combining GDD and canopy coverage resulted in improved determination coefficients of 0.9, 0.95, and 0.89 for biomass, leaf count, and leaf area, respectively, compared to single-factor prediction models. To validate the developed model, validation was conducted and the determination coefficient between measured and predicted fresh weight was 0.91, with an RMSE of 134.2 g, indicating high prediction accuracy. In the past, kimchi cabbage growth prediction was often based on meteorological or image data, which resulted in low predictive accuracy due to the inability to reflect on-site conditions or the heading up of kimchi cabbage. Combining these two prediction methods is expected to enhance the accuracy of crop yield predictions by compensating for the weaknesses of each observation method.
Fast-paced advancements in technology demand swift adaptation and presents new opportunities and challenges for the optimization of communication, especially for advertisers. Digitalization and new developments in ICT have brought significant changes to the ways in which information, especially promotional messages, is disseminated to consumers. Additionally, with explosive interests in anticipation of fully autonomous vehicles, this study identifies and addresses the potential to optimize communication in an under examined digital media environment – in-vehicle infotainment system. Therefore, this study proposes a text-image embedding method recommender system for the personalization of multimedia contents and advertisements for in-vehicle infotainment systems. Unlike most previous research, which focuses on textual-only or image-only analyses, the current study explores the understanding, development and application of text embedding models and image feature extraction methods simultaneously in the context of target advertisement research. Overall, this study highlights the need to adapt to the ever-evolving technological landscape to optimize communication in various digital media environments. With the proposed text-image embedding method, this study offers a unique approach to personalizing multimedia content and advertisements in the under-explored digital media environment of in-vehicle infotainment systems.
본 연구는 수직 벽체형 콘크리트 구조물의 정밀안전진단을 위한 외관조사시 고품질 정밀영상을 자동화된 방식으로 획득하여 균열손상을 탐지하고 시설물의 상태를 평가하기 위하여 개발된 등벽드론 탑재형 균열진단 시스템에 대한 것이다. 본 논문에서는 영상기반 균열진단 시스템을 이용한 정밀영상 획득기술, 자동화된 영상처리 알고리즘을 이용한 데이터 처리 기법을 제시하였으며, 실험적으로 도출된 지상표본거리를 기반으로 영상처리 자동화 알고리즘을 이용하여 생성된 균열모사 시험벽체의 평면전개 이미지 상 균열손상의 위치 정확도를 평가 분석하였다. 평가분석 결과, 가로축 길이 대비 최대 1.1%, 세로축 길이 대 비 최대 1.4%의 오차율을 보이는 것으로 나타났다. 제안된 영상 내 픽셀 좌표와 지상표본거리를 기반으로 균열손상의 위치를 추정하는 기법은 실측 좌표 대비 평균 1.0% 이하의 위치 오차를 가지는 것으로 평가되었다. 최종적으로 영상기반 진단과 긴급 보수와 같은 일반적인 시설물의 유지관리에 요구되는 위치 정확도를 확보하고 있는 것으로 분석되었다.
Image recognition is not very effective in the water environment due to multiple factors, such as high scattering and high scattering in the water column. This is why the relevant parameters in the Faster R-CNN network model need to adjust continuously to improve the effectiveness of water detection. The control variable method adjusts the program's learning rate by tuning the network model's parameters. Then, the number of training rounds is adjusted according to the loss function of each round, and finally, we can get the number of matches with the minimum loss function. Based on the experimental results on the dataset, it is shown that the proposed method not only selects the learning rate with the best detection results but also has the strongest robustness and achieves a 96%-99% recognition rate for passenger ships, cargo ships, warships, and bridges compared with other learning rates. Experiments show that the Faster R-CNN network model detects water targets with significant results, and the best network model learning rate parameter is 6×10-3.
선박은 화물 운송의 효율을 증대시키기 위해 대형화되는 추세이다. 선박 대형화는 선박 작업자의 이동시간 증가, 업무 강도 증가 및 작업 효율 저하 등으로 이어진다. 작업 업무 강도 증가 등의 문제는 젊은 세대의 고강도 노동 기피 현상과 맞물러 젊은 세대의 노동력 유 입을 감소시키고 있다. 또한 급속한 인구 노령화도 젊은 세대의 노동력 유입 감소와 복합적으로 작용하면서 해양산업 분야의 인력 부족 문 제는 극심해지는 추세이다. 해양산업 분야는 인력 부족 문제를 극복하기 위해 지능형 생산설계 플랫폼, 스마트 생산 운영관리 시스템 등의 기술을 도입하고 있으며, 스마트 자율물류 시스템도 이러한 기술 중의 하나이다. 스마트 자율물류 시스템은 각종 물품들을 지능형 이동로봇 을 활용하여 전달하는 기술로서 라이다, 카메라 등의 센서를 활용해 로봇 스스로 주행이 가능하도록 하는 것이다. 이에 본 논문에서는 이동 로봇이 선박 갑판의 통행로를 감지하여 stop sign이 있는 곳까지 자율적으로 주행할 수 있는지를 확인하였다. 자율주행은 Nvidia의 End-to-end learning을 통해 학습한 데이터를 기반으로, 이동로봇에 장착된 카메라를 통해 선박 갑판의 통행로를 감지하여 수행하였다. 이동로봇의 정지 는 SSD MobileNetV2를 이용하여 stop sign을 확인하여 수행하였다. 실험은 약 70m 거리의 선박 갑판 통행로를 이동로봇이 이탈 없이 주행 후 stop sign을 확인하여 정지하는지를 5회 반복 실험하였으며, 실험 결과 경로이탈 없이 주행하는 결과를 얻을 수 있었다. 이 결과를 적용한 스 마트 자율물류 시스템이 산업현장에 적용된다면 작업자가 작업 시 안정성, 노동력 감소, 작업 효율이 향상될 것으로 사료된다.
해양사고 발생시 실종자는 해양에 노출된 시간이 길어질수록 생존확률이 빠르게 감소하기 때문에 인명구조를 위해서는 신 속한 수색이 필요하다. 또한 해양의 수색영역은 육상에 비해서 매우 넓기 때문에 효율적인 수색을 위해서는 선박을 이용한 육안수색보 다는 인공위성이나 항공기에 탑재된 센서를 이용한 해상 객체 탐지 기술의 적용이 필요하다. 본 연구는 항공기에 탑재된 초분광 영상 센서를 이용하여 해양에서 객체를 신속하게 탐지하기 위한 목적으로 진행되었다. 초분광 영상 센서로 촬영된 영상은 8,241 × 1,024의 공간 해상도를 가지며, 한 화소당 0.7 m의 분해능과 127개의 스펙트럼으로 구성된 대용량의 데이터이다. 본 연구에서는 이러한 데이터 를 신속하게 분석하기 위한 목적으로 DBSCAN을 사용한 해수 식별 알고리즘과 밀도 기반의 육지 제거 알고리즘을 결합한 해상 객체 탐지 모델을 개발하였다. 개발한 모델은 초분광 영상에 적용하였을 때 약 5 km2의 해상 영역을 100초 내로 분석할 수 있는 성능을 보 였다. 또한 개발한 모델의 탐지 정확도를 평가하기 위해서 항공기를 이용하여 목포, 군산, 여수 지역의 초분광 영상을 촬영하였으며, 본 연구에서 개발한 탐지 모델에 적용한 결과, 실험 영상 내의 선박들을 90 %의 정확도로 탐지할 수 있는 결과를 얻었다. 본 연구에서 개발된 기술은 소형 선박의 수색·구조 활동을 지원하는 중요한 정보로 활용될 수 있을 것으로 기대한다.
본 연구는 데이터 과학의 과정에 따른 파이썬 기반의 외부고리 은하 영상 분석 알고리즘 개발을 목적으로 한다. 잠재적 사용자는 학생과 교사를 포함한 시민 과학자로 정하였다. 은하의 실제 데이터를 이용한 분류 연구는 IRAF 라는 전문 소프트웨어가 이용되고 있어 일반인이 접근하기에 한계가 있다. 이에 IRAF를 사용한 선행 연구의 결과와 비교 검 증이 가능한 외부고리 은하를 분석 대상 천체로 정하여, 영상 분석 알고리즘을 개발하고 그 결과를 검증하였다. 검증 결과 총 69개의 외부고리 은하 중 50개(72.5%)가 IRAF 결과와 높은 일치를 보였다. 남은 19개(27.5%)는 시선 방향에 겹친 밝은 별의 존재 혹은 은하 내부의 약한 밝기로 인해 IRAF 결과와 다른 낮은 일치를 보였다. 보완 과정을 거친 최종 결과물은 공유 및 교육 자료의 활용도를 높이기 위해 전체 사용된 데이터와 알고리즘, 파이썬 코드 파일 및 사용 설명서를 GitHub에 탑재하였다.