Accurate estimation of vehicle exhaust emissions at urban intersections is essential to assess environmental impacts and support sustainable traffic management. Traditional emission models often rely on aggregated traffic volumes or measures of average speed that fail to capture the dynamic behaviors of vehicles such as acceleration, deceleration, and idling. This study presents a methodology that leverages video data from smart intersections to estimate vehicle emissions at microscale and in real time. Using a CenterNet-based object detection and tracking framework, vehicle trajectories, speeds, and classifications were extracted with high precision. A structured preprocessing pipeline was applied to correct noise, missing frames, and classification inconsistencies to ensure reliable time-series inputs. Subsequently, a lightweight emission model integrating vehicle-specific coefficients was employed to estimate major pollutants including CO and NOx at a framelevel resolution. The proposed algorithm was validated using real-world video data from a smart intersection in Hwaseong, Korea, and the results indicated significant improvements in accuracy compared to conventional approaches based on average speed. In particular, the model reflected variations in emissions effectively under congested conditions and thus captured the elevated impact of frequent stopand- go patterns. Beyond technical performance, these results demonstrate that traffic video data, which have traditionally been limited to flow monitoring and safety analysis, can be extended to practical environmental evaluation. The proposed algorithm offers a scalable and cost-effective tool for urban air quality management, which enables policymakers and practitioners to link traffic operations with emission outcomes in a quantifiable manner.
In this study, we propose a data-driven analytical framework for systematically analyzing the driving patterns of autonomous buses and quantitatively identifying risky driving behaviors at the road-segment level using operational data from real roads. The analysis was based on Basic Safety Message (BSM) data collected over 125 days from two Panta-G autonomous buses operating in the Pangyo Autonomous Driving Testbed. Key driving indicators included speed, acceleration, yaw rate, and elevation, which were mapped onto high-definition (HD) road maps. A hybrid clustering method combining self-organizing map (SOM) and k-means++ was applied, which resulted in eight distinct driving pattern clusters. Among these, four clusters exhibited characteristics associated with risky driving such as sudden acceleration, deceleration, and abrupt steering, and were spatially visualized using digital maps. These visualizations offer practical insights for real-time monitoring and localized risk assessment in autonomous vehicle operations. The proposed framework provides empirical evidence for evaluating the operational safety and reliability of autonomous buses based on repeated behavioral patterns. Its adaptability to diverse urban environments highlights its utility for intelligent traffic control systems and future mobility policy planning.
Machine learning (ML) techniques have been increasingly applied to the field of structural engineering for the prediction of complex dynamic responses of safety-critical infrastructures such as nuclear power plant (NPP) structures. However, the development of ML-based prediction models requires a large amount of training data, which is computationally expensive to generate using traditional finite element method (FEM) time history analysis, especially for aging NPP structures. To address this issue, this study investigates the effectiveness of synthetic data generated using Conditional Tabular GAN (CTGAN) in training ML models for seismic response prediction of an NPP auxiliary building. To overcome the high computational cost of data generation, synthetic tabular data was generated using CTGAN and its quality was evaluated in terms of distribution similarity (Shape) and feature relationship consistency (Pair Trends) with the original FEM data. Four training datasets with varying proportions of synthetic data were constructed and used to train neural network models. The predictive accuracy of the models was assessed using a separate test set composed only of original FEM data. The results showed that models trained with up to 50% synthetic data maintained high prediction accuracy, comparable to those trained with only original data. These findings indicate that CTGAN-generated data can effectively supplement training datasets and reduce the computational burden in ML model development for seismic response prediction of NPP structures.
Smart factory technology, a core component of the Fourth Industrial Revolution, demonstrates significant disparities in technological development across countries. To quantitatively assess these international technology gaps, this study proposes an integrated analytical framework that combines text mining-based topic modeling and social network analysis (SNA), using global smart factory-related patent data from 2017 to 2023. Approximately 4,300 patent documents (titles and abstracts) were collected through the GPASS system and preprocessed. Through Latent Dirichlet Allocation (LDA) modeling with optimized hyperparameters, major technology topics were identified. Semantic interpretation using ChatGPT and expert review enabled the assignment of precise topic labels, which were further mapped to CPC (Cooperative Patent Classification) codes to construct a standardized technology taxonomy. Subsequently, the network structures of topic and classification nodes were analyzed by country (China, the United States, and South Korea), and the relative importance of key technology areas was evaluated using centrality metrics such as degree, closeness, betweenness, and eigenvector centrality. The analysis revealed that, globally, the most central technology areas include manufacturing process management and control, IoT and data-driven decision making, and facility-based process optimization. At the national level, China showed a strategic focus on technologies related to product quality improvement and cost reduction, South Korea emphasized IoT-enabled technologies and equipment-level optimization, while the United States prioritized control systems and data-driven project management. By utilizing patent-based textual data, this study offers a novel methodology for quantitatively diagnosing structural differences in national technological capabilities. The proposed framework provides valuable insights for country-specific R&D planning and strategic decision-making in the field of smart manufacturing.
본 연구는 중소벤처기업부가 추진하는 정책사업인 로컬콘텐츠 중점대 학을 중심으로, 최근 2년간 온라인에서 형성된 담론의 구조와 사회적 수 용 양상을 소셜 빅데이터 분석을 통해 규명하는 데 목적이 있다. 이를 위해 네이버와 다음의 블로그, 뉴스, 웹문서 등 다양한 채널에서 수집한 데이터를 기반으로 텍스트 마이닝(단어빈도, TF-IDF, N-gram), 개체명 인식, 2-mode 매트릭스 분석, 감성 분석, CONCOR 분석, LDA 토픽모 델링 및 의미기반 클러스터링을 수행하였다. 분석 결과, ‘대학’, ‘콘텐츠’, ‘창업’, ‘지역’, ‘지원’ 등 핵심어를 중심으로 한 의미구조가 형성되어 있 었으며, 담론은 대체로 긍정적 정서를 포함하고 있었다. 또한 대학, 지역 기관, 중소기업 간 협력 네트워크가 주체별로 상이한 양상을 보이며 다 층적 실행 구조를 보여주었다. 본 연구는 로컬콘텐츠 중점대학의 사회적 인식과 정책적 함의를 담론 기반으로 조망함으로써, 향후 제도 설계 및 지역혁신전략 수립에 기초자료를 제공하고자 한다.
효과적인 해양 교통관리 및 사고 예방 체계 구축에 있어서 AIS는 매우 중요한 요소이다. AIS는 선박의 동적, 정적, 항해 정보를 송수신하여 항해 의사결정을 지원하고 효과적인 선박 교통관제에 도움을 준다. 이러한 AIS는 환경적 요인, 기계적 요인 등에 의해서 손실 이 발생하며, 손실이 생긴 AIS 데이터는 선박 운항자 및 관제의 측면에서 의사결정에 혼동을 야기한다. 때문에, 본 연구에서는 AIS 데이터 를 통해 선박 항적 데이터를 수신하고, 해당 항적 데이터의 손실을 복원한다. AIS 데이터 수신 시 저비용의 싱글보드 컴퓨터인 Raspberry Pi와 AIS 수신 보드인 dAISy HAT을 활용하여 하드웨어를, Raspberry Pi의 운영체제인 LINUX환경과Open chart plotter인 OPENCPN을 통해 소 프트웨어를 구성하였다. 해당 시스템을 활용하여 수신한 AIS 데이터의 손실이 발생하는 데이터 중 활용이 가능한 위도, 경도, 시간 데이 터를 통해 손실이 발생한 구간의 데이터를 보간하고, 보간된 데이터는 “INTERP”라는 태그를 통해 기존의 데이터와 함께 인터넷 웹 서버 인 AWS S3에 저장한다. 본 연구를 통하여, AIS 수신기를 통하여 선박 항적 데이터를 수신하고, 손실이 발생한 부분을 보간함으로써 항적 데이터의 활용도를 높일 수 있을 것으로 보인다. 향후 손실된 AIS 데이터로 인한 선박 항적 데이터의 복원을 위한 다양한 기법을 활용한 연구가 필요하다.
기후변화와 식품공급망의 복잡성 증대로 식품 위해요소 의 발생 경로와 패턴이 다변화됨에 따라, 과학적 예측과 선 제적 개입이 가능한 예방형 식품안전 관리체계의 필요성이 대두되고 있다. 본 연구는 기후·환경 요인이 식품 위해요소 에 미치는 영향을 분석함으로써, 기후 민감성이 높은 위해 요소를 식별하고 예측 가능성과 주요 환경인자를 도출하였 다. 아울러 국내외 데이터 기반 위해예측 시스템의 운영 사 례를 비교·분석함으로써, 식품위해예측센터의 실질적 운영 과 역할을 위한 발전방향을 제시하였다. 본 연구를 통해 향 후 식품위해예측센터가 식품안전 정책의 과학화와 지능화 를 이끄는 전략적 플랫폼으로 기능하고, 예방 중심의 관리 체계로의 전환을 유도할 수 있도록 실효적 토대와 정책적 방향성을 제공하고자 한다.
본 연구는 정원문화의 확산과 농촌이주에 대한 대중의 인식을 빅데이터 기반으로 분석하여 농촌공간의 사회적·정서적 가치에 대한 시사점을 도출하고자 하였다. 최근 치유농업, 정신건강 증진, 농촌 정주 촉진 등 국가적 정책 흐름 속에서 정원과 농촌 이주가 어떻게 디지털 공간에서 담론화되고 있는지를 탐색하였다. 네이버와 다음의 블로그 및 카페로부터 2015년 7월부터 2024년까지 수집된 비정형 데이터를 대상으로 텍스트마이닝 기법을 적용하였다. 분석 방법으 로는 키워드 빈도분석, TF-IDF, N-gram 연결망 분석, Louvain 클러스터링, 감성분석을 활용하였 다. 분석 결과 귀농귀촌은 ‘교육’, ‘지원’, ‘주택’ 등의 제도적 기반에 대한 관심이 강하게 나타났 으며, 귀촌정원은 ‘꽃’, ‘전원주택’, ‘텃밭’ 등 정서적 만족과 자연 친화적 주거 환경에 대한 수요를 보여주었다. 농촌정원은 ‘체험’, ‘마을’, ‘자연’ 등 공동체 기반의 참여형 콘텐츠로 인식되 고 있었다. 클러스터 분석에서는 정책수혜형, 감성치유형, 공동체정착형, 예술창작형 등 다층적 인 귀농 및 정원 유형이 도출되었으며, 감성분석 결과 전체 텍스트의 80% 이상이 긍정적 감정을 나타내었다. 본 연구는 농촌 정원과 귀농귀촌 활동이 단순한 공간 활용이나 이주를 넘어 정서적 공감, 정책적 수혜, 문화적 창작의 플랫폼으로 기능하고 있음을 보여준다. 연구 결과는 향후 정원산업 진흥, 치유농업 활성화, 농촌 정주 정책 수립을 위한 기초자료로 활용될 수 있다.
Stroke is one of the major causes of death worldwide, and in Korea, it has the second highest mortality rate after cancer. Stroke patients require continuous observation and rehabilitation treatment after onset, and in particular, paralysis symptoms are likely to worsen during rehabilitation, emphasizing the need for a real-time monitoring system. Meanwhile, the importance of medical data quality control (QC) algorithms is increasing. In this study, various causes such as failure of sensors such as voltage, current, and temperature of the patient's imaging device diagnostic device, or power loss, may cause malfunctions and transmit inaccurate data. Therefore, in order to secure the reliability of the patient's imaging device diagnostic device data, we plan to design data analysis and algorithms based on QC data of the imaging device diagnostic device. In order to design data analysis and algorithms based on QC data, a system capable of measuring and analyzing sensor data of imaging device diagnostic equipment was built. The reference values of the algorithms to be developed, such as physical limit tests, continuity tests, step tests, median filter tests, and frequency distribution tests, were derived. Voltage, current, and temperature sensor data were statistically analyzed, and in the case of analysis that changes in real time, algorithm S/W was inserted to calculate in real time. It is judged that by monitoring in real time, efficient management and maintenance of the device, and rapid response to device failures will be possible. In the case of device failure, various accidents and high costs can occur. Therefore, if real-time failures are confirmed and rapid maintenance is possible, maintenance costs can be reduced and reliability can be improved, so it is judged that efficient management of the device will be possible.
This study aims to explore the public perception of sports welfare by employing big data analysis techniques and to analyze it through a multi-layered lens grounded in Bronfenbrenner’s ecological systems theory. To this end, text mining software Textom and Ucinet 6 were utilized to examine online textual data related to “sports welfare” collected from May 2017 to February 2025. frequency analysis, TF-IDF analysis, degree centrality analysis, and CONCOR analysis were conducted. The results identified keywords such as “physical education.” “fitness.” “citizens.” “society.” “support.” “disability.” “voucher.” “university.” and “center.” as having high co-occurrence with sports welfare. CONCOR analysis revealed six major clusters: National Fitness 100 Service, Sports Voucher Program, Health Programs at Public Sports Centers, Community-Based Sports Welfare Environment, Training of Sports Welfare Professionals, and Support System Centered on the Korea Sports Promotion Foundation. This study suggests that the level of individual sports welfare can be enhanced through dynamic and interactive relationships between the individual and various environmental systems. Furthermore, to realize sustainable sports welfare, it is essential to develop long-term national strategies that holistically integrate all levels of the ecological systems from the micro system to the chrono system.
This study analyzed the changes in sodium content across different types of kimchi over various storage periods, distinguishing between solids and seasoning (liquid), to better estimate actual sodium intake and improve the food composition databases. Six types (baechu-kimchi, oi-sobagi, buchu-kimchi, baek-kimchi, dongchimi, and nabak-kimchi) were analyzed using ICP-AES. The results were compared with salinometer readings, food composition databases, and nutrition labels from commercial products. Statistical analyses included the Mann-Whitney U test and the Kruskal-Wallis test (=0.05). The findings showed that the seasoning had significantly higher sodium content than the solids and, except for baechu-kimchi and nabak-kimchi, accounted for more than 50% of the total sodium content. Sodium content varied across kimchi types and changed over storage time. Additionally, sodium content measured by ICP-AES significantly differed from those in the food composition databases and commercial nutrition labels, which often over or under-estimated values. Moreover, sodium content in commercial kimchi products exhibited up to a 581-fold difference between the minimum and maximum values. These results suggest that current databases and labeling systems, which do not distinguish between solids and seasoning, may misrepresent the actual sodium intake. Further research and regulatory measures are needed to improve sodium estimation and consumer guidance.
본 연구에서는 UAV(Unmanned Aerial Vehicle) 기반 LiDAR(Light Detection and Ranging), SfM(Structure from Motion), 그리고 수치지형도 기반 DEM(Digital Elevation Model) 데이터를 동일 지역에 적용하여 지형 데이터의 정밀도와 표현 특성을 정량적으로 비교 분석하였다. 경기도 시흥시 범배산 일대를 연구 대상지로 선정하고, 평지, 완사면, 급사면의 세 구역으로 나누어 고도 및 경사 통계, 경사 방향, 경사도 재분류에 따른 면적 분포를 비교하였다. 분석 결과, UAV LiDAR 기반 DEM은 모든 지형에서 가장 높은 정밀도와 해상도를 보여주었으며, SfM 기반 데이터는 비용과 접근성 면에서 유리하나 식생 및 지형 복잡도에 따라 정확도 변동이 크게 나타났다. 수치지형도 기반 DEM은 해상도는 낮지만 일정한 품질을 유지하며 일반적인 지형 분석에 적합한 것으로 나타났다. 본 연구는 지형 조건과 분석 목적에 따른 공간데이터 선택 기준을 제시하고, UAV 기반 지형 정보 활용 전략 수립에 기초자료로 활용될 수 있다.
본 연구는 개선된 무인도 지리정보를 구축하기 위해 폴리곤(Polygon) 기반 무인도 지도와 속성정보를 구축하였다. 연구 결과, 3,460개의 포인트(Point) 데이터와 3,447개의 폴리곤 기반 섬 데이터를 구축하였다. 여기에는 463개의 유인도가 포함되었으며, 무인도 수는 기존 해양수산부의 무인도서 정보조회 서비스에 비해 80개 추가된 것이다. 속성정보로는 59건 이상의 이명과 61개의 무인도 지형 변화 사례를 정리하였다. 무인도 지형 변화는 육화, 소멸, 연결, 병합의 네 가지로 구분하였다. 데이터 구축 과정에서는 해안선 자료의 통합, 불필요한 폴리곤 객체의 정리, 이명 정리 과정에서 일부 한계가 있었다. 이런 한계에도 불구하고 본 연구에서 구축된 데이터는 무인도의 공간적 변화 모니터링과 보전 정책 수립을 위한 기초 자료를 제공하고, 향후 다양한 연구에 활용될 수 있을 것으로 기대된다.