노후화된 사회 기반 시설물 증가에 따라 정기적인 구조물 손상 점검의 중요성이 확대되고 있다. 그러나 기존 점검 방식은 고가의 장비와 다수의 인력을 요구하며, 차선 폐쇄를 필수적으로 수반한다. 특히 차선 폐쇄는 교통 체증을 유발해 차량의 반복적인 가속과 감속, 공회전을 증가시키고 결과적으로 연료 소비와 온실가스 배출량을 증가시켜 사회적 비용을 초래한다. 이에 AI 기술을 활용해 차선 폐쇄 없이 손상을 탐지하는 연구가 진행되고 있으나 대부분 도로포장 탐지에 한정되어 있어 교량 기둥이나 방호 울타리 등 입체 구조물에 대한 탐지 기술과 차선 폐쇄에 따른 운영 효율성 및 에너지와 배출량 변화에 대한 정량적 분석은 부족한 실정이다. 본 연구는 차선 폐쇄 없이 사회 기반 시설물의 손상을 탐지할 수 있는 AI 기반 손상 시스템을 구축하고 차선 폐쇄로 인한 변화를 정량적으로 분석한다. 이를 위하여 360° 카메라, 차량 전방 카메라, 라인 스캔 카메라를 통하여 도로 영상을 수집하고, Mask R-CNN과 RF DETR+SAM 알고리즘을 활용하여 도로포장과 입체 구조물의 손상을 탐지하였다. 또한, 교통 시뮬레이션 프로그램 SUMO를 통해 국내 도로 구간을 재현하고 차량 에너지 분석 모듈 FASTSim을 연계하여 차선 폐쇄에 따른 교통 및 에너지 효율 변화를 비교하였다. AI 탐지 결과 RF DETR+SAM 시스템은 정확도 81%, 정밀도 87%, 재현율 61%, F1-score 0.72를 달성해 Mask R-CNN 대비 우수한 성능을 기록했으며, 도로포장뿐만 아니라 입체 구조물에 대한 안정적 탐지 가능성을 확인하였다. 시뮬레이션 결과 차선 폐쇄는 주행 속도 약 25% 감소, 연료 소모 약 18% 증가, CO2 배출량이 약 22% 증가한 것으로 나타났다. 본 연구는 AI 기반의 손상 탐지가 차량흐름을 유지하며 수행될 수 있음을 실증하고, 유지관리 시 교통, 에너지, 환경 영향을 통합적으로 고려할 수 있는 정량적 근거를 제시한다.
환경 규제에 대한 국제 규제의 강화로 인하여 국내 항만에도 친환경 연료 인프라를 구축하기 위한 정책이 마련되고 있다. 하지 만 여전히 친환경 연료에 대한 작업자의 취급 안전 문제가 대두되고 있는 것이 실정이다. 따라서 본 연구에서는 계절에 따른 항만 내 암 모니아 누출 위험 특성을 정량적으로 평가하고, 이를 기반으로 관리구역을 설정하기 위한 의사결정지원 체계를 제안하였다. 여수항을 대 상으로 환경 변수를 고려하기 위하여 봄·여름·가을·겨울 및 오전·오후의 계절 시나리오를 구성하고, 벙커링 중 발생할 수 있는 최대 누출 조건에서 암모니아 확산 특성을 시뮬레이션하였다. 이때 개인적 위험도는 Gexcon 社의 RISKCURVES를 활용하여 산정하고, IMO CCC 10차 에서 제시한 220 ppm 독성 기준과 HSE Level-2 기준인 1.0E-6/year를 적용하였다. 도출된 위험도를 기반으로 Safety zone을 정의하고, IMO의 작업자 평지 보행속도 1.11 m/s를 적용하여 60초 이내 대피가 불가능한 구역을 Unsheltered zone으로 설정하였다. 또한, Safety zone과 Unsheltered zone 사이에 위치한 작업자의 대피 가능성을 평가하기 위해 A* 알고리즘을 이용해 최단 경로를 탐색하고, k-means 군집화와 Silhouette score를 활용하여 Security zone을 도출하였다. 본 연구의 결과는 암모니아 벙커링 항만 및 친환경 연료 기반 인프라 구축 시 계절 별 위험성을 반영한 사고대응 전략 수립에 활용될 수 있을 것으로 판단된다.
Purpose: This study aims to develop and evaluate A4, a generative AI agent (Adaptive Aptitude Assessment by AI for Nursing Students), designed to support undergraduate nursing students in matching their personal traits with suitable clinical roles. Method: An exploratory research design was used with 71 nursing students and 65 clinical nurses. Developed using ChatGPT-4, the A4 agent classified nursing roles, identified required personal traits, and generated adaptive test items. Perceived person–job fit was measured via survey, and the data were analyzed using descriptive statistics and independent t-tests. Results: Among students, 80.3% agreed that the A4 results represented their characteristics, compared with 69.2% of nurses. Nursing students had higher perceived aptitude–fit scores (2.99 ± 0.62) than nurses (2.74 ± 0.69), indicating a significant difference (t = 2.19, p = .030). Conclusion: The findings indicate that the generative AI-based adaptive assessment, which incorporated clinical scenarios, was perceived by nursing students and clinical nurses as a tool that represents personal traits. This suggests its potential to support personalized career guidance in nursing education and serve as a supplementary tool for clinical practicum orientation.
The purpose of this study is to develop and implement a customized AI-based speaking diagnosis, learning, and assessment system, SpeakMaster, in order to overcome the lack of systematic evaluation and practice opportunities in school English speaking class. This system integrates automated speaking scoring to provide students with feedback on their speaking abilities across pronunciation, conversation, and presentation. This study adopts a design-based research methodology, demonstrating the development and implementation process. 1,451 students and eight teachers in elementary, middle, and high schools participated in the experiment. Data were collected through learning logs, teacher journals, interviews, and post-surveys. The findings indicate that the system design is appropriate for English class, promoting students’ flow in engaging speaking practice. Students showed motivation and satisfaction while teachers found the system valuable for monitoring student progress and facilitating speaking assessments. Despite the challenges of improving chatbot performance and enhancing scoring reliability, the results suggest that SpeakMaster shows potential to enhance English speaking education.
With the growing interest in generative AI (GenAI) for language assessment, its potential as a rater has been discussed. This study compares trained human raters’ scores with GenAI ratings in assessing L2 pragmatic speaking performance across different task types. Fifty L2 English learners of varying proficiency levels completed pragmatic speaking test items, which were scored by five trained raters and ChatGPT-5. To examine the comparability, many-facet Rasch measurement was employed, focusing on examinees’ abilities, raters’ severity, item difficulty, and rating criteria functioning. Findings indicated a moderate correlation between GenAI and human ratings in terms of examinee ability. Compared to human raters, ChatGPT exhibited higher internal consistency and produced a narrower examinee ability distribution. ChatGPT ratings tended to focus on explicit features, such as specific conditions in real-life pragmatic tasks and formulaic expressions, while showing inconsistency in scoring off-task performances and implicit sociopragmatic dimensions. These findings are discussed in light of the potential of GenAI for low-stakes classroom assessment.
This study compares AI PengTalk’s assessments of Korean children’s pronunciation with the assessments of Korean teachers. Sixty Korean sixth-graders participated as assessees, and four Korean elementary teachers participated as assessors. Both PengTalk and the teachers rated the children’s production of 10 English sentences on a five-point scale. They focused on segmentals, stress-rhythm, intonation, and speech rate. The findings were as follows: Firstly, PengTalk evaluated the children’s pronunciation in the four elements significantly lower than the teachers across all English proficiency levels. Secondly, teachers’ ratings of the students aligned more closely with their pre-evaluated English proficiency levels than the AI PengTalk’s assessments. The teachers rated students at the upper level significantly higher than those at the intermediate level, who were, in turn, assessed significantly higher than those at the lower level in all four elements. Furthermore, AI PengTalk and the teachers differed in the mean order of the four elements, particularly in segmentals. Based on the results of this study, suggestions were made for the development and implementation of AI-based English programs.