본 연구는 중앙해양안전심판원의 해양사고 중 안전사고에 대한 재결서 내 비정형 텍스트 데이터를 분석하여, 데이터 기반의 새로운 원인 분류 체계를 구축하는 것을 목적으로 한다. 이를 위해 거대 언어 모델(Large Language Model, LLM)의 문맥 기반 인과 추론 능 력을 활용하는 단계적 접근 방식을 채택하였다. 분석 데이터로는 중앙해양안전심판원 홈페이지에 등록된 2020년부터 2024년까지의 안전 사고 재결서를 수집하여 활용하였다. 수집된 데이터에서 세부 원인을 추출하고, 벡터 기반의 통계적 군집화 분석을 수행한 결과, 당사자, 지휘·협업, 설비·물적, 조직, 환경 요인의 5가지 분류 체계를 도출하였다. 도출된 체계를 적용하여 원인을 재분류한 결과, 기존 통계에서 ‘운항과실’과 ‘기타’ 등 소수 범주에 약 94% 이상 편중되어 있던 원인들이 책임 소재 및 시스템적 관점에 따라 ‘당사자 요인(40.6%)’과 ‘지 휘·협업 요인(25.3%)’ 및 ‘설비·물적 요인(23.2%)’ 등으로 세분화되었다. 또한, 기존에 식별되지 않았던 의사소통 오류나 작업 환경 특성 등 이 ‘조직 요인’ 및 ‘환경 요인’으로 명확히 구분되었다. 본 연구의 결과는 해양 안전사고의 원인을 책임 소재와 시스템적 차원에서 입체적 으로 규명함으로써, 향후 실효성 있는 안전사고 예방 대책 수립을 위한 기초 자료로 활용될 것으로 기대한다.
생성형 인공지능의 급속한 발전은 사회 전반에 광범위한 영향을 미치며, 일상생활을 포함한 다양한 분야 에 활용되고 있다. 본 연구에서는 인공지능 기술의 발전 동향을 대규모 언어모델(Large Language Models, LLM)을 중심으로 살펴보고 생성형 인공지능 기반 솔루션이 정치 및 공공 부문의 효율성과 서비스 최적화 에 기여하고 있음을 확인하였다. 본 연구는 미국, 싱가포르, 인도 등의 사례분석을 통해 인공지능 도구가 선거의 확장성과 시민과의 상호작용 개선에 역할 할 수 있다는 것을 주장한다. 동시에, 대규모 언어모델의 실사용 과정에서 제기되는 편향성, 허위정보 확산, 규제 공백 등의 쟁점들을 고찰할 필요가 있음을 지적한 다. 요컨대, 생성형 인공지능은 민주주의 발전과 공공서비스 증진에 대한 가능성을 제공하지만, 기술의 지속 가능하고 적실한 활용을 위해 투명성, 공정성과 책임성을 고려한 사용이 요구된다.