검색결과

검색조건
좁혀보기
검색필터
결과 내 재검색

간행물

    분야

      발행연도

      -

        검색결과 4

        1.
        2024.08 KCI 등재 구독 인증기관 무료, 개인회원 유료
        최근 늘어나고 있는 이상 기상 현상으로 산사태 위험이 점차 증가하고 있다. 산사태는 막대한 인명 피해와 재산 피해를 초래할 수 있기에 이러한 위험을 사전에 평가함은 매우 중요하다. 최근 기술 발전으로 인해 능동형 원격탐사 방법을 사용하여 더 정확하고 상세한 지표 변위 및 강수 데이터를 얻을 수 있게 되었다. 그러나 이러한 데이터를 활용하여 산사태 예측 모델을 개발하는 연구는 찾기 힘들다. 따라서 본 연구에서는 합성개구레이더 간섭법(InSAR)을 사용한 지표 변위 자료와 하이브리드 고도면 강우(HSR) 추정 기법을 통한 강수 정보를 활용하여 산사태 민감도를 예측하는 기계학습 모델을 제시하고 있다. 나아가 기계학습의 블랙박스 문제를 극복할 수 있는 해석가능한 기계학습 방법인 SHAP을 이용하여 산사태 민감도의 영향 변수에 대한 중요도를 체계적으로 평가하였다. 경상북도 울진군을 대상으로 사례 연구를 수행한 결과, XGBoost가 가장 좋은 예측 성능을 보이며, 도로로부터의 거리, 지표 고도, 일 최대 강우 강도, 48시간 선행 누적 강우량, 사면 경사, 지형습윤지수, 단층으로 부터의 거리, 경사도, 지표 변위, 하천으로부터의 거리가 산사태 예측에 영향을 미치는 주요 변수로 밝혀졌다. 특히, 능동형 원격탐사를 통해 얻은 자료인 강우 강도와 지표 변위의 절댓값이 높을수록 산사태 발생 확률이 높음을 확인하였다. 본 연구는 능동형 원격탐사 자료의 산사태 민감도 연구에서의 활용 가능성을 실증적으로 보여주고 있으며, 해당 자료를 바탕으로 시공간적 으로 변하는 산사태 민감도를 도출함으로써 향후 산사태 민감도 모니터링에 효과적으로 활용될 수 있을 것으로 기대된다.
        6,000원
        3.
        2023.07 구독 인증기관·개인회원 무료
        While machine learning has gained popularity in choice behavior modeling, most machine learning models are often complex, difficult to interpret, and even considered as black box. This study investigates machine learning methods for choice behavior modeling that provide interpretability of models’ output. We explore various approaches including (1) explicitly descriptive models such as tree-based models, (2) interpretation of predictive models through feature importance measures, and (3) recent advancements in prediction explanation methods such as LIME and SHAP (Shapley Additive exPlanations). We demonstrate the methods on consumers’ airport choice behavior in Seoul metropolitan area. Through the comparative analysis with traditional discrete choice models, we discuss advantages as well as limitations of machine learning models in consumer choice behavior modeling.
        4.
        2022.06 KCI 등재 구독 인증기관 무료, 개인회원 유료
        PURPOSES : In this study, model-agnostic methods are applied for interpreting machine learning models, such as the feature global effect, the importance of a feature, the joint effects of features, and explaining individual predictions. METHODS : Model-agnostic global interpretation techniques, such as partial dependence plot (PDP), accumulated local effect (ALE), feature interaction (H-statistics), and permutation feature importance, were applied to describe the average behavior of a machine learning model. Moreover, local model-agnostic interpretation methods, individual conditional expectation curves (ICE), local surrogate models (LIME), and Shapley values were used to explain individual predictions. RESULTS : As global interpretations, PDP and ALE-Plot demonstrated the relationship between a feature and the prediction of a machine learning model, where the feature interaction estimated whether one feature depended on the other feature, and the permutation feature importance measured the importance of a feature. For local interpretations, ICE exhibited how changing a feature changes the interested instance’s prediction, LIME explained the relationship between a feature and the instance’s prediction by replacing the machine model with a locally interpretable model, and Shapley values presented how to fairly contribute to the instance’s prediction among the features. CONCLUSIONS : Model-agnostic methods contribute to understanding the general relationship between features and a prediction or debut a model from the global and/or local perspective, securing the reliability of the learning model.
        4,500원