본 연구에서는 호흡동조화기법의 대안으로 딥러닝 자유호흡기법에서 b-value 별 겉보기확산계수 값을 평가하고 확 산강조영상과 겉보기확산계수 지도의 해부학적 일치성을 분석하여 적절한 여기횟수 값을 알아보고자 하였다. 연구 방법은 2023년 7월부터 2024년 1월까지 간 자기공명영상 검사가 의뢰된 성인 남녀 35명을 대상으로 하였고 사용 장비는 Magnetom Skyra 3.0T(Siemens, Germany)를 이용하였다. 자유호흡기법의 비교를 위해 b-value 50, 400, 800(s/mm2)의 여기횟수를 각각 딥러닝 호흡동조화기법에서 2,3,4으로 딥러닝을 이용하지 않은 일반 자유호 흡기법에서 4,6,8으로 검사하였다. 딥러닝을 추가한 일반 자유호흡기법에서는 1,2,3 여기횟수, 2,3,4 여기횟수, 3,5,6 여기횟수, 4,6,8 여기횟수로 변화하였다. 연구 결과 딥러닝 자유호흡기법에서 간의 좌엽과 우엽, 담낭의 평균 겉보기확산계수 값은 딥러닝 호흡동조화기법과 비교하여 모두 통계적 유의성을 확인하였다. 한편 정성적 평가의 해 부학적 일치성을 분석한 결과 딥러닝 자유호흡기법의 3,5,6 여기횟수와 4,6,8 여기횟수에서 가장 높은 점수를 얻었 으며 검사 시간에서는 딥러닝 호흡동조화기법과 비교하여 약 51%, 40% 감소하였다. 따라서 간 진단에 있어 딥러닝 자유호흡기법에서 b-value 별 적절한 여기횟수 값을 이용한다면 겉보기확산계수 지도의 정확도 유지와 함께 검사 시간을 감소시킬 수 있어 임상적으로 유용한 검사가 될 것으로 사료된다.
지형적인 이질성이 심한 강원도, 경상북도에 집중되고 있는 대형 산불을 관리하기 위해서는 위성 영상을 활용하여 효율적이고 신속한 피해 평가를 통한 의사 결정 과정이 필수적이다. 이에 본 연구는 2022년 3월 5일에 강원도 강릉 및 동해에서 발화하여 3월 8일 19시경 진화된 대형 산불을 대상으로, dNBR을 활용한 산불 심각도 산정과 등급에 영향을 미치는 환경요인을 도출하고자 하였다. 환경요인으로는 식생 또는 연료 유형을 대표하는 정규식생지수, 수종을 구분한 임상도, 수분함양을 나타내는 정규수분지수, 지형과 관련해서는 DEM 등을 수치화한 후 산불 심각도와의 상관 관계를 분석하였다. 산불 심각도는 산불 피해 없음(Unbured)이 52.4%로 가장 넓었고, 심각도 낮음 42.9%, 심각도 보통-낮음 4.3%, 심각도 보통-높음 0.4% 순이었다. 환경요인의 경우 dNDVI, dNDWI와는 음의 상관관계를, 경사도와 는 양의 상관관계를 나타내었다. 식생과 관련해서는 산불 심각도에 영향을 미치는 것으로 분석된 dNDVI, dNDWI, 경사도 모두에서 침엽수, 활엽수, 기타의 집단간 차이가 p-value < 2.2e-16로 유의미한 것으로 분석되었다. 특히, 침엽수 와 활엽수의 차이가 명확하였는데, 강원도 지역에서 우점종인 소나무를 비롯하여 잣나무, 리기다소나무, 곰솔 등의 산불 심각도가 높아 침엽수가 활엽수에 비해 피해를 받는 것이 확인되었다.
This paper introduces a study on measuring the 3D vibration displacement of plate structure using Digital Image Correlation (DIC) applied to stereo digital continuous camera images. The proposed method is a non-contact 3D displacement measurement method that does not require physical sensors to be attached to the structure, and it has the advantage of simultaneously measuring dynamic displacements at multiple points on the structure. Theoretically, multiple cameras can be used, but in this study, two cameras were used to capture continuous images of the vibrating structure, and the image coordinates of multiple tracking points at arbitrary positions on the structure were measured using correlation matching. Using these image coordinates as input data, the dynamic 3D positions were calculated through Space intersection, successfully determining the 3D dynamic displacements. The measured dynamic displacements were validated for accuracy by comparing them with values measured by laser displacement sensors. And frequencies of measured data were validated by comparing with computational modal analysis by Finite Element Model (FEM).
본 연구는 남북한 공영방송국의 날씨방송 영상을 비교·분석하기 위한 연구이다. 이를 위하여 먼저 날씨방송을 이론적으로 고찰하고, 지난 1년 간 우리나라 공영방송인 KBS 뉴스의 날씨방송과 북한 공영방송인 조선중앙TV 뉴스의 날씨방송을 연구 대상으로 삼아, 영상구성과 의미연결망분석을 실시하 였다. 결과는 다음과 같았다. 첫째, 우리나라 날씨방송은 북한 날씨방송에 비 하여 약 3배 정도 짧게 구성되었다. 둘째, 우리나라 날씨방송은 ‘기온’, ‘서울’ 등이 의미연결망의 중심부에 있었고, 북한 날씨방송은 ‘지역’, ‘기온’이 의미 연결망 중심부에 있었다. 셋째, 우리나라 날씨방송이 전달하는 날씨 건강주의 정보는 ‘대기질’이었고, 북한은 ‘지자기’로 분석되었다. 이를 통하여 우리나라 날씨방송은 그 길이가 짧고 주요도시를 중심으로 한 빠른 전개가 특징이었던 반면, 북한 날씨방송은 그 길이가 길고 지역을 중심으로 한 느린 전개가 특징 이었다. 또한 건강주의 정보로 우리나라는 미세먼지 등 대기질 정보를 건강주 의 정보로 전달하는 반면, 북한은 협심증, 고혈압 등 순환기질병 지자기 정보 를 건강주의 정보로 전달하고 있었다. 끝으로 본 연구는 기후변화 및 기후위 기의 시대에 들어, 한반도를 공유하고 있는 남북한 공영방송국의 날씨방송이, 향후 어떤 지점을 어떻게 교류·개선할 수 있는지 추가적인 논의체계가 필요할 수 있다는 점을 밝히며 본 연구를 마쳤다.
To identify some significant phenotypic characteristics of maize(zea mays) seeds, we have obtained Red, Green, Blue(RGB) digital image data from 82 recombinant inbred lines. Based on the collected image data, their morphological and color data were analyzed, and seven significant parameters were selected, including area, perimeter, length, width, circularity, roundness, and surface texture. The extracted RGB data were converted into color hex codes to visualize the representative colors of the seeds. These visualized colors were categorized into six groups: gray, yellowish white, yellow, grayish orange, purple, and brown. The results of maize seed phenotypic analysis using the RGB digital images in this study will serve as a useful tool for constructing a database of seed phenotyping database and establishing a standardized classification system.
본고는 인지언어학의 이론 중 하나인 영상도식과 그릇도식을 통해 한·중 차등 비 교문 속 비교결과인 중국어 ‘小’에 해당하는 한국어의 다양한 표현을 연구하고자 한 다. AI 허브라는 인공지능 학습용 병렬 데이터에서 한·중 차등 비교문의 용례들을 내려받고, 그 중 비교결과 중국어 ‘小’에 해당하는 한국어의 원형 표현인 ‘작다’ 외의 확장 의미 표현을 정리하며 언어의 다의성을 역동성과 유연성으로 자연스럽게 설명 되는 영상도식으로 먼저 살펴보고자 한다. 또한 이러한 영상도식의 논리를 분리하여 생각할 수 없는 그릇도식을 통해 중국어 ‘小’와 한국어 원형의미인 ‘작다’ 외의 확장 의미 표현 들을 도식화로 살펴봄으로써 한·중 차등 비교문의 의미관계를 좀더 자세히 고찰하고자 한다.
자기공명영상은 영상 의학 분야에서 다른 진단 장비에 비해 연부 조직에 대한 높은 대조도를 지니고 있고 인대의 손상, 주변 조직의 염증, 골염 등의 병변을 진단하는 데 유용하여 연골 및 관절 병변의 진단에 널리 이용되고 있다. 또한, 기존 고식적 TSE 기법 외에도 SMS 기법, DL 기법, CS 기법, 병렬 영상 기법 등 다양한 펄스 시퀀스들이 개발되고 임상에서 사용되고 있다. 본 연구는 무릎 관절 자기공명영상 검사에서 얇은 절편 검사 시 고식적 TSE 기법, SMS TSE 기법, DL TSE 기법에서 영상을 획득하여 각 각의 영상의 비교를 통해 무릎 관절 영상 획득에 최적의 기법에 대하여 알아보고자 한다. 무릎 관절 질환의 진단을 위해 본원에 내원한 환자를 대상으로 고식적 TSE 기법, SMS TSE 기법, DL TSE 기법을 적용하여 시상면 T2 강조 영상을 획득한 후 신호 대 잡음비, 대조도 대 잡음비, 검사 시간, 영상의 질 평가를 정량적, 정성 적 방법으로 비교 분석하였다. 연구 결과 세 가지 기법으로 획득한 영상 비교 시 통계적으로 유의한 차이가 있었으며, 환자 의 상태와 임상의 상황을 종합적으로 고려하여 적절한 기법을 선택한다면, 최적의 영상을 제공할 수 있다고 생각된다.
해양사고 발생시 실종자는 해양에 노출된 시간이 길어질수록 생존확률이 빠르게 감소하기 때문에 인명구조를 위해서는 신 속한 수색이 필요하다. 또한 해양의 수색영역은 육상에 비해서 매우 넓기 때문에 효율적인 수색을 위해서는 선박을 이용한 육안수색보 다는 인공위성이나 항공기에 탑재된 센서를 이용한 해상 객체 탐지 기술의 적용이 필요하다. 본 연구는 항공기에 탑재된 초분광 영상 센서를 이용하여 해양에서 객체를 신속하게 탐지하기 위한 목적으로 진행되었다. 초분광 영상 센서로 촬영된 영상은 8,241 × 1,024의 공간 해상도를 가지며, 한 화소당 0.7 m의 분해능과 127개의 스펙트럼으로 구성된 대용량의 데이터이다. 본 연구에서는 이러한 데이터 를 신속하게 분석하기 위한 목적으로 DBSCAN을 사용한 해수 식별 알고리즘과 밀도 기반의 육지 제거 알고리즘을 결합한 해상 객체 탐지 모델을 개발하였다. 개발한 모델은 초분광 영상에 적용하였을 때 약 5 km2의 해상 영역을 100초 내로 분석할 수 있는 성능을 보 였다. 또한 개발한 모델의 탐지 정확도를 평가하기 위해서 항공기를 이용하여 목포, 군산, 여수 지역의 초분광 영상을 촬영하였으며, 본 연구에서 개발한 탐지 모델에 적용한 결과, 실험 영상 내의 선박들을 90 %의 정확도로 탐지할 수 있는 결과를 얻었다. 본 연구에서 개발된 기술은 소형 선박의 수색·구조 활동을 지원하는 중요한 정보로 활용될 수 있을 것으로 기대한다.
국내에서 유튜브가 정식으로 서비스를 시작한 이후로 다양한 CCM 영상 콘텐츠의 제작이 늘고 있다. 이제 CCM 영상 콘텐츠의 제작은 다양한 활동을 위한 필수적인 요소로 자리 잡고 있으며 이 는 국내 CCM 문화의 성장에 좋은 양분이 되고 있다. 하지만 이와 관련된 연구가 전무한 실정이다. 지속적인 발전을 위해 관련 연구에 관한 논의가 활발히 이루어져야 함을 생각하였다. 그리고 본 연구를 통해 유튜브를 통한 CCM 영상 콘텐츠의 제작과 국내 CCM 문화에 도움이 되고자 하였다. 본 연구는 2010년대 이후 CCM 영상 콘텐츠를 분석하여 특성을 도출하였다. 국내 CCM 관련 콘텐츠 채널 중 2010년대 이후의 결성된 팀의 채널을 분류하여 다양한 기준을 통해 「J-US Ministry」와 「WELOVE CREATIVE TEAM」 그리고 「아이자야씩스티원(Isaiah6tyOne)」을 선정하였다. 그리고 각 채널의 콘텐츠와 음악을 중심으로 분석하여 도출해낸 특성은 이러하다. 첫째, 온라인 콘텐츠의 특성이 활용되었다. 시공간의 제약을 벗어나는 주제와 새로운 촬영기법을 활용한 콘텐츠가 제작 되었고, 무대 연출과 연행방식에서도 새로운 시도가 있었다. 둘째, 새로운 노랫말의 표현을 사용 하였다. ‘공감’이라는 일상적 단어와 ‘시간’과 ‘뚫다’라는 다른 개념의 단어가 혼합된 노 랫말을 사용하였다. 셋째, 기존의 형태를 벗어나는 음악적 시도가 있었다. 예배음악의 일반적인 음악적 특징에서 벗어나 5도 이상의 도약을 사용하였고, 2옥타브 솔#(G#)의 다소 높은 음의 사용 이 있었다. 본 연구는 유튜브를 통한 국내 CCM 관련 콘텐츠 중 일부만을 다루었다는 점에서 아쉬 움을 남긴다. 그리고 이와 관련된 연구가 계속해서 진행되기를 기대한다.
본 연구는 데이터 과학의 과정에 따른 파이썬 기반의 외부고리 은하 영상 분석 알고리즘 개발을 목적으로 한다. 잠재적 사용자는 학생과 교사를 포함한 시민 과학자로 정하였다. 은하의 실제 데이터를 이용한 분류 연구는 IRAF 라는 전문 소프트웨어가 이용되고 있어 일반인이 접근하기에 한계가 있다. 이에 IRAF를 사용한 선행 연구의 결과와 비교 검 증이 가능한 외부고리 은하를 분석 대상 천체로 정하여, 영상 분석 알고리즘을 개발하고 그 결과를 검증하였다. 검증 결과 총 69개의 외부고리 은하 중 50개(72.5%)가 IRAF 결과와 높은 일치를 보였다. 남은 19개(27.5%)는 시선 방향에 겹친 밝은 별의 존재 혹은 은하 내부의 약한 밝기로 인해 IRAF 결과와 다른 낮은 일치를 보였다. 보완 과정을 거친 최종 결과물은 공유 및 교육 자료의 활용도를 높이기 위해 전체 사용된 데이터와 알고리즘, 파이썬 코드 파일 및 사용 설명서를 GitHub에 탑재하였다.
산불이 발생하면 수목은 산불의 직접 영향을 받는 1차 피해와 시간이 경과하면서 다양한 원인으로 고사하는 2차 피해를 입는다. 산불 발생 후 피해지 조사 시점에 따라서 산불 피해지의 분포 패턴이 달라지고 2차 피해 현상이 진행하는 과정도 지역마다 다르게 나타난다. 이 연구는 산불발생 후 산불피해지의 변화를 분석하는 방법을 제안하는 것이 목적이다. 이 연구에서 제안하는 방법은 시계열 군집 분석을 통해서 비슷한 피해 변화 양상을 보이는 산불 피해지를 구분할 수 있다. 2022년 3월 4일부터 3월 13일까지 산불이 진행한 울진・삼척 지역을 대상으로 산불 피해지를 분석하였다. 9개의 군집으로 분류한 결과를 보면, 세 개의 군집이 다양한 산불 피해지 변화 양상을 보여주고 있다. 이 연구에서는 각 군집의 지도화로 공간 분포 특성을 보여준다. 산불 피해지가 집중되어 있는 지역, 시기적으로 특정 시기에 산불이 발생한 지역 등에서 각 군집이 분포하는 것을 확인할 수 있다.
In this study, the PBL class was applied to a Vietnamese video class. 13 learners were divided into 3 groups, and it was examined whether all learners grew toward their learning goals, and if so, through what process they grew. When group 1 announces a task, groups 2 and 3 perform peer evaluation and submit a peer evaluation sheet. For this, group 1 categorized the contents of peer evaluation into reflecting, partially reflecting, revised, and not reflecting to prepare the presentation evaluation sheet. Further, they were required to write a reason why “not reflecting.” A reflection log was also submitted. As a result of the above, the assignments were immediately revised, supplemented, and developed every week through peer and instructor evaluation. Through this process, the instructor learned in detail what kind of reflection the presenter and team members were doing each week. In particular, learners achieved ‘up-leveling’ with the activeness of immediately accepting each other’s strengths while conducting peer evaluations on each other’s presentations. This shows that the weekly assignments are improved, while the competencies of both the presentation team and peers are developed at the same time.
소셜 네트워크는 우리 일상 생활의 필수적인 부분이 되었다. 소셜 미디어 정보에 대한 정서 분석은 소셜 네 트워킹 사이트에 대한 사람들의 견해, 태도, 감정을 이해하는 데 도움이 된다. 전통적인 정서 분석은 주로 텍 스트에 의존한다. 스마트폰이 등장하면서 문자뿐만 아니라 이미지 등 네트워크 상의 정보도 점차 다양해지고 있다. 많은 경우 이미지가 감정을 독립적으로 표현하기 보다는 텍스트를 향상시킬 수 있다는 것이 밝혀졌습 니다. 우리는 새로운 이미지 텍스트 정서 분석 모델(LSTM-VAA)을 제안한다. 구체적으로 이 모델은 사진 정보 를 직접 입력으로 가져가지 않고 VGG16 네트워크를 사용하여 이미지 특징을 추출한 다음 시각적 측면 주의 를 생성하고 문서의 핵심 문장에 더 높은 가중치를 부여하고 시각적 측면 주의를 기반으로 문서 표현을 얻 는다. 또한, 우리는 LSTM 네트워크를 사용하여 텍스트 감성을 추출하고 텍스트만을 기반으로 문서 표현을 얻 는다. 마지막으로, 우리는 두 분류 결과 그룹을 통합하여 최종 분류 레이블을 얻는다. 옐프 레스토랑 리뷰 데 이터 세트에서, 우리의 모델은 감정 분류를 위한 시각 주의 보조 텍스트로 시각 정보를 사용하는 것의 효과 를 검증하는 BiGRU-m VGG보다 18.92% 높은 62.08%의 정확도를 달성한다. 비스타넷 모델보다 0.32% 높아 비스타넷 모델의 이미지가 텍스트를 완전히 커버할 수 없는 결함을 LSTM 모델이 효과적으로 보완할 수 있 음을 입증했다.