The purpose of this study is to develop a timely fall detection system aimed at improving elderly care, reducing injury risks, and promoting greater independence among older adults. Falls are a leading cause of severe complications, long-term disabilities, and even mortality in the aging population, making their detection and prevention a crucial area of public health focus. This research introduces an innovative fall detection approach by leveraging Mediapipe, a state-of-the-art computer vision tool designed for human posture tracking. By analyzing the velocity of keypoints derived from human movement data, the system is able to detect abrupt changes in motion patterns, which are indicative of potential falls. To enhance the accuracy and robustness of fall detection, this system integrates an LSTM (Long Short-Term Memory) model specifically optimized for time-series data analysis. LSTM's ability to capture critical temporal shifts in movement patterns ensures the system's reliability in distinguishing falls from other types of motion. The combination of Mediapipe and LSTM provides a highly accurate and robust monitoring system with a significantly reduced false-positive rate, making it suitable for real-world elderly care environments. Experimental results demonstrated the efficacy of the proposed system, achieving an F1 score of 0.934, with a precision of 0.935 and a recall of 0.932. These findings highlight the system's capability to handle complex motion data effectively while maintaining high accuracy and reliability. The proposed method represents a technological advancement in fall detection systems, with promising potential for implementation in elderly monitoring systems. By improving safety and quality of life for older adults, this research contributes meaningfully to advancements in elderly care technology.
태풍은 지구 시스템 내의 해양-대기-육상 상호작용을 일으키는 매우 중요한 현상으로 특히 태풍의 특성 인자 중 하나인 풍속은 중심 기압, 이동 경로, 해수면 온도 등의 매개변수에 의해 복잡하게 변화하여 실제 관측 자료를 기반으 로 이해하는 것이 중요하다. 2015 개정 교육과정 기반 중등학교 교과서에서 태풍 풍속은 본문 내용 및 삽화의 형태로 제시되고 있어 풍속에 대한 심층적 이해가 가능한 탐구활동이 무엇보다 필요한 실정이다. 본 연구에서는 교수-학습 과 정에서 간단한 조작만으로도 태풍의 풍속을 이해할 수 있도록 그래픽 사용자 인터페이스(GUI)를 기반으로 한 데이터 시각화 프로그램을 개발하였다. 2023년 발생한 태풍 마와르, 구촐, 볼라벤의 천리안 위성 2 A호 RGB (Red-Green-Blue) 영상 자료를 입력 자료로 활용하였다. 태풍 주변의 구름 이동 좌표를 입력하여 태풍의 풍속을 산출하고 태풍 중심 기 압, 폭풍 반경, 최대 풍속 등의 매개 변수를 입력하여 태풍 풍속 분포를 시각화 할 수 있도록 설계하였다. 본 연구에서 개발된 GUI 기반 프로그램은 천리안 위성 2 A호로 관측 가능한 태풍에 대해 오류 없이 적용 가능하며 교과서의 시공 간적 한계를 벗어난 실제 관측 자료 기반의 과학탐구활동이 가능하다. 학생과 교사는 별도의 유료 프로그램 및 전문적 인 코딩 지식이 없어도 실제 관측 자료를 수집, 처리, 분석, 시각화하는 과정을 경험할 수 있으며, 이를 통해 미래 정보 화 사회에서의 필수 역량인 디지털 소양을 함양시킬 수 있을 것으로 기대된다.
This study was conducted to develop a model for predicting the growth of kimchi cabbage using image data and environmental data. Kimchi cabbages of the ‘Cheongmyeong Gaual’ variety were planted three times on July 11th, July 19th, and July 27th at a test field located at Pyeongchang-gun, Gangwon-do (37°37′ N 128°32′ E, 510 elevation), and data on growth, images, and environmental conditions were collected until September 12th. To select key factors for the kimchi cabbage growth prediction model, a correlation analysis was conducted using the collected growth data and meteorological data. The correlation coefficient between fresh weight and growth degree days (GDD) and between fresh weight and integrated solar radiation showed a high correlation coefficient of 0.88. Additionally, fresh weight had significant correlations with height and leaf area of kimchi cabbages, with correlation coefficients of 0.78 and 0.79, respectively. Canopy coverage was selected from the image data and GDD was selected from the environmental data based on references from previous researches. A prediction model for kimchi cabbage of biomass, leaf count, and leaf area was developed by combining GDD, canopy coverage and growth data. Single-factor models, including quadratic, sigmoid, and logistic models, were created and the sigmoid prediction model showed the best explanatory power according to the evaluation results. Developing a multi-factor growth prediction model by combining GDD and canopy coverage resulted in improved determination coefficients of 0.9, 0.95, and 0.89 for biomass, leaf count, and leaf area, respectively, compared to single-factor prediction models. To validate the developed model, validation was conducted and the determination coefficient between measured and predicted fresh weight was 0.91, with an RMSE of 134.2 g, indicating high prediction accuracy. In the past, kimchi cabbage growth prediction was often based on meteorological or image data, which resulted in low predictive accuracy due to the inability to reflect on-site conditions or the heading up of kimchi cabbage. Combining these two prediction methods is expected to enhance the accuracy of crop yield predictions by compensating for the weaknesses of each observation method.
This study examines and proposes standardization approaches to address the heterogeneous issues of metadata in drone imagery within the agricultural sector. Image metadata comes in various formats depending on different camera manufacturers, with most utilizing EXIF and XMP. The metadata of cameras used in fixed-wing and rotary-wing platforms, along with the metadata requirements in image alignment software, were analyzed for sensors like DJI XT2, MicaSense RedEdge-M, and Sentera Double4K. In the agricultural domain, multispectral imagery is crucial for vegetation analysis, making the provision of such imagery essential. Based on Pix4D SW, a comparative analysis of metadata attributes was performed, and necessary elements were compiled and presented as a proposed standardization (draft) in the form of tag information.
최근 3차원 영상 데이터 활용 기술이 주목받으며 레이저 스캐너, 깊이 카메라와 같은 장비를 활용하여 작물의 생육을 측정하려는 연구가 시도되고 있다. 작물의 생육 특성을 측정할 때 3차원 영상 데이터를 활용한다면 평면 데이터에서 측정하지 못한 구조와 형태 정보를 이용할 수 있는 장점이 있다. 본 연구에서는 콩의 생육 특성을 3차원 영상 데이터를 활용하여 추정하였다. 깊이 카메라를 이용하여 콩의 개화시(R1), 착협기(R3), 종실비대기(R5) 에 촬영하고 3차원 데이터로 개체의 초장과 엽면적을 추정하고 실측 값과 비교하였다. 초장 추정을 위해 평면에 투영된 개체의 무게 중심을 이용하여 원줄기의 x, y 좌표 위치를 지정하였는데 눈으로 보고 지정한 원줄기의 위치와 무게 중심 점의 x, y 좌표 위치는 높은 결정 계수를 보였다. 초장 추정의 경우 콩의 구조와 형태가 발달함에 따라 3차원 영상에서 지면으로부터 개체 상단 지점 간 거리를 이용하는 방법은 실측과 추정 값간 오차가 컸다. 엽면적 추정을 위해서 3차원 위치 값을 갖는 개체 표면 점들을 높이에 따라 분할하고 각 높이 구간의 면적을 계산하였다. 3차원 데이터 병합 과정에서 늘어난 점 개수로 인해 각 높이 구간에서 계산된 면적이 증가하였기 때문에 추정 값은 과대평가되었다. 향후 3차원 영상을 이용한 보다 정밀한 생육 조사를 위해서는 작물 고유의 생육변수 특성을 고려한 데이터 전처리 과정과 분석 방법 개발이 필요할 것으로 사료된다.
As Deepfakes phenomenon is spreading worldwide mainly through videos in web platforms and it is urgent to address the issue on time. More recently, researchers have extensively discussed deepfake video datasets. However, it has been pointed out that the existing Deepfake datasets do not properly reflect the potential threat and realism due to various limitations. Although there is a need for research that establishes an agreed-upon concept for high-quality datasets or suggests evaluation criterion, there are still handful studies which examined it to-date. Therefore, this study focused on the development of the evaluation criterion for the Deepfake video dataset. In this study, the fitness of the Deepfake dataset was presented and evaluation criterions were derived through the review of previous studies. AHP structuralization and analysis were performed to advance the evaluation criterion. The results showed that Facial Expression, Validation, and Data Characteristics are important determinants of data quality. This is interpreted as a result that reflects the importance of minimizing defects and presenting results based on scientific methods when evaluating quality. This study has implications in that it suggests the fitness and evaluation criterion of the Deepfake dataset. Since the evaluation criterion presented in this study was derived based on the items considered in previous studies, it is thought that all evaluation criterions will be effective for quality improvement. It is also expected to be used as criteria for selecting an appropriate deefake dataset or as a reference for designing a Deepfake data benchmark. This study could not apply the presented evaluation criterion to existing Deepfake datasets. In future research, the proposed evaluation criterion will be applied to existing datasets to evaluate the strengths and weaknesses of each dataset, and to consider what implications there will be when used in Deepfake research.
최근 들어 비행정보에 대한 확인기술의 발달과 소형 드론의 지속적인 기술개발로 인하여 이동성과 안정성이 확보된 근접 항공촬영이 가능해졌다. 특히 GPS좌표를 활용하여 경로비행의 위치를 직접 지정함으로써 조사대상지에 대한 경 로비행의 정확성과 안정성이 확보되었으며, 이를 통해 일정한 고도를 유지한 상태에서 정사투영 촬영을 통한 분석이 가능하게 되었다. 따라서 본 연구에서는 수목의 생육관리와 3D맵핑 시스템의 접목에 착안하여 정밀하고 체계적인 3D 맵핑 도면작성을 활용하여 수목의 시공과 관리측면에서 경제적이고 장기적인 차원에서 수목의 상태를 파악하기 위한 방안을 모색하고자 하였다. 특히 문화재로 지정된 수목의 경우처럼 고부가가치를 지닌 수목에는 활용도가 더 크다 하겠다. 항공사진 촬영에 이용된 UAV는 Mikrokopter사의 회전 익을 이용하였으며, 디지털 데이터의 취득은 Sony α5100을 활용하였다. 항공사진촬영 시 공간해상도를 고려하여 비행고도를 설정하였는데, 계획된 공간해상도 3Cm를 확보하기 위해 비행고도는 대상지를 기준으로 80m로 설정하였으며 촬영 시 종중복율(Endlap) 및 횡중복율(Sidelap)을 45%로 설정하여 항공사진촬영을 실시하였다. 그 결과 약 4개의 스트립 비행 경로를 따라 44개의 Waypoint가 설정되었으며, 비행고도와 속도는 80m, 약 3m/sec로 항공사진촬영을 실시하였다. 연구대상지인 광한루원의 항공사진 촬영을 결과를 살펴 보면 44개의 Wapoint 중 41개 지점에서 촬영되었으며, 취득된 디지털데이터에 비행로그데이터를 적용하여 잔차분 석을 통한 유효성을 검증한 결과 UAV에서 촬영된 41개의 디지털데이터 모두 유효한 데이터로 확인되었다. 3D맵핑 데이터제작 및 DEM분석은 Photoscan을 이용하 여 데이터를 추출하였다. 3D맵핑을 위한 데이터의 정합은 UAV 시스템에서 취득된 디지털영상데이터를 모두 이용하였으며, Photoscan의 자동영상매칭 기능을 이용하여 Point Cloud Data 형식의 데이터를 하나의 데이터로 정렬한 후 이를 바탕으로 Polygon Data 및 Texture로 변환하여 약4.5 ㎝급의 DSM을 생성하였으며, 정사투영 방식의 보정을 통해 약 3cm급의 정사영상데이터를 제작하였다. 취득된 디지털데이터를 통해 구축된 공간정보데이터의 보정 및 정확성 검토를 위해 UAV를 이용하여 취득된 영상과 GPS/INS데이터, 기상기준점 측정 데이터를 기반으로 정확성을 검토하였다. 지상기준점측량은 RTK(Real Time Kinematic)의 GRS80좌표 시스템을 이용하여 데이터를 취득하였으며, 측량지점은 3곳을 지상기준점으로 선정하였 다. 측정결과 RMSE는 ±5Cm 이내의 정확성을 가지는 것으 로 나타나 정사영상 데이터를 이용한 수목의 수관폭 등에 대한 평면데이터 구축에는 문제가 없는 것으로 파악되었다. 구축된 정사영상 데이터를 분석한 결과 총 25주의(산수 유4, 은행나무7, 소나무9, 단풍나무4, 모과나무1) 수목이 확인되었는데, 이중 산수유와 은행나무는 현장조사를 통해 수목의 종류를 확인하였다. 정사영상 데이터를 바탕으로 최종 생성된 DSM데이터를 살펴보면, 시설물 및 지형에 대한 수치데이터는 정확하게 분석되었으나 수목의 경우에는 총 25주의 수목중 약 50%에 해당하는 12주(단풍나무 3주, 소나무 5주, 산수유 4주)의수목에 대한 3D데이터가 추출되었다. 이러한 이유는 항공촬영을 통한 디지털데이터 구축에 있어 수직부감으로 촬영된 디지털데이터는 수목의 불규칙면에 대한 데이터 구축의 어려움과 수목 일부가 그림자와 중첩됨으로써 그림자로 인식되는 현상, 수목들 중첩되는 구간에 대한 3D데이터 구축이 어려운 것으로 판단되었으며 최근에 식재된 수목(은행나무(7)에서 3D데이터가 생성되지 않는 것으로 나타났다. 따라서 추후 항공촬영에 있어 디지 털 데이터 구축 시 45도 사선 촬영을 포함하여 항공사진촬 영 시간과 시기 등에 대한 보완이 필요할 것으로 판단되며, 3D데이터 구축에 필요한 위치좌표의 참고자료 구축을 위해 다양한 고도에서 항공사진촬영을 실시함과 동시에 지상 촬 영의 병행을 통해 수목개체군에 대한 종합적인 3D데이터 구축이 가능할 것으로 판단된다.
This paper is a study on data augmentation for small dataset by using deep learning. In case of training a deep learning model for recognition and classification of non-mainstream objects, there is a limit to obtaining a large amount of training data. Therefore, this paper proposes a data augmentation method using perspective transform and image synthesis. In addition, it is necessary to save the object area for all training data to detect the object area. Thus, we devised a way to augment the data and save object regions at the same time. To verify the performance of the augmented data using the proposed method, an experiment was conducted to compare classification accuracy with the augmented data by the traditional method, and transfer learning was used in model learning. As experimental results, the model trained using the proposed method showed higher accuracy than the model trained using the traditional method.
In the ground environment, mobile robot research uses sensors such as GPS and optical cameras to localize surrounding landmarks and to estimate the position of the robot. However, an underwater environment restricts the use of sensors such as optical cameras and GPS. Also, unlike the ground environment, it is difficult to make a continuous observation of landmarks for location estimation. So, in underwater research, artificial markers are installed to generate a strong and lasting landmark. When artificial markers are acquired with an underwater sonar sensor, different types of noise are caused in the underwater sonar image. This noise is one of the factors that reduces object detection performance. This paper aims to improve object detection performance through distortion and rotation augmentation of training data. Object detection is detected using a Faster R-CNN.
최근 PACS에서 장기간 저장장치로 디스크 배열이 많이 사용되고 있으나, 디스크에 대한 년 간 불량률에 관해서 신뢰성이 부족한 실정이다. 2016년 10월부터 2017년 2월까지 PACS 판독기에서 의료영상을 읽거나 저장하면서 하드디스크의 직렬포트단자를 조사하였으며, PACS 영상저장 장치에 사용되었던 하드디스크 98대와 개인용 컴퓨터에 사용되었던 하드디스크 101대에 저장된 데이터에서 전송률을 산출하였다. PACS 판독기에서 CT영상을 읽었을 경우에는 수십 MB이하 단위로 읽기는 87.8%, 쓰기는 12.2%가 수행되었다. PACS 판독기에서 CT 영상을 저장할 때는 수십 MB이하 단위로 읽기는 11.4%, 쓰기는 88.6%가 수행되었다. 개인용 컴퓨터에서 엑셀 파일을 읽을 경우에는 3 MB 이하단위로 읽기는 75%, 쓰기는 25%가 수행되었다. 개인용 컴퓨터에서 엑셀 파일 저장을 진행하면서 하드디스크와의 통신은 3 MB이하단위로 읽기는 38%, 쓰기는 62%가 수행되었다. PACS내 영상저장장치에 사용되는 하드디스크의 전송률은 10 GB/h, 개인용 컴퓨터의 하드디스크의 전송률은 5 GB/h로 나타났다. PACS내 영상저장에 사용되던 하드디스크의 년간 불량률은 0.97 ~ 1.13%를 보였고, 개인용 컴퓨터 내 하드디스크의 년간 불량률은 0.51~0.7%를 보였다. 전송량이 높을수록 년 간 불량률도 높아졌다. 이러한 결과는 하드디스크의 수명예측이나 연간 고장률을 예측하기 위한 기초 자료로 활용될 것이다.
The purpose of this study is to analyze the accuracy of cultivated crop database in agricultural farm business using UAV(Unmanned Aerial Vehicle) and field survey over Daesso-myeon, Umsung-gun, Chungbuk. When comparing with agricultural farm business and cadastral maps, Daeso-myeon crop field shows 29.8%(2,030 parcels out of 6,822 parcels) is either mismatched or missing. It covers almost 19.3%(3.4km2 of 17.6km2) of total farmland. In order to solve these problems, it is necessary to prepare a multifaceted plan including cadastral map. Comparative analysis of the cultivated crop registered in the agricultural farm business and the field survey agreed only in 3,622 parcels in total 6,822 parcels whereas 3200 parcels disagree. Among these disagreed parcels 2,030(29.8%) have been confirmed as unregistered farm business entity. Accuracy of cultivated crop registered in agricultural farm business agreed in 75.6% cases. Especially the paddy field registration is more accurate that other crops. These discrepancies can lead to false payment in agricultural farm business. For exploration and analysis of regional resources, UAV images can be used together with farm business management database and cadastral map to get a clearer grasp over on-site resources and conditions.
최근 들어 전 세계적 기상이변에 의한 자연재해의 피해가 급증하고 있으며, 재난·재해의 대형화, 집중화, 세계화로 인한 위험을 조기에 발견하고, 피해를 최소화하기 위해 IT 기술을 활용한 재난관리의 필요성이 증대되고 있다. 또한, 각종 재해를 분석하는데 있어서 기존의 2차원 종이지도를 이용하는 형태에서 벗어나 수치지도, 항공영상, 위성영상 등의 다양한 데이터를 융합하여 이용하는 추세이며, 실세계에서 발생하는 재해형태를 정밀하게 해석하기 위해 3차원 지형정보 이용에 대한 관심이 높아지고 있다.
본 연구에서는 태풍, 호우, 지진 등의 자연재해 발생 시 댐, 보, 교량, 제방, 옹벽, 절토사면 등 수변구조물의 효과적인 피해정보의 추출과 분석에 적합한 3차원 정밀 Reference 데이터 구축을 위해 항공라이다, 항공영상(UAV 포함), 지상라이다 측량 등의 다양한 센서 데이터를 융합하여 자료처리를 수행하고 정확도를 평가함으로써 수변구조물의 피해분석에 효율적인 데이터 구축 기법을 제시하였다. 또한, UAV 등을 이용하여 취득된 다중 항공영상에 최신의 영상매칭 기법을 적용하여 3차원 공간정보를 추출한 후 기 구축된 3차원 Reference 데이터와 비교함으로써 수변구조물의 정량적인 피해분석 가능성과 한계를 분석하였다.