본 연구에서는 코로나 이후 색조화장품 시장의 소비자들의 온라인 관심 정보에 대한 자료 수집 을 통하여 색조화장품 정보 검색의 특성과 텍스트 마이닝 분석 결과에 나타난 코로나 이후 색조화장품 시 장의 주요 관심정보들을 분석하고자 하였다. 실증분석에서는 “색조화장품” 이라는 단어를 포함하는 뉴스, 블로그, 카페, 웹페이지 등의 모든 문서들을 분석 대상으로 텍스트 마이닝을 수행하였다. 분석 결과 코로나 이후 색조화장품에 대한 온라인 정보 검색은 주로 구매 정보와 피부와 마스크 관련 화장법 등에 관한 정보 와 관심 브랜드와 행사 정보 등의 주요 토픽이 주를 이루고 있었다. 결과적으로 코로나 이후 색조화장품 구매자들은 적극적인 온라인 정보 검색을 통하여 제품 가치와 안전성, 가격 혜택, 매장 정보 등의 구매 정 보에 더욱 민감하게 될 것이므로 이에 대한 대응전략이 요구된다.
인체 바이오모니터링(Human biomonitoring, HBM) 데이터는 뇨와 혈액 등 생체지표으로부터 환경유해물질의 측정을 통해 획득되며, 다양한 노출원과 경로로부터 노출되는 유해물질의 인체노출수준 및 건강영향과의 상관성을 파악하기 위해 매우 중요하다. 국내의 경우 식품의약품안전처를 비롯한 국가기관의 다양한 HBM 프로그램을 통하여 HBM 데이터가 생산되고 있다. 그러나, 목적, 시기, 연구자 및 측정 장비의 차이에 의하여 서로 다른 형식에 따라 생산되다 보니, 데이터의 호환성의 문제로 인하여 특정 HBM 데이터를 신속하게 조회해야 하거나 인구집단별 시간적 추이분석 내지는 다른 국가의 자료와 비교에 난점을 가지고 있다. 따라서, 본 연구에서는 HBM 데이터를 체계적으로 데이터베이스(Database, DB)화하고 활용성을 증진하게 시킬 목적으로 지식 모델링을 실시하였다. 지식 모델링은 HBM 데이터의 생산되는 변수들을 그룹화하고 관계를 분석하여 2차원 구조의 개체 및 집합론에 기초한 방법론인 관계형 데이터 모델링 기법을 활용하여 실시하였다. 지식 모델은 조사대상자를 인구집단으로 중심으로 설문자료, 측정자료, 노출 평가자료 개체로 구성하고 그 안에 속성들을 정의하고, 개체간에 관계를 설정하는 방식으로 구성하였다. 또한, 도출된 지식 모델을 기반으로 식품의약품안전처에서 2006년-2018년까지 수행한 HBM의 원시데이터를 수집, 정제 및 정규화하여 통합 DB를 구축하였다. 이와 같이 통합 된 HBM-DB는 개별 자료원 내지는 특정 자료원들을 선택 하여 기간별 농도 수준에 대한 통계분석은 물론, 다양한 검 색조건을 통하여 데이터 추출을 할 수 있는 구조로 구축하였다. 본 HBM-DB는 관계형 DB모델로 구축되어 지속적인 대용량 DB 축적이나 HBM 데이터 해석을 위한 도구로써 효율적으로 수행할 수 있을 것으로 생각된다.
The distribution of wild boar (Sus scropa) in the Republic of Korea was forecasted using environmental factors. A species distribution model was applied with the standard normalized difference vegetation index (NDVI), enhanced vegetation index (EVI), solar zenith angle (SUNZ), daytime land surface temperature (dTemp), and nighttime land surface temperature (nTemp). Understanding wild boar distribution is important for controlling African swine fever (ASF) because the disease could be endemic in wild boar or spread from wild boars to domestic pigs. Among the five predictors, the NDVI was the most influencing factor for the wild boar distribution. The relative contributions of the predictors were 67.4 for NDVI, 16.9 for dTemp, 10.5 for SUNZ, 4.4 for EVI, and 0.8 for nTemp. The area size under the receiver-operating curve of the receiver-operating characteristics for the current model was 0.62, but the real wild boar observation data overlapped with the predicted high-density wild boar distribution area. The wild boar distribution density was relatively higher in Gangwon-do, Gyeongsangbuk-do, Gyeongsangnam-do, and Jeollanam-do. Given the ASF epidemics, contact between ASF-infected animals and ASF-susceptible animals in high-density wild boar distribution areas should be prevented by long-range fencing or active surveillance.
토목분야 생산성 향상을 위해 BIM을 적용하기 위한 노력이 계속되고 있으나, 선형과 지반에 대한 정보가 필수적인 터널 구조물의 정보모델링에 대한 연구는 미흡한 상황이다. AMT에서 생성된 선형의 이산화를 통해 포인트의 정보를 BAT로 전 달하여 곡선 선형을 반영한 터널 모델 생성 방안을 제시하였다. 철도 구조물과 선형에 대한 물리적 요소와 공간적 요소를 모두 고려할 수 있도록 IFC 데이터 스키마를 확장하였으며, 확장된 데이터 스키마를 참조하여 선형, 구조물, 지반 정보에 대한 의미정보를 PSET에 담아 IFC기반의 정보관리를 가능하게 하였다. 제안한 방법에 따라 생성한 정보모델을 통해 터널과 밀접한 암반 등급을 자동으로 도출함으로써 활용성을 검증하였다.
온난화와 같은 전지구적 변화는 기온과 강수 등 기상요소에 직접적으로 반영되어 곡물 수확량의 변화를 가져온다. 기후변화 시나리오에 기초한 선행연구들에서는 GCM (general circulation model)의 공간해상도 문제로 인하여 상세한 모의가 어려웠고, 시계열통계법을 활용한 연구들에서는 기후요소를 통합하여 수확량을 예측한 사례가 매우 드물었다. 이에 본 연구에서는 상세화된 기후재분석자료의 시계열모델링을 통하여 옥수수와 콩의 수확량 예측실험을 수행하였다. 미국 아이오와 주의 99개 카운티를 대상으로 1960년부터 2009년까지 50년간의 고해상도 기후재분석자료와 정부통계 수확량 DB를 구축하고, 시계열통계법인 VAR (vector autoregression)와 ARIMA (autoregressive integrated moving average)를 이용하여 다음해 수확량 예측실험을 10개 연도에 대해 수행하여 예측력을 평가하였다. VAR는 16-18%, ARIMA는 11-14% 의 오차율로 다음해의 수확량을 예측할 수 있는 것으로 집계되었으며, 옥수수의 경우 표토의 산성도, 심토의 점토와 나트륨 함유량 등의 토양특성 이 실제 수확량 및 예측정확도에 영향을 미치는 것으로 나타났다.
In this paper, we investigate the statistical correlation of the time series for temperature measured at the heat box in the automobile drying process. We show, in terms of the sample variance, that a significant non-linear correlation exists in the time series that consist of absolute temperature changes. To investigate further the non-linear correlation, we utilize the volatility, an important concept in the financial market, and induce volatility time series from absolute temperature changes. We analyze the time series of volatilities in terms of the de-trended fluctuation analysis (DFA), a method especially suitable for testing the long-range correlation of non-stationary data, from the correlation perspective. We uncover that the volatility exhibits a long-range correlation regardless of the window size. We also analyze the cross correlation between two (inlet and outlet) volatility time series to characterize any correlation between the two, and disclose the dependence of the correlation strength on the time lag. These results can contribute as important factors to the modeling of forecasting and management of the heat box’s temperature.
In this paper, we have considered the modeling and analyses of categorical data. We modeled binary data with categorical predictors, using logistic regression to develop a statistical method. We found that ANOVA-type analyses often performed unsatisfactory, even when using arcsine-square-root transformations. We concluded that such methods are not appropriate, especially in cases where the fractions were close to 0 or 1. The logistic transformation of fraction data could be a promising alternative, but it is not desirable in the statistical sense. The major purpose of this paper is to demonstrate that logistic regression with an ANOVA-model like parameterization aids our understanding and provides a somewhat different, but sound, statistical background. We examined a simple real-world example to show that we can efficiently test the significance of regression parameters, look for interactions, estimate confidence intervals, and calculate the difference between the mean values of the referent and experimental subgroups. This paper demonstrates that precise confidence interval estimates can be obtained using the proposed ANOVA-model like approach. The method discussed here can be extended to any type of fraction data analysis, particularly for experimental design.
Globally, smart phones have been rapidly distributed, which has led to changes in people's life cycle. Most people who are under 60 are supposed to use smart phones. Additionally, as the ratio of people who are interested in physical exercise is increasing, some applications for smart phones can manage dividual's exercise with the web servers. However, most of them can only check how much individual works out and cannot compare other's body type and life environment. Moreover, users cannot share their own data with others. This paper proposed the system which can resolve those kinds of problems through data mining techniques. The suggested model will have ability to figure out the relation between body type and the amount of exercise, find out if his work is proper from the result of classification and can pick out the features which is common to people who have similar body type and the amount of workout by applying data mining techiques. This model also will be able to recommend the proper amount of workout to each individual in order that they keep good health state efficiently.
Earth’s average temperature has risen by 0.78°C over the past century, and is projected to rise another 1.1 to 6.4°C over the next hundred years based on recent announced RCP8.5 climate change scenario. Small changes in the average temperature of the planet can translate to large and potentially dangerous shifts in biosphere. Based on climate change scenario, local distribution of well-known species should be changed in near future. Models, if applied appropriately, give useful and rapid predictions of the potential distribution of the target species. CLIMEX is one of modeling systems that may provide insights into the climatic factors that limit the geographical distribution of a species in different parts. Climatic parameters and the climate matching function of CLIMEX enable the risks of an exotic species as well as well-known species to be assessed by directly comparing the climatic condition of a given location with any number of other locations without knowing the full distribution of a species. However, CLIMEX supports only three locations in Korea (Seoul, Pusan and Kangnung province). We generated detail weather database of Korea for CLIMEX, and simulated using the data of American serpentine leafminer, Liriomyza trifolii (Burgess), a key pest and well-known species in Korea for application of future risk assessment under possible climate change condition in Korea.
캐릭터 애니메이션 생성을 위해서는 대용량의 기하 모델 데이터와 모션 데이터 처리를 요구한다. 본 연구에서는 이러한 캐릭터 애니메이션 데이터를 다기종 컴퓨터 환경에서 교환하여 사용할 수 있는 방법에 대해서 기술한다. 캐릭터는 일반 그래픽스 도구를 이용하여 H-Anim ISO/IEC JTC1 SC24 표준화 그룹과 Web3D Consortium에 의해 제정된 국제표준인 H-Anim 기반에서 새로 확장된 구조로 제작한다. H-Anim은 현재 인간형 캐릭터 구조의 전송이나 저장에 필요한 계층적 데이터 구조를 X3D 기반으로 정의하고 있으나 캐릭터의 움직임 표현이나 전송을 위한 애니메이션 데이터에 대해서는 정의되어 있지 않다. 본 연구에서는 H-Anim 표준에 애니메이션에 필요한 추가적인 기능을 새로 제공하여 캐릭터 애니메이션 데이터가 호환성을 가질 수 있도록 데이터 형식을 정의하고, 이 때 H-Anim 구조를 만족시키도록 해주기 위한 캐릭터 모델링의 조건과 제작 방법을 설명한다.
It has been a huge amount of capacity of 10GB data base in a decade ago so far. Nowadays, however, 10TB is the common data base and even bigger capacities are available. So, new generation of Very Large Data Base (VLDB) has begun. Moving in to the new generation of VLDB has been caused major problems like backing up, restoring, and managing especially performance. It is very hard to export necessary data rapidly now due to the huge amount of data base. In the past, such kind of problems was out of the questions because of less data. As time goes on, however, optimization of performance became a big issue when the VLDB is common. Therefore, new professional technics are urgently required to maintain and optimize the data base that has become a VLDB or one that is in the progress of becoming one.
Obtaining and applying information is considered as a critical task in the modern informationized society. Finding the one's necessary information and processing it into a detailed knowledge are becoming more priortized in the enormous amount of information. Data modelling is the process that does not only reflect the demands of the user but the one that also facilitates the user's comprehension of the model itself. Ultimately, data modelling fully supports the processes that are requisite for the implementation of a data base and minimizes the alternations of the model during the development of applications.
데이터는 살아 움직이고 있다. 10년 전만 해도 10GB 정도의 데이터라면 대용량 데 이터라고 불리던 시절이 있었다. 하지만 지금은 10TB보다 큰 데이터베이스도 흔하다. 결국, 대용량 데이터베이스(VLDB)의 시대가 개막된 것이다. VLDB로 변한 데이터베이스에는 백업, 복구, 관리와 같은 문제점이 있지만 그 중에 서도 성능 문제를 빼놓을 수 없다. 데이터베이스에 많은 데이터가 있고 그렇게 많은 데이터 중에서 필요한 몇 건의 데이터만 추출하는 것이 쉬운 일이 아니다. 과거에는 데이터가 적었기 때문에 이러한 것이 큰 문제가 아니었지만 이제는 VLDB가 되면서 성능 최적화는 일상적이고도 중요한 이슈가 되었다. 따라서 VLDB가 된 데이터베이스 나 VLDB로 변하고 있는 데이터베이스에서 성능 관리를 하고 최적화할 수 있는 전문 기술이 필요하다.