검색결과

검색조건
좁혀보기
검색필터
결과 내 재검색

간행물

    분야

      발행연도

      -

        검색결과 22

        1.
        2024.06 KCI 등재 구독 인증기관 무료, 개인회원 유료
        Abstract Handling imbalanced datasets in binary classification, especially in employment big data, is challenging. Traditional methods like oversampling and undersampling have limitations. This paper integrates TabNet and Generative Adversarial Networks (GANs) to address class imbalance. The generator creates synthetic samples for the minority class, and the discriminator, using TabNet, ensures authenticity. Evaluations on benchmark datasets show significant improvements in accuracy, precision, recall, and F1-score for the minority class, outperforming traditional methods. This integration offers a robust solution for imbalanced datasets in employment big data, leading to fairer and more effective predictive models.
        4,000원
        3.
        2023.09 KCI 등재 구독 인증기관 무료, 개인회원 유료
        Nowadays, artificial intelligence model approaches such as machine and deep learning have been widely used to predict variations of water quality in various freshwater bodies. In particular, many researchers have tried to predict the occurrence of cyanobacterial blooms in inland water, which pose a threat to human health and aquatic ecosystems. Therefore, the objective of this study were to: 1) review studies on the application of machine learning models for predicting the occurrence of cyanobacterial blooms and its metabolites and 2) prospect for future study on the prediction of cyanobacteria by machine learning models including deep learning. In this study, a systematic literature search and review were conducted using SCOPUS, which is Elsevier’s abstract and citation database. The key results showed that deep learning models were usually used to predict cyanobacterial cells, while machine learning models focused on predicting cyanobacterial metabolites such as concentrations of microcystin, geosmin, and 2-methylisoborneol (2-MIB) in reservoirs. There was a distinct difference in the use of input variables to predict cyanobacterial cells and metabolites. The application of deep learning models through the construction of big data may be encouraged to build accurate models to predict cyanobacterial metabolites.
        4,300원
        4.
        2023.08 KCI 등재 구독 인증기관 무료, 개인회원 유료
        본 연구에서는 코로나 이후 색조화장품 시장의 소비자들의 온라인 관심 정보에 대한 자료 수집 을 통하여 색조화장품 정보 검색의 특성과 텍스트 마이닝 분석 결과에 나타난 코로나 이후 색조화장품 시 장의 주요 관심정보들을 분석하고자 하였다. 실증분석에서는 “색조화장품” 이라는 단어를 포함하는 뉴스, 블로그, 카페, 웹페이지 등의 모든 문서들을 분석 대상으로 텍스트 마이닝을 수행하였다. 분석 결과 코로나 이후 색조화장품에 대한 온라인 정보 검색은 주로 구매 정보와 피부와 마스크 관련 화장법 등에 관한 정보 와 관심 브랜드와 행사 정보 등의 주요 토픽이 주를 이루고 있었다. 결과적으로 코로나 이후 색조화장품 구매자들은 적극적인 온라인 정보 검색을 통하여 제품 가치와 안전성, 가격 혜택, 매장 정보 등의 구매 정 보에 더욱 민감하게 될 것이므로 이에 대한 대응전략이 요구된다.
        4,000원
        7.
        2020.12 KCI 등재 구독 인증기관 무료, 개인회원 유료
        인체 바이오모니터링(Human biomonitoring, HBM) 데이터는 뇨와 혈액 등 생체지표으로부터 환경유해물질의 측정을 통해 획득되며, 다양한 노출원과 경로로부터 노출되는 유해물질의 인체노출수준 및 건강영향과의 상관성을 파악하기 위해 매우 중요하다. 국내의 경우 식품의약품안전처를 비롯한 국가기관의 다양한 HBM 프로그램을 통하여 HBM 데이터가 생산되고 있다. 그러나, 목적, 시기, 연구자 및 측정 장비의 차이에 의하여 서로 다른 형식에 따라 생산되다 보니, 데이터의 호환성의 문제로 인하여 특정 HBM 데이터를 신속하게 조회해야 하거나 인구집단별 시간적 추이분석 내지는 다른 국가의 자료와 비교에 난점을 가지고 있다. 따라서, 본 연구에서는 HBM 데이터를 체계적으로 데이터베이스(Database, DB)화하고 활용성을 증진하게 시킬 목적으로 지식 모델링을 실시하였다. 지식 모델링은 HBM 데이터의 생산되는 변수들을 그룹화하고 관계를 분석하여 2차원 구조의 개체 및 집합론에 기초한 방법론인 관계형 데이터 모델링 기법을 활용하여 실시하였다. 지식 모델은 조사대상자를 인구집단으로 중심으로 설문자료, 측정자료, 노출 평가자료 개체로 구성하고 그 안에 속성들을 정의하고, 개체간에 관계를 설정하는 방식으로 구성하였다. 또한, 도출된 지식 모델을 기반으로 식품의약품안전처에서 2006년-2018년까지 수행한 HBM의 원시데이터를 수집, 정제 및 정규화하여 통합 DB를 구축하였다. 이와 같이 통합 된 HBM-DB는 개별 자료원 내지는 특정 자료원들을 선택 하여 기간별 농도 수준에 대한 통계분석은 물론, 다양한 검 색조건을 통하여 데이터 추출을 할 수 있는 구조로 구축하였다. 본 HBM-DB는 관계형 DB모델로 구축되어 지속적인 대용량 DB 축적이나 HBM 데이터 해석을 위한 도구로써 효율적으로 수행할 수 있을 것으로 생각된다.
        4,200원
        9.
        2017.12 KCI 등재 구독 인증기관 무료, 개인회원 유료
        토목분야 생산성 향상을 위해 BIM을 적용하기 위한 노력이 계속되고 있으나, 선형과 지반에 대한 정보가 필수적인 터널 구조물의 정보모델링에 대한 연구는 미흡한 상황이다. AMT에서 생성된 선형의 이산화를 통해 포인트의 정보를 BAT로 전 달하여 곡선 선형을 반영한 터널 모델 생성 방안을 제시하였다. 철도 구조물과 선형에 대한 물리적 요소와 공간적 요소를 모두 고려할 수 있도록 IFC 데이터 스키마를 확장하였으며, 확장된 데이터 스키마를 참조하여 선형, 구조물, 지반 정보에 대한 의미정보를 PSET에 담아 IFC기반의 정보관리를 가능하게 하였다. 제안한 방법에 따라 생성한 정보모델을 통해 터널과 밀접한 암반 등급을 자동으로 도출함으로써 활용성을 검증하였다.
        4,000원
        11.
        2012.09 KCI 등재 구독 인증기관 무료, 개인회원 유료
        캐릭터 애니메이션 생성을 위해서는 대용량의 기하 모델 데이터와 모션 데이터 처리를 요구한다. 본 연구에서는 이러한 캐릭터 애니메이션 데이터를 다기종 컴퓨터 환경에서 교환하여 사용할 수 있는 방법에 대해서 기술한다. 캐릭터는 일반 그래픽스 도구를 이용하여 H-Anim ISO/IEC JTC1 SC24 표준화 그룹과 Web3D Consortium에 의해 제정된 국제표준인 H-Anim 기반에서 새로 확장된 구조로 제작한다. H-Anim은 현재 인간형 캐릭터 구조의 전송이나 저장에 필요한 계층적 데이터 구조를 X3D 기반으로 정의하고 있으나 캐릭터의 움직임 표현이나 전송을 위한 애니메이션 데이터에 대해서는 정의되어 있지 않다. 본 연구에서는 H-Anim 표준에 애니메이션에 필요한 추가적인 기능을 새로 제공하여 캐릭터 애니메이션 데이터가 호환성을 가질 수 있도록 데이터 형식을 정의하고, 이 때 H-Anim 구조를 만족시키도록 해주기 위한 캐릭터 모델링의 조건과 제작 방법을 설명한다.
        4,000원
        12.
        2012.06 KCI 등재 구독 인증기관 무료, 개인회원 유료
        It has been a huge amount of capacity of 10GB data base in a decade ago so far. Nowadays, however, 10TB is the common data base and even bigger capacities are available. So, new generation of Very Large Data Base (VLDB) has begun. Moving in to the new generation of VLDB has been caused major problems like backing up, restoring, and managing especially performance. It is very hard to export necessary data rapidly now due to the huge amount of data base. In the past, such kind of problems was out of the questions because of less data. As time goes on, however, optimization of performance became a big issue when the VLDB is common. Therefore, new professional technics are urgently required to maintain and optimize the data base that has become a VLDB or one that is in the progress of becoming one.
        4,000원
        13.
        2012.06 KCI 등재 구독 인증기관 무료, 개인회원 유료
        Obtaining and applying information is considered as a critical task in the modern informationized society. Finding the one's necessary information and processing it into a detailed knowledge are becoming more priortized in the enormous amount of information. Data modelling is the process that does not only reflect the demands of the user but the one that also facilitates the user's comprehension of the model itself. Ultimately, data modelling fully supports the processes that are requisite for the implementation of a data base and minimizes the alternations of the model during the development of applications.
        4,000원
        14.
        2012.04 구독 인증기관 무료, 개인회원 유료
        데이터는 살아 움직이고 있다. 10년 전만 해도 10GB 정도의 데이터라면 대용량 데 이터라고 불리던 시절이 있었다. 하지만 지금은 10TB보다 큰 데이터베이스도 흔하다. 결국, 대용량 데이터베이스(VLDB)의 시대가 개막된 것이다. VLDB로 변한 데이터베이스에는 백업, 복구, 관리와 같은 문제점이 있지만 그 중에 서도 성능 문제를 빼놓을 수 없다. 데이터베이스에 많은 데이터가 있고 그렇게 많은 데이터 중에서 필요한 몇 건의 데이터만 추출하는 것이 쉬운 일이 아니다. 과거에는 데이터가 적었기 때문에 이러한 것이 큰 문제가 아니었지만 이제는 VLDB가 되면서 성능 최적화는 일상적이고도 중요한 이슈가 되었다. 따라서 VLDB가 된 데이터베이스 나 VLDB로 변하고 있는 데이터베이스에서 성능 관리를 하고 최적화할 수 있는 전문 기술이 필요하다.
        4,000원
        17.
        2010.12 KCI 등재 구독 인증기관 무료, 개인회원 유료
        최근 국가지리정보유통망을 통한 공간정보 통합에 대한 논의처럼, 속성데이터 중심의 인문지리정보 데이터베이스도 시작 단계에서부터 향후의 통합을 고려한 프로토콜을 필요로 한다. 본 연구에서는 효율적인 인문지리정보 DB 구축을 위해 DB 모델의 원칙과 절차, 즉 데이터 모델, DB 정규화, 데이터 무결성에 대해 인문지리정보 사례를 통해 방향을 제시하였고, 인문지리정보의 변화를 수용할 수 있는 시간성 확보 방안과 온톨로지와 통합DB를 효과적으로 연계하는 방안을 제시하였다. 특히 시간에 따른 정보의 변화를 저장하기 위해 TimeStamp 객체와 TimeSPAN 객체를 DB에 임베드하였고 시간관계 함수를 이용해 검색할 수 있도록 하였다. 또한 수시 갱신이 필요한 인문지리정보 DB를 온톨로지와 연계하기 위해서는 DBMS 내의 RDF 객체를 활용하는 효율적인 방법을 제시하였다. 이러한 방안은 인문지리정보 DB 뿐만 아니라 수시갱신이 요구되는 대용량의 DB 구축시 가장 근본적으로 검토하여야 할 내용을 제시해 줄 것이다.
        4,000원
        18.
        2009.12 KCI 등재 구독 인증기관 무료, 개인회원 유료
        Electronic Product Code Information Services(EPCIS) is an EPCglobal standard for sharing EPC related information between trading partners. EPCIS provides a new important capability to improve efficiency, security, and visibility in the global supply chain. EPCIS data are classified into two categories, master data (static data) and event data (dynamic data). Master data are static and constant for objects, for example, the name and code of product and the manufacturer, etc. Event data refer to things that happen dynamically with the passing of time, for example, the date of manufacture, the period and the route of circulation, the date of storage in warehouse, etc. There are four kinds of event data which are Object Event data, Aggregation Event data, Quantity Event data, and Transaction Event data. This thesis we propose an event-based data model for EPC Information Service repository in RFID based integrated logistics center. This data model can reduce the data volume and handle well all kinds of entity relationships. From the point of aspect of data quantity, we propose a formula model that can explain how many EPCIS events data are created per one business activity. Using this formula model, we can estimate the size of EPCIS events data of RFID based integrated logistics center for a one day under the assumed scenario.
        4,000원
        19.
        2009.06 KCI 등재 구독 인증기관 무료, 개인회원 유료
        EPCIS(EPC Information Services) system is a core component of EPCglobal Architecture Framework offering information of the freights, the time of awareness and the location of awareness on the EPCglobal Network. The role of EPCIS is to exchange information based on EPC. There are four kinds of event data which are object event data, aggregation event data, quantity event data, and transaction event data. These EPCIS events data are stored and managed in EPCIS repository. This study suggest the quantitative modeling about total number of EPCIS event data under the assumption to aware the RFID tags of items, cases(boxes), vehicles(carriers, forklifts, auto guided vehicles, rolltainers) at a time on the reading points. We also estimate the number of created EPCIS event data by the suggested quantitative modeling under scenario of process in the integrated logistics center based on RFID system And this study compare the TO-BE model with the AS-IS model about the total sizes of created EPCIS event data using the simulation, in which we suggested the TO-BE model as the development of the repository by skipping the overlapped records.
        4,000원
        20.
        2005.05 구독 인증기관 무료, 개인회원 유료
        To understand the pattern recognition from dataset, a study should be started from the decomposition process of context into a collection of data pieces because the context may infer different words or information. Many researchers have been focused on finding an effective methodology for data storage, retrieval, representation, and discovery. As a similar endeavor, this paper proposes a new modeling method using group theory and situation theory. This paper provides how to construct a semi-group as a modeling method for pattern recognition from huge dataset. This process of construction of semi‐groups can be used as a retrieval tool for the decomposed information if necessary.
        4,000원
        1 2