검색결과

검색조건
좁혀보기
검색필터
결과 내 재검색

간행물

    분야

      발행연도

      -

        검색결과 2

        1.
        2022.04 KCI 등재 구독 인증기관 무료, 개인회원 유료
        본 연구에서는 채소정식을 위한 정식기에 사용하는 생분해성 포트를 개발하기 위하여 생분해성 첨가제의 비율에 따라 포트의 물성 및 식물의 생장 차이를 구명하였다. 본 실험에 사용된 생분해포트의 주원료는 크라프트지와 신문고지였고, 생분해성 포트는 주 배합비에서 내첨첨가제의 함량을 주원료 대비 각 3%, 5%로 제조하였다. 본 실험에서 8주 육묘 후 포트의 물리적 특성과 첨가제에 따른 변화를 알아보기 위해 포트의 인장강도, 두께, 무게 등을 조사하였다. 생분해성 첨가제가 함유된 포트와 일반 PE포트에 식물 생장도 비교하였다. 2주차에서 5주차에는 매주 배추의 생육조사를 진행했고, 5주차에서 8주차에는 고추생육조사를 진행하였다. 식물의 생장은 뿌리신선중(g), 지상부 시선중(g), 옆 장(cm), 옆 폭(cm)등을 측정하였다. 생분해성 포트에서의 식물 생장은 플라스틱 포트에 비해 생육이 저조하게 나타났다. 생분해성 포트의 무게와 두께는 첨가제 함량에 따라 낮은 상관성을 보였지만, 인장강도의 경우 차이를 보여 내첨제의 비율에 따라 생육에 영향을 미치는 것으로 나타났다. 그러나 첨가제는 무게와 두께에는 영향을 미치지 않아 포트의 생분해 능력에는 영향이 없는 것으로 판단된다. 본 연구는 생분해성 식물 포트 개발의 기초자료가 될 것으로 기대된다.
        4,000원
        2.
        2021.04 KCI 등재 구독 인증기관 무료, 개인회원 유료
        The important thing in the field of deep learning is to find out the appropriate hyper-parameter for image classification. In this study, the main objective is to investigate the performance of various hyper-parameters in a convolutional neural network model based on the image classification problem. The dataset was obtained from the Kaggle dataset. The experiment was conducted through different hyper-parameters. For this proposal, Stochastic Gradient Descent without momentum (SGD), Adaptive Moment Estimation (Adam), Adagrad, Adamax optimizer, and the number of batch sizes (16, 32, 64, 120), and the number of epochs (50, 100, 150) were considered as hyper-parameters to determine the losses and accuracy of a model. In addition, Binary Cross-entropy Loss Function (BCLF) was used for evaluating the performance of a model. In this study, the VGG16 convolutional neural network was used for image classification. Empirical results demonstrated that a model had minimum losses obtain by Adagrad optimizer in the case of 16 batch sizes and 50 epochs. In addition, the SGD with a 32 batch sizes and 150 epochs and the Adam with a 64 batch sizes and 50 epochs had the best performance based on the loss value during the training process. Interestingly, the accuracy was higher while performing the Adagrad and Adamax optimizer with a 120 batch sizes and 150 epochs. In this study, the Adagrad optimizer with a 120 batch sizes and 150 epochs performed slightly better among those optimizers. In addition, an increasing number of epochs can improve the performance of accuracy. It can help to create a broader scope for further experiments on several datasets to perceive the suitable hyper-parameters for the convolutional neural network. Dataset: https://www.kaggle.com/c/dogs-vs-cats/data
        4,000원