Five insecticides (Acrinathrin, Dinotefuran, Emamectin benzoate, Chlorfenapyr and fluxametamide) approved for tomato cultivation were evaluated in Frankliniella occidentalis populations collected from Chungcheong province (Cheongyang, Chungju and Gongju). Leaf dip bioassay was used to evaluate resistance levels (LC50). Bioassays on Acrinathrin demonstrated higher LC50 concentration in evaluated populations. In particular, the Chungju population was 745.61 times the recommended concentration of the insecticide. Other remarkable resistance levels were recorded for the Dinotefuran with 435.06 times and 196.29 times the recommended concentrations for the populations from Chungju and Gongju, respectively. Bioassays for Emamectin benzoate, Chlorfenapyr and Fluxametamide showed low resistance to insecticides in the evaluated populations.
Yellow flower thrips (WFT), Frankliniella occidentalis is mainly controlled using chemical control methods. But the continuous use of chemical pesticides in greenhouse may contribute to development of insecticide resistance. Therefore, in this study, we evaluated the insecticidal activity of eleven insecticides against the WFT occurring in greenhouse pepper cultivation in the Gyeonggi province. The results showed no resistance in treatments with emamectin benzoate, fluxametamide, and flometoquin while high levels of resistance were recorded in treatments with acrinathrin, acetamiprid, and dinotefuran. The Anseong and Yeoju population was more resistant against spinetoram and chlorfluazuron, respectively, than populations from other regions.
최근 소프트웨어 유통망(ESD)를 통해 유통되는 게임이 늘어남에 따라 사용자들이 원하는 게임을 찾는데 어려움을 겪고 있다. 이에 따라 사용자들이 원하는 게임을 찾기 쉽게 태그를 생성하는 모델의 필요성이 대두 되고 있다. 본 논문에서는 태그를 생성하는 모델을 BERT를 통해 설계하였다. 태그 100개 중 가장 적합한 태그를 4개 추출하기 위해 입력된 문장에 대해 각 태그별로 이진분류를 수행하고 이진분류 당시의 Softmax 값이 가장 컸던 태그 4개를 선택했다. 또한, 모델의 정확도를 위해서 약 33억 개의 다국어 단어로 학습한 pre-trained Multilingual BERT 모델과 약 5천만 개의 한국어 단어로 학습한 KoBERT 모델을 가져와 한국어 데이터로 학습(finetuning) 시켜 사용하였다. 실험에서 BERT 모델은 KoBERT 모델보다 F- 점수에서 9.19 % 더 나은 성능을 보입니다. 이는 언어 학습 데이터 세트의 크기가 특정 언어인 한국어 특성보다 더 중요하다는 것을 나타낸다.