본 논문은 직접해법 기반 FETI 알고리즘의 개선 방안을 제시하였다. 개선 대상은 FETI-local로, 해당 알고리즘은 국부 Lagrange 승 수를 통해 부영역 간 경계 문제를 정의한다. 부영역 경계 강성 및 하중 계산 단계의 경우, 전체 역행렬 계산 등 과도한 비용을 요구했던 기존 알고리즘을 Boolean 행렬 특성을 활용한 선택적 역행렬 성분 계산으로 개선하였다. 전역 경계 행렬식 계산 단계의 경우, 기존 단 일 프로세서 연산을 다중 프론탈 기법 기반 병렬 연산으로 대체하였다. 제시된 FETI-local 알고리즘의 성능 개선은 64만 자유도 수치 예제를 통해 검증되었으며, 기존 대비 최대 97.8%의 계산 시간 감소가 달성되었다. 또한, 기존 대비 안정적이고 개선된 확장성이 가속 지표를 통해 확인되었다. 추가로, 432만 자유도의 대용량 계산 성능 비교가 제시된 알고리즘과 상용 프로그램인 ANSYS 간에 수행되 었다. 그 결과, 계산 시간 측면에선 ANSYS가 우수하였으나, 프로세서 수에 따른 가속 성능 증가율 측면에선 제시된 알고리즘이 우수 한 것이 확인되었다.
Korea Radioactive Waste Agency (KORAD), regulatory body and civic groups are calling for an infrastructure system that can more systematically and safely manage data on the results of radioactive waste sampling and nuclide analysis in accordance with radioactive waste disposal standards. To solve this problem, a study has been conducted on the analysis of the nuclide pattern of radioactive waste on the nuclide data contained in low-and intermediate-level radioactive waste. This paper will explain the optimal repackaged algorithm for reducing radioactive waste based on previous research results. The optimal repackaged algorithm for radioactive waste reduction is comprised based on nuclide pattern association indicators, classification by nuclide level of small-packaged waste, and nuclide concentration. Optimization simulation is carried out in the order of deriving nuclide concentration by small-packaged, normalizing drum minimization as a function of purpose, normalizing constraints, and optimization. Two scenarios were applied to the simulation. In Scenario 1 (generating facilities and repackaged by medium classification without optimization), it was assumed that there are 886 low-level drums and 52 very low-level drums. In Scenario 2 (generating facilities and repackaged by medium classification with optimization), 708 and 230 drums were assigned to the low-level and very low-level drums, respectively. As a result of the simulation, when repackaged in consideration of the nuclide concentration and constraints according to the generating facility cluster & middle classification by small package (Scenario 2) the low-level drum had the effect of reducing 178 drums from the baseline value of 886 drums to 708 drums. It was found that the reduced packages were moved to the very low-level drum. The system that manages the full life-cycle of radioactive waste can be operated effectively only when the function of predicting or tracking the occurrence of radioactive waste drums from the source of radioactive waste to the disposal site is secured. If the main factors affecting the concentration and pattern of nuclides are systematically managed through these systems, the system will be used as a useful tool for policy decisions that can prevent human error and drastically reduce the generation of disposable drums.
An automated material handling system (AMHS) has been emerging as an important factor in the semiconductor wafer manufacturing industry. In general, an automated guided vehicle (AGV) in the Fab’s AMHS travels hundreds of miles on guided paths to transport a lot through hundreds of operations. The AMHS aims to transfer wafers while ensuring a short delivery time and high operational reliability. Many linear and analytic approaches have evaluated and improved the performance of the AMHS under a deterministic environment. However, the analytic approaches cannot consider a non-linear, non-convex, and black-box performance measurement of the AMHS owing to the AMHS’s complexity and uncertainty. Unexpected vehicle congestion increases the delivery time and deteriorates the Fab’s production efficiency. In this study, we propose a Q-Learning based dynamic routing algorithm considering vehicle congestion to reduce the delivery time. The proposed algorithm captures time-variant vehicle traffic and decreases vehicle congestion. Through simulation experiments, we confirm that the proposed algorithm finds an efficient path for the vehicles compared to benchmark algorithms with a reduced mean and decreased standard deviation of the delivery time in the Fab’s AMHS.
블록 매칭 및 3D 필터링(BM3D) 알고리즘은 단일 필터의 문제점을 보완하기 위하여 non-local means 기반으로 만들 어진 융합형 노이즈 제거 알고리즘이다. 하지만, 그 수식 인자의 조절에 관한 연구는 이루어지지 않고 있어 본 연구에서는 자기공명영상에서 발생하는 Rician 노이즈를 제거하기 위해 BM3D 알고리즘의 평활화 정도를 결정하는 노이즈 전력 스펙 트럼 밀도(noise power spectrum density, )에 대한 최적화를 진행하고자 하였다. MRiLab 시뮬레이션 프로그램을 이 용하여 뇌 조직을 모사할 수 있는 뇌척수액(cerebrospinal fluid, CSF)/회색질(gray matter, GM)/백질(white matter, WM) 팬텀의 T1 강조영상을 획득하였고, 노이즈 레벨이 0.1, 0.15, 0.2, 0.25, 그리고 0.3인 Rician 노이즈를 각각 부가 한 후, BM3D 알고리즘의 값을 0.01부터 0.99까지 0.01씩 증가시키며 각각의 노이즈가 부가된 영상에 적용하였다. 정량 적 평가를 통해 최적화 값을 선정하기 위하여 CSF, GM, WM, 그리고 배경 영역에 관심 영역을 설정한 후 조직별 신호 대 잡음비(signal to noise ratio, SNR), 총 변동계수(coefficient of variation, COV), 그리고 평균 제곱근 오차(root mean square error, RMSE)를 측정하였다. 결과적으로, 조직별로 계산된 SNR, COV, 그리고 RMSE를 종합적으로 평가 했을 때 모든 조직에서 노이즈 레벨 0.1부터 0.3까지 증가함에 따라 값 또한 함께 증가하는 경향이 나타났으며 일정 값 이상에서는 노이즈뿐만 아니라 영상신호까지 함께 제거되어 개선 폭이 감소하는 것으로 관찰되었으며, 노이즈 레벨에 따라 각각 0.09, 0.13, 0.17, 0.21, 그리고 0.25의 값이 설정된 BM3D 알고리즘이 적용되었을 때 가장 합리적인 영상 특성을 보이는 것으로 나타났다. 결론적으로, 효과적인 노이즈 제거를 위해서 고정된 값이 아닌 노이즈 레벨에 따른 적합한 값을 적용해야 함을 증명할 수 있었다.
인공지능을 적용한 상품이나 서비스가 빠르게 증가하고 있다. 한 연구에 따르면 전 세계적으로 인공지능 관련 시장은 향후 5년간 평균 30% 이 상으로성장할전망이다. 시장성장과함께 인공지 능이 우리 일상에 광범위하게 적용되는 것에 대 한 일반 시민의 걱정과 우려도 점증하고 있다. 단 순히 신기술 출현에 수반되는 기우라고 치부할 수만은 없다. 국내 이루다사건 및 해외 마이크로 소프트사 인공지능 채용시스템 사건 등을 통해서 인공지능을 적용한 상품 또는 서비스가 우리 사 회가 지키고자 하는 가치에 반하고 법률에도 위 반되는 결과를 초래할 수 있음이 드러났기 때문이다. 사회적 우려와 걱정에 대응하기 위해서 입법권 자들은 주로 알고리즘 투명성 강화 법안을 내놓 고 있다. 블랙박스와 같이 결론 도출 과정과 영향요소가 불분명한 인공지능을 해체하여 그 소스코 드를 공개하고 어떻게 특정 결론에 도출하였는지 를 공개하겠다는 것이다. 이런 법안은 막연한 우 려를 불식하는 데 효과가 있을 수 있지만 인공지 능 알고리즘이 우리 사회의 법과 가치를 지키도 록 보장하는 효율적인 방안이 아닐 수도 있다. 아 울러, 영업비밀 침해, 인공지능 시장에서 국제경 쟁력 저하 등 의도치 않은 부작용 역시 낳을 수 있다. 미국, EU 등 선진국의 선행 사례와 알고리즘 투명성 요건의 본질적 한계를 고려할 때 모든 인 공지능 알고리즘에 대해서 일률적인 투명성 요건 을 적용하기보다는 산업별 위험수준에 따라 비례 적인 투명성 요건을 적용하는 것이 합리적인 대 안일것으로보인다. 인공지능의오판단으로인해 침해될 수 있는 가치가 중하거나, 그러한 가능성 이 상대적으로 큰 산업군에 적용하는 인공지능 알고리즘에 대해서는 높은 수준의 투명성을; 위 험이나 가능성이 낮은 산업군에 대해서는 상대적 으로 유연한 투명성을 요구하는 것이다. 이를 실 현하기 위해서 모든 인공지능 사업자 또는 서비 스 제공자로 하여금 알고리즘을 설계하고 구동하 는 데 있어 반영하는 모든 요소와 요인 그리고 그 과정을 항상 기록할 수 있도록 하고, 그 기록을 정해진 기간 동안 보관하여 필요시 철저한 평가 가 가능할 수 있도록 해야 할 것이다.
The parent and daughter nuclides in a radioactive decay chain arrive at secular equilibrium once they have a large half-life difference. The characteristics of this equilibrium state can be used to estimate the production time of nuclear materials. In this study, a mathematical model and algorithm that can be applied to radio-chronometry using the radioactive equilibrium relationship were investigated, reviewed, and implemented. A Bateman equation that can analyze the decay of radioactive materials over time was used for the mathematical model. To obtain a differential-based solution of the Bateman equation, an algebraic numerical solution approach and two different matrix exponential functions (Moral and Levy) were implemented. The obtained result was compared with those of commonly used algorithms, such as the Chebyshev rational approximation method and WISE Uranium. The experimental analysis confirmed the similarity of the results. However, the Moral method led to an increasing calculation uncertainty once there was a branching decay, so this aspect must be improved. The time period corresponding to the production of nuclear materials or nuclear activity can be estimated using the proposed algorithm when uranium or its daughter nuclides are included in the target materials for nuclear forensics.
The color image of the brand comes first and is an important visual element that leads consumers to the consumption of the product. To express more effectively what the brand wants to convey through design, the printing market is striving to print accurate colors that match the intention. In ‘offset printing’ mainly used in printing, colors are often printed in CMYK (Cyan, Magenta, Yellow, Key) colors. However, it is possible to print more accurate colors by making ink of the desired color instead of dotting CMYK colors. The resulting ink is called ‘spot color’ ink. Spot color ink is manufactured by repeating the process of mixing the existing inks. In this repetition of trial and error, the manufacturing cost of ink increases, resulting in economic loss, and environmental pollution is caused by wasted inks. In this study, a deep learning algorithm to predict printed spot colors was designed to solve this problem. The algorithm uses a single DNN (Deep Neural Network) model to predict printed spot colors based on the information of the paper and the proportions of inks to mix. More than 8,000 spot color ink data were used for learning, and all color was quantified by dividing the visible light wavelength range into 31 sections and the reflectance for each section. The proposed algorithm predicted more than 80% of spot color inks as very similar colors. The average value of the calculated difference between the actual color and the predicted color through ‘Delta E’ provided by CIE is 5.29. It is known that when Delta E is less than 10, it is difficult to distinguish the difference in printed color with the naked eye. The algorithm of this study has a more accurate prediction ability than previous studies, and it can be added flexibly even when new inks are added. This can be usefully used in real industrial sites, and it will reduce the attempts of the operator by checking the color of ink in a virtual environment. This will reduce the manufacturing cost of spot color inks and lead to improved working conditions for workers. In addition, it is expected to contribute to solving the environmental pollution problem by reducing unnecessarily wasted ink.
본 논문은 딥러닝 알고리즘을 이용하여 딸기 영상 데이터의 병충해 존재 여부를 자동으로 검출할 수 있는 서비스 모델을 제안한다. 또한 병징에 특화된 분할 이미지 데이터 세트를 제 안하여 딥러닝 모델의 병충해 검출 성능을 향상한다. 딥러닝모델은 CNN 기반 YOLO를 선정하여 기존의 R-CNN 기반 모델의 느린 학습속도와 추론속도를 개선하였다. 병충해 검 출 모델을 학습하기 위해 일반적인 데이터 세트와 제안하는 분할 이미지 데이터 세트를 구축하였다. 딥러닝 모델이 일반 적인 학습 데이터 세트를 학습했을 때 병충해 검출률은 81.35%이며 병충해 검출 신뢰도는 73.35%이다. 반면 딥러닝 모델이 분할 이미지 학습 데이터 세트를 학습했을 때 병충해 검출률은 91.93%이며 병충해 검출 신뢰도는 83.41%이다. 따 라서 분할 이미지 데이터를 학습한 딥러닝 모델의 성능이 우 수하다는 것을 증명할 수 있었다.
부분구조화 기법은 자유도가 많고 복잡한 구조물의 유한요소 해석 모델 단순화에 효율적으로 적용될 수 있는 기법이다. 대표적으 로 선형 문제에 대해서는 Craig-Bampton method 등이 있다. Craig-Bampton method는 경계 요소를 제외한 나머지 요소의 불필요한 자 유도를 제거함으로써 선형 구조물의 축소를 수행한다. 최근에는 부분구조화 기법과 더불어 구조물의 최적설계를 위해 멀티레벨 최적 화 기법이 많이 활용되고 있다. 시스템의 목표를 달성하기 위해 각 부구조에 새로운 목표를 할당하는 기법이다. 본 연구에서는 유전자 알고리즘을 이용하여 시스템 목표 달성을 위한 각 부구조별 내부 자유도 개수를 새로운 목표로 할당하고 최적화를 수행하였다. 최적 화 절차로부터 도출된 부구조별 내부 자유도 개수를 이용하여 시스템의 축소를 수행하였다. 다양한 수치예제들을 통해 축소 모델에 대한 결과를 확인하였으며, 90% 이상의 정확도를 가지는 것을 확인하였다.
본 연구는 데이터를 기반으로 한 인공지능 기계학습 기법을 활용하여 온실 내부온도 예측 시뮬레이션 모델을 개발을 수행 하였다. 온실 시스템의 내부온도 예측을 위해서 다양한 방법 이 연구됐지만, 가외 변인으로 인하여 기존 시뮬레이션 분석 방법은 낮은 정밀도의 문제점을 지니고 있다. 이러한 한계점 을 극복하기 위하여 최근 개발되고 있는 데이터 기반의 기계 학습을 활용하여 온실 내부온도 예측 모델 개발을 수행하였 다. 기계학습모델은 데이터 수집, 특성 분석, 학습을 통하여 개 발되며 매개변수와 학습방법에 따라 모델의 정확도가 크게 변 화된다. 따라서 데이터 특성에 따른 최적의 모델 도출방법이 필요하다. 모델 개발 결과 숨은층 증가에 따라 모델 정확도가 상승하였으며 최종적으로 GRU 알고리즘과 숨은층 6에서 r2 0.9848과 RMSE 0.5857℃로 최적 모델이 도출되었다. 본 연 구를 통하여 온실 외부 데이터를 활용하여 온실 내부온도 예 측 모델 개발이 가능함을 검증하였으며, 추후 다양한 온실데이 터에 적용 및 비교분석이 수행되어야 한다. 이후 한 단계 더 나아 가 기계학습모델 예측(predicted) 결과를 예보(forecasting)단 계로 개선하기 위해서 데이터 시간 길이(sequence length)에 따른 특성 분석 및 계절별 기후변화와 작물에 따른 사례별로 개발 모델을 관리하는 등의 다양한 추가 연구가 수행되어야 한다.
본 연구에서는 콘크리트 이미지에서 균열의 크기와 위치를 검출하는 알고리즘을 개발하였다. 균열은 총 9단계로 자 동 검출되었으며, 기본 기능은 매트랩 프로그램의 기능이었다. 5단계와 8단계에서는 균열 검출 정확도를 높이기 위해 사용자 알고리즘을 추가하였으며, 균열 영상과 비균열 영상을 각각 1,000개씩 사용하였다. 균열 이미지에서는 균열이 100% 검출됐지만 품질 측면에서 나쁘지 않은 결과를 제외하더라도 91.8%의 결과가 매우 양호했다. 또한, 균열되지 않은 이미지의 정확도도 94.7%로 매우 양호했다. 이에 본 연구에서 제시한 균열검출 알고리즘은 콘크리트 우물 균열의 위치와 크기를 검출할 수 있을 것으로 기대된다.