격납건물은 원자력 발전소의 중대 사고 발생시 방사성 물질의 외부 방출을 막는 심층 방어 체계 중 마지막 방벽이다. 중대사고 발생시 격납건물 내부에선 노심 융해와 수소 발생으로 인한 내압 상승과 증기 폭발로 인한 구조적 손상이 일어나며, 이에 대한 구조적 건전성을 평가하기 위해 격납건물에 대 한 극한 내압 성능 평가를 실시한다. 극한 내압 성능 평가 방법 중 확률론적 평가시 현실적인 제약으 로 인해 고신뢰도 유한요소해석 모델을 이용하며 이때에 불확실성 인자들의 확률 분포 특성을 고려한 데이터 셋을 샘플링 기법을 이용하여 구성한 후 비선형 해석을 실시한다. 도출된 비선형 해석 결과는 취약도 곡선을 도출에 사용되며, 취약도 곡선을 이용하여 확률론적인 평가가 실시된다. 샘플링 기법에 따라 적절한 표본 크기가 아닌 데이터셋을 구성하게 되면 통계적 불확실성으로 인한 취약성 분석의 오차가 증대된다. 하지만 유한요소해석시 발생하는 막대한 계산 비용으로 인하여 기존의 방식은 적절 한 샘플링 크기 선정 및 부적절한 샘플링 크기 선정으로 인한 확률론적인 성능평가에 대한 영향에 대 한 정량화 및 평가를 제한적으로 수행하였다. 따라서 본 연구에서는 격납건물의 재료적 특성 및 내압 으로 인한 변위 데이터를 기반으로 생성한 인공신경망 모델을 통해 유한요소 해석에 대한 대리모델을 생성한다. 이후 생성한 대리모델을 기반으로 일반적인 불확실성 분포 샘플링에 사용되는 Monte Carlo method, latin hypercube sampling, Sobol sequence을 이용하여 표본 크기에 따른 격납건물 확률론적 인 극한내압성능 평가에 대한 영향을 정량화 및 평가를 실시하겠다. 이를 통해 제한적으로 탐색되었던 불확실성 공간에 대하여, 그 통계적 불확실성 및 전방위적인 탐색이 가능해 질것으로 기대한다.
A sample size calculation algorithm was developed in a prototype version to select inspection samples in domestic bulk handling facilities. This algorithm determines sample sizes of three verification methods satisfying target detection probability for defected items corresponding to one significant quantity (8 kg of plutonium, 75 kg of uranium 235). In addition, instead of using the approximation equation-based algorithm presented in IAEA report, the sample size calculation algorithm based on hypergeometric density function capable of calculating an accurate non-detection probability is adopted. The algorithm based the exact equation evaluates non-detection probability more accurately than the existing algorithm based on the approximation equation, but there is a disadvantage that computation time is considerably longer than the existing algorithm due to the large amount of computational process. It is required to determine sample size within a few hours using laptop-level performance because sample size is generally calculated with an inspector’s portable laptop during inspection activity. Therefore, it is necessary to improve the calculation speed of the algorithm based on the exact equation. In this study, algorithm optimization was conducted to improve computation time. In order to determine optimal sample size, the initial sample size is calculated first, and the next step is to perform an iterative process by changing the sample size to find optimal result. Most of the computation time occurs in sample size optimization process performing iterative computation. First, a non-detection probability calculation algorithm according to the sample sizes of three verification methods was improved in the iterative calculation process for optimizing sample size. A computation time for each step within the algorithm was reviewed in detail, and improvement approaches were derived and applied to some areas that have major effects. In addition, the number of iterative process to find the optimal sample size was greatly reduced by applying the algorithm based on the bisection method. This method finds optimal value using a large interval at the beginning step and reduces the interval size whenever the number of repetitions increases, so the number of iterative process is less than the existing algorithm using unit interval size. Finally, the sample sizes were calculated for 219 example cases presented by the IAEA report to compare computation time. The existing algorithm took about 15 hours, but the improved algorithm took only about 41 minutes using high performance workstation (about 22 times faster). It also took 87 minutes for calculating the cases using a regular laptop. The improved algorithm through this study is expected to be able to apply the sample size determination process, which was performed based on the approximate equation due to the complexity and speed issues of the past calculation process, based on the accurate equation.
The measurement activities to evaluate material balance of nuclear material are usually performed by operator. It is because that the IAEA does not have enough manpower to carry out nuclear measurement accountancy of all nuclear materials in the world. Therefore, the IAEA should consider scenarios which facility operator tries to divert nuclear material for misuse by distorting measurement record. It is required to verify the operator’s measurement data whether it is normal or not. IAEA measures inventory items using their own equipment which is independent of facility operator equipment for verification. Since all inventory lists cannot be verified due to limited resources, the number of items to be verified is determined through statistical method which is called as sample size calculation. They measure for the selected items using their own equipment and compares with operator’s record. The IAEA determines sample size by comprehensively considering targeted diverted nuclear material amount and targeted non-detection probability and performance of measurement equipment. In general, the targeted diverted nuclear material amount is considered significant quantity (plutonium: 8 kg, uranium-235: 75 kg). If the targeted non-detection probability or the performance of the verification equipment is low, the sample size increases, and on the contrary, in the case of high non-detection probability or good performance of verification equipment, even a small sample size is satisfied. It cannot be determined from a single sample size calculation because there are so many sample size combinations for each verification equipment and there are many diversion scenarios to be considered. So, IAEA estimates initial sample size based on statistical method to reduce calculation load. And then they calculate non-detection probability for a combination of initial sample size. Through the iteration calculation, the sample size that satisfies the closest to the target value is derived. The sample size calculation code has been developed to review IAEA’s calculation method. The main difference is that IAEA calculates sample size based on approximate equation, while in this study, sample size is calculated by exact equation. The benchmarking study was performed on reference materials. The data obtained by the code show similar results to the reference materials within an acceptable range. The calculation method developed in this study will be applied to support IAEA and domestic inspection activities in uranium fuel fabrication facility.
This study is about the process capability index (PCI). In this study, we introduce several indices including the index CPR and present the characteristics of the CPR as well as its validity. The difference between the other indices and the CPR is the way we use to estimate the standard deviation. Calculating the index, most indices use sample standard deviation while the index CPR uses range R. The sample standard deviation is generally a better estimator than the range R . But in the case of the panel process, the CPR has more consistency than the other indices at the point of non-conforming ratio which is an important term in quality control. The reason why the CPR using the range has better consistency is explained by introducing the concept of ‘flatness ratio’. At least one million cells are present in one panel, so we can’t inspect all of them. In estimating the PCI, it is necessary to consider the inspection cost together with the consistency. Even though we want smaller sample size at the point of inspection cost, the small sample size makes the PCI unreliable. There is ‘trade off’ between the inspection cost and the accuracy of the PCI. Therefore, we should obtain as large a sample size as possible under the allowed inspection cost. In order for CPR to be used throughout the industry, it is necessary to analyze the characteristics of the CPR . Because the CPR is a kind of index including subgroup concept, the analysis should be done at the point of sample size of the subgroup. We present numerical analysis results of CPR by the data from the random number generating method. In this study, we also show the difference between the CPR using the range and the CP which is a representative index using the sample standard deviation. Regression analysis was used for the numerical analysis of the sample data. In addition, residual analysis and equal variance analysis was also conducted.
Reaction-bonded silicon carbide (RBSC) is a SiC-based composite ceramic fabricated by the infiltration of molten silicon into a skeleton of SiC particles and carbon, in order to manufacture a ceramic body with full density. RBSC has been widely used and studied for many years in the SiC field, because of its relatively low processing temperature for fabrication, easy use in forming components with a near-net shape, and high density, compared with other sintering methods for SiC. A radiant tube is one of the most commonly employed ceramics components when using RBSC materials in industrial fields. In this study, the mechanical strengths of commercial RBSC tubes with different sizes are evaluated using 3-point flexural and C-ring tests. The size scaling law is applied to the obtained mechanical strength values for specimens with different sizes. The discrepancy between the flexural and C-ring strengths is also discussed.
화산재의 확산은 심각한 사회적 문제를 야기한다. 화산재의 확산을 예측하기 위한 수치 분석은 시간이 걸리기 때문에 초기 대응에 필요한 정보들을 제공하기에는 부적절 하다. 이 연구에서는 시나리오 기반의 대상 기상장과 과거 기상장의 유사도를 분석하여 화산재 확산 정보를 제공할 수 있는 유사기상장 모델을 제안한다. 동아시아 지역 기상장을 분석하기 위하여 2005-2014년 WRF (Weather Research and Forecasting model) 데이터를 k-means 클러스터링 방법을 사용하여 분류하였다. 기상장 데이터의 수에 따른 정밀도를 확 인하기 위하여 2010년 1년치 클러스터링과 2005-2014년 클러스터링 결과의 최종 클러스터와 내부 원소들 사이의 상관계수 (correlation coefficient)와 유클리드 거리 (Euclidean distance)를 측정하여 비교분석 하였다. 1년치 결과의 경우 178 m의 평균 거리와 10년치 결과에서는 52 m의 평균거리로 95% 신뢰수준에서 유의하게 차이를 보여주었다. 모델의 정밀도는 기상장 데이터의 크기와 클러스터링 단 계가 증가함에 따라 높아졌고 기상장의 표준편차는 줄어들어 화산재 확산의 변동성이 감소할 것으로 나타났다.
본 연구에서는 기존에 수행된 식품 중금속 모니터링 데이터를 이용하여 위해평가 및 모니터링을 수행할 때 요구되는 표본 수를 추정하고자 하였다. 중금속 3종 (카드뮴, 납 및 수은)과 17개의 식품을 대상으로 2,400개의 모니터링 데이터를 선정하여 연구에 활용하였다. 기존의 연구에서 수행된 모니터링 데이터의 표준편차와 오차범위 및 신뢰구간 값(95, 99% CI)을 활용하여 표본 수 추정공식에 따라 계산하였다. 표본 수 추정 공식에 따라 표본 크기를 추정한 결과, 95% 신뢰구간에서 카드뮴의 경우 계산된 표본의 크기는 최소 8개에서 최대 90개, 납의 경우 최소 7개에서 최대 1,062개, 수은의 경우 최소 11개에서 최대 238개로 각각 추정되었다. 식품 중 중금속 데이터의 표준편차와 오차범위가 표본 수를 추정하는데 가장 큰 영향을 주는 것으로 나타났다. 본 연구에서는 모니터링 데이터의 특성을 반영하여 표본 크기를 추정하고자 하였으며, 이는 향후 위해평가 및 모니터링 수행 계획을 수립하기 위한 표본 수를 결정하는 기초연구로 활용될 수 있을 것이다.
본 연구에서는 미국 뉴햄프셔주 13개 임분의 낙엽활 엽수림에서 5년간(1994~1996, 2003~2004) 낙엽량 측 정을 위한 최소 필요 표본수를 알아보았다. 임분별 최소 필요 표본수는 오차범위 10%에서는 현재의 15개 트랩 수와 비슷했으나, 1994년과 1995년은 타 년도에 비해 약 2배인 30개의 트랩수가 필요하였다. 오차범위 20%에 서는 5년간 13개 모든 임분에서 필요한 트랩수는 10개 미만으로 나타났다. 임분별로 최소 필요 표본수는 차이 가 있었는데 특히 경사가 급하고 해발고도가 높은 임분 에서 더 많은 트랩이 설치되어야 하며, 임분 연령이나 낙엽량과는 관계가 없음이 나타났다. 결론적으로 낙엽량 측정을 위한 최소 필요 표본수를 산정할 경우, 본 연구 에서와 같이 다년간의 샘플링이 필요하며, 임분의 지형 적 특성 역시 고려해야 함을 알 수 있었다.
Most useful statistical techniques in six sigma DMAIC are hypothesis testing and interval estimation. So this paper reviews and derives sample size formula by considering significance level, power of detectability and effect difference. The quality practioners can effectively interpret the practical and statistical significance with the rational sample sizing.
본고는 각 표본집단(토양시료)이 모집단에 대하여 동일한 대표성을 갖게 산출하고 식물유체의 수량 비교시 통계적 유의성을 갖춘 계측치를 제시하고자 한다. 먼저 본고는 상대오차와 확률에 기초하여 여러 유적에서 채취된 토양시료 표본의 크기를 표준화하는 통계법을 제시하였다. 표본 크기의 표준화는 여러 유적에서 출토된 식물유체 간 수량의 차이가 단지 표본의 크기 차이에서 비롯됨이 아니라 문화적 원인 즉 식물 자원 이용상의 차이를 반영한다고 추정할 수 있는 근거를 마련한다. 통계적 대표성과 토양시료 채취는 기본적으로 군집표집의 일환이므로 토양시료의 수를 표본의 크기로 각 토양시료에서 추출된 종자의 밀도를 변수로 간주하였다. 이러한 표본 크기 표준화 방법을 남강댐 수몰지구 어은 및 옥방 유적 청동기시대 유구에서 출토된 식물유체에 적용하여 그 실효성을 타진하고자 한다. 또한 여러 표본(예, 유적, 유구)의 변수(종자 밀도)를 비교할 때 상이한 보존율과 복원율이 미치는 영향을 최소화할 수 있는 표본간 종별 중복비율을 모식도를 통해 제시하였다.