Tesis:
Towards a BEPU Methodology for Containment Safety Analyses
- Autor: BOCANEGRA MELIÁN, Rafael
- Título: Towards a BEPU Methodology for Containment Safety Analyses
- Fecha: 2019
- Materia: Sin materia definida
- Escuela: E.T.S. DE INGENIEROS INDUSTRIALES
- Departamentos: INGENIERIA ENERGETICA
- Acceso electrónico: http://oa.upm.es/55578/
- Director/a 1º: JIMÉNEZ VARAS, Gonzalo
- Resumen: Los análisis de seguridad en contención se realizan normalmente aplicando hipótesis conservadoras. Dichas hipótesis se usan para obtener suficiente margen de seguridad y así solventar la falta de conocimientos en ciertos fenómenos físicos implicados en el análisis. Sin embargo, para obtener un diseño y una operación óptima, las hipótesis conservadoras podrían ser minimizadas en los análisis de seguridad. Consecuentemente, en 1989 el organismo regulador norteamericano (NRC) modificó los requerimientos de licencia permitiendo el uso de métodos de cálculo realistas, siempre y cuando las incertidumbres fueran identificadas y cuantificadas. No obstante, los edificios de contención en reactores nucleares, así como la cualificación de los equipos alojados en ellos, siguen siendo licenciados basándose en valores de presión y temperatura promediados obtenidos a partir de cálculos conservadores bajo la aproximación de parámetros agrupados. Los valores promedio de presión obtenidos en dichos cálculos son bastante representativos de las presiones esperadas en la contención durante un accidente, ya que el proceso de presurización es bastante homogéneo. Sin embargo, no ocurre lo mismo con la temperatura, cuya evolución nada tiene que ver con un valor promedio debido a que los procesos convectivos y difusivos son de naturaleza heterogénea. El objetivo de la tesis es el desarrollo de una metodología de análisis de accidente en contención de centrales nucleares tipo LWR mediante el uso de los códigos GOTHIC para el análisis de liberación de masa y energía aplicando la metodología BEPU. Por tanto, para análisis de contención realistas, en los que se necesiten obtener valores locales en compartimientos o habitaciones, se necesitan modelos de evaluación lo suficientemente detallados y con capacidad de capturar fenómenos tridimensionales. Es por eso por lo que se ha desarrollado una guía de modelado para el desarrollo de modelos de evaluación tridimensionales con el código termohidráulico GOTHIC. Dicho método se compone esencialmente de tres pasos: el desarrollo de un modelo CAD detallado, la adaptación de dicho modelo CAD a una versión simplificada capaz de ser introducida en el código GOTHIC, y la creación del propio modelo de evaluación termohidráulico en GOTHIC. Cuando sistemas complejos (como un sistema de contención nuclear) son modelados con un código de dinámica de fluidos computacional (CFD por sus siglas en inglés), como puede ser el código GOTHIC, es importante asegurarse de que los resultados obtenidos no dependen de la malla computacional seleccionada. Esto significa que, cuando la malla se refina de forma sucesiva, los resultados no deben diferir con respecto a los obtenidos con la malla anterior. Este proceso parece claro y es ampliamente conocido por la comunidad de usuarios de códigos CFD, en los que los más usados son códigos como “ANSYS Fluent”, “Star CCM+” o “CFX”. En dichos códigos, las regiones de sólidos y fluidos se tratan de forma independiente, cada uno con su propia malla. Sin embargo, en códigos como “GASFLOW” o el propio GOTHIC, dichas regiones se encuentran representadas en la misma malla computacional, siendo los sólidos representados mediante factores de porosidad en las celdas correspondientes. Es por eso, que a estos códigos se les conoce como “CFD porosos”. Por tanto, para realizar el estudio de la malla computacional en los modelos de evaluación desarrollados en GOTHIC con la metodología anteriormente expuesta, se analizan 12 casos en los que la única diferencia es nivel de refinamiento de la malla computacional. Cuando se aplica el método tradicional usado en CFDs, en el que la malla es sucesivamente refinada, nos encontramos con que los resultados no son concluyentes. No se aprecian diferencias considerables entre distintas mallas con respecto a valores de presión y temperatura promediados. Lo que si se observa es que la variación del tamaño entre celdas adyacentes influye de forma negativa en la velocidad de cálculo, y además que las celdas con un factor de porosidad muy bajo (celdas muy bloqueadas) provocan inestabilidades numéricas que llevan a resultados irrealistas. Ante las lecciones aprendidas en dicho estudio de malla, se sugieren una serie de recomendaciones a ser aplicadas en estudios de malla cuando se usan códigos CFD que usen la aproximación de medios porosos, entre los que se encuentran dos parámetros desarrollados para tal fin, el parámetro β para cuantificación de la calidad de malla, y η que cuantifica la eficiencia de la malla con respecto al tiempo de computación. Una vez desarrollado el modelo de evaluación y analizada la malla computacional, se analiza un caso de aplicación que consiste en un hipotético accidente con pérdida de refrigerante por la rotura en doble guillotina de una de las ramas frías (DEGB-LOCA por sus siglas en inglés). El objetivo es comprobar los límites de cualificación de equipos a partir de valores locales de presión y temperatura. Los resultados muestran como la heterogeneidad en la evolución de la temperatura en los distintos compartimientos de la contención hacen poco apropiada la aproximación de parámetros agrupados para dichos análisis. Como un único cálculo solamente produce resultados con una precisión desconocida, un análisis de incertidumbres y errores resulta imprescindible para su aplicabilidad en procesos de licencia. Por tanto, haciendo uso de toda la experiencia y conocimiento adquirido por analistas e investigadores durante las últimas tres décadas, se propone una metodología BEPU, que se ha denominado como “BEPU-CSA”, orientada en el análisis de seguridad en contención. Ésta se estructura de forma similar a la guía reguladora 1203 de la NRC, y se basa principalmente en evitar el uso de hipótesis conservadoras mediante el uso de modelos de evaluación realistas como los anteriormente descritos con códigos de contención con capacidad tridimensional y modelos físicos realistas. Las incertidumbres son identificadas y cuantificadas, diferenciando entre incertidumbres epistémicas y aleatorias, así como tratando de forma independiente los errores numéricos. Dicha metodología es aplicada para el mismo caso empleado anteriormente para el análisis de cualificación de equipos. El análisis se limita únicamente a la cuantificación de las incertidumbres debido al tiempo limitado de que se dispone. Los resultados obtenidos son además comparados frente a metodologías BEPU existentes basadas en la famosa aproximación de Wilks para la obtención de regiones de confianza mediante estadísticos de orden. Como resultado, se concluye que la no segregación entre incertidumbres aleatorias y epistémicas puede llevar a una seria subestimación de la incertidumbre de los resultados obtenidos. Además, se demuestra que el uso de métodos de muestreo basados en el hipercubo latino (LHS por sus siglas en inglés) sobre los parámetros iniciales pueden llevar a resultados similares a los obtenidos con la aproximación de Wilks con un menor coste computacional. Sin embargo, la validez de dicho método de cuantificación de incertidumbres queda sujeto a una futura demostración matemática que no ha podido ser realizada. ----------ABSTRACT---------- Containment safety analyses are usually performed applying conservative assumptions. These conservatisms are taken to ensure the safety margins overcoming the lack of knowledge in physical phenomena involved. With these assumptions, the results are unrealistically conservative, but also satisfy the regulatory authority requirements. However, in order to obtain an optimal design and reactor operation, conservatism may be limited from the safety analyses. Consequently, in 1989, the U.S. NRC modified the licensing requirements allowing the use of realistic methods if uncertainties are identified and quantified. Nevertheless, the containment building, and the in-containment equipment are still licensed based on the pressure and temperature obtained with conservative containment under the lumped parameters framework. The average containment pressure calculated with the lumped parameters approach is fairly representative of the containment pressure, as the pressurization develops quite homogeneous. On contrary, the containment temperature calculated by the lumped parameters approach is an averaged temperature and does not necessarily represent its heterogeneous nature. Therefore, realistic containment analyses accounting for local conditions are needed, and consequently, a modeling guideline for high-detailed evaluation models with the GOTHIC code is proposed. It is based in three main steps: Development of a 3D detailed Computer-Aided Design (CAD) model; Adapting the detailed CAD model to obtain a simplified version of the geometry; Making use of the geometric data from the simplified CAD model, a three-dimensional thermal-hydraulic evaluation model is conformed. In addition, when a complex system (e.g. a containment building) is modeled with a CFD code like GOTHIC, it is important to assure that results are not dependent on the mesh chosen. That means that results will not change substantially even if the mesh is subsequently refined. This process is clear when the employed code separates the fluid region from the solids (as traditional CFD codes do) but becomes more complicated when the computational cells includes fluid and solids, as the case of the porous media approach. According to that, a mesh sensitivity study using 12 different meshes was performed to analyze the mesh independence in the 3D GOTHIC containment evaluation model under the porous media framework. When the traditional CFD method of mesh refinement is applied, results become not conclusive. There are no big discrepancies when key parameters are compared (averaged temperature and pressure peaks). Nevertheless, it was found that cell aspect ratio influences negatively in the results of highly blocked cells generating numerical instabilities during the calculation. In addition, size differences also influence the fluid velocity field modifying the flow patterns, and therefore, the local temperature profiles. Considering the lessons learned from this study, different recommendations are suggested to be applied in case of performing a mesh independence studies using porous CFDs codes like GOTHIC. To test the developed 3D containment evaluation model, an application case for was performed for assessing the generic equipment qualification criteria when local data for pressure and temperature is obtained. The transient simulated was a DEGB-LOCA located at the cold leg. Results shown how the temperature heterogeneity in the containment compartments makes inadequate averaged values like those obtained with evaluation models under the lumped parameters framework. Since a single Best-Estimate (BE) calculation brings results with unknown accuracy, an uncertainty analysis is required to estimate the solution accuracy. Nonetheless, BEPU analyses has been historically applied to RCS transient analysis, but it starts to be also applied to containment analysis with limited scope. Consequently, accounting for the experiences that many analyst and researchers have gathered along the last three decades, a BEPU methodology, with the containment safety analysis in mind, is proposed. Conservative assumptions are avoided by developing best estimate containment evaluation models. Uncertainties are quantified and propagated through the code in order to obtain the results accuracy. The proposed methodology is defined in a hierarchical structure, similar to the U.S. NRC Regulatory Guide 1203. It is divided in two main blocks; the first is related to the best estimate model setting; and the second to the uncertainty treatment. The BEPU-CSA methodology was applied for the same analysis performed for the equipment qualification criteria above named. It was started with a “traditional” BEPU analysis based on the non-parametric tolerance interval calculation applying the famous Wilks approach with no segregation between epistemic and random uncertainties. Two series were calculated, one with a sample set of 59 elements for a one-sided tolerance region (Wilks-OS), and other with a sample set of 93 elements for a two-sided region (Wilks-TS). Then, a method based on the LHS for obtaining similar bounds as in the case of applying the Wilks formula is also discussed, but with a reduced number of cases. Two series were also calculated, one with a sample set of 20 elements for a onesided tolerance region (LHS-20), and other with a sample set of 40 elements for a two-sided region (LHS-40). For both, Wilks and LHS series, maximum values obtained for pressure and temperature are quite similar, resulting more conservative the LHS sampling even having a smaller sample size. In addition, a second order uncertainty analysis, where the epistemic uncertainties were treated based on the Dempster-Shafer theory with LHS sampling and the random uncertainties by applying the Wilks method, was compared against these obtained with the Wilks and LHS methods. A set of 30 Wilks series were obtained, being this the result of the LHS sample with size 30 for the outer loop, and 59 runs for every of the 30 LHS sample elements, which led to a 1770 code runs. Analogously, another second order uncertainty analysis was also performed based entirely on the LHS sampling method (denominated 2nd Order LHS-20), were the epistemic uncertainty sample size was set to 20, and the random uncertainty sample size also to 20 based on the results obtained in the comparison between the Wilks and LHS series above commented. Both methods, the LHS-Wilks and the 2nd order LHS-20, showed similar results between them, but it was observed that, when the uncertainties are segregated between random and epistemic, pressure and temperature bounds become larger than that obtained in the “traditional” BEPU analyses. This is caused by the underestimation when uniformity is assumed over imprecise uncertainties that are in fact governed by a random nature, as is the case of the initial conditions. When uncertainties are purely epistemic, and it is mean with purely epistemic as a property of the analyst and not over the parameter itself, uniformity resulted adequate. At the end, a sensitivity analysis was performed over the LHS-Wilks calculation showing that for short-term analysis, only a few of the parameters analyzed resulted correlated with the maximum pressure and temperature obtained. In addition, it was observed that uncertainties affecting the averaged values differs from that affecting local values, indicating that dominant phenomena may differs at different scales, something to be accounted in scaling analyses.