<< Volver atrás

Tesis:

Técnicas avanzadas de regresión aplicadas a estudios de fiabilidad


  • Autor: FERNÁNDEZ FERNÁNDEZ, Antonio

  • Título: Técnicas avanzadas de regresión aplicadas a estudios de fiabilidad

  • Fecha: 2023

  • Materia:

  • Escuela: E.T.S.I. Y SISTEMAS DE TELECOMUNICACIÓN

  • Departamentos: ELECTRONICA FISICA, INGENIERIA ELECTRICA Y FISICA APLICADA

  • Acceso electrónico: https://oa.upm.es/79781/

  • Director/a 1º: VÁZQUEZ LÓPEZ, Manuel

  • Resumen: Nuestro contexto ecológico, y en particular la tecnología y su motor informativo, la investigación empírica, han cambiado de manera patente su relación con lo humano en tiempos recientes. Así, la tecnología ha pasado, de ser una poderosa aliada frente a una naturaleza hostil, que ahora se revela en muchos aspectos como frágil, a adquirir un poder informativo y energético de tal envergadura, que viene a constituir, en muchos aspectos de su desarrollo, una seria amenaza para lo humano. La Ciencia de la Confiabilidad, y muchas otras áreas de conocimiento estrechamente relacionadas como la Teoría de la Fiabilidad, el Análisis de Riesgos o la Prevención de Catástrofes, se constituyen con la vocación de moderadoras del desarrollo tecno-industrial, garantes de un progreso adecuado, y promotoras de una tecnología que resulte efectivamente útil para lo humano. Todas ellas han experimentado también un notabilísimo desarrollo que se ha manifestado de manera especial en los procedimientos de regresión, con la aparición de técnicas avanzadas que tratan de aprovechar mejor la experiencia disponible. En esta tesis, intento realizar un análisis crítico de la confiabilidad, especialmente en relación con el uso de estas técnicas avanzadas, discutiendo su impacto en la calidad de los estudios. Una peculiaridad que distingue a la confiabilidad de otras áreas del conocimiento empírico es la gran multiplicidad de principios metodológicos que sustentan a su práctica. Por ello comienzo este trabajo intentando promover cierta discusión sobre ellos. De entre estos principios, resultan centrales en este trabajo, por una parte, el principio de utilidad (y su subsidiario, el principio de eficacia); y por otra, el principio de precaución, que previene, entre otras cosas, del alto riesgo que supone la presencia de polisemia (ambigüedad) en los algoritmos o en los enunciados. En cuanto al principio de eficacia, de él se deriva la necesidad de abordar la práctica de la confiabilidad desde una perspectiva integral ante la evidencia de que las cifras parciales de confiabilidad tienen, en la práctica, poca o ninguna utilidad. Para tratar de acercarse a esta perspectiva integral, propongo aquí un modelo de referencia del proceso de adquisición de los atributos de confiabilidad de los artefactos industriales, descomponiéndolo en un conjunto de cinco etapas o paradigmas: experimental, regresivo, compositivo, expresivo y aplicativo. Este modelo de referencia permite, por una parte, situar metodológicamente la actividad de cualquier técnica de confiabilidad concreta, y por otra, auditar los procesos globales de confiabilidad contabilizando la ignorancia que aporta cada uno de sus procedimientos. Conviene que estas consideraciones no queden en meras disquisiciones teóricas, de manera que he dedicado gran parte del trabajo a desarrollar y explicitar pormenorizadamente algunas técnicas avanzadas concretas, relacionadas con ciertos problemas que me parecieron especialmente atractivos. La mayoría de las iniciativas que aquí se proponen, podrían situarse como estrechamente relacionadas con el paradigma regresivo. No obstante, también se ha prestado especial atención al paradigma expresivo, de manera que el Lector podrá encontrar aquí también algunas metodologías concretas directamente relacionadas con este paradigma. En particular, se ha dedicado un esfuerzo considerable a proponer convenios designativos adecuados que permitan comunicar con una certeza razonable la secuencia de presupuestos particulares asumidos que conducen a cada metodología. La evaluación de estas propuestas se realiza mediante la contrastación de su desempeño con las técnicas clásicas, por lo que, con carácter previo, se realiza un recorrido descriptivo por el contexto de confiabilidad y algunas de sus técnicas más habituales. El primer tema que motiva las propuestas tiene que ver con el problema genérico de regresar leyes algebraicas partiendo de datos vectoriales que incorporan incertidumbres heterogéneas (heteroescedásticas) y cruzadas (con dependencia interaxial). En relación con este asunto, se analizan las propiedades del espacio de datos, se definen algunas entidades de interés y se proponen diversas posibilidades para representarlas y para establecer métricas entre ellas. Finalmente se propone un algoritmo completo PDIM1, que permite regresar datos heteroescedásticos bivariados en leyes algebraicas afines. PDIM ofrece algunas ventajas notables en robustez, neutralidad y precisión frente a los métodos clásicos, pero quizás su mayor mérito sea el de incorporar un mecanismo intrínseco que permite detectar la posible presencia de ambigüedad analítica. Esta circunstancia, cuando es correctamente explicitada, proporciona al usuario un claro indicio de que o bien las incertidumbres que manifiestan los datos no se corresponden con la realidad; o bien de que la ley, a la que los datos pretenden ajustarse, no es adecuada. El segundo problema que enfoca este trabajo se refiere al modelo de fiabilidad de Weibull. Esta ley tiene especial importancia en la Teoría de la Fiabilidad tanto por su flexibilidad algebraica como por la solidez de su fundamentación teórica. Aquí se desarrolla un algoritmo concreto capaz de estimar los parámetros que dan libertad a la ley de Weibull, a partir de una serie durativa. El núcleo del algoritmo es una aproximación funcional: HUWE2 , cuyo alcance se discute utilizando algunas herramientas de la Teoría de la Información. El algoritmo se contrasta con algunas técnicas clásicas, presentando algunas ventajas, como una notable ganancia en precisión (más significativa cuando se esperan rangos amplios del tamaño de los datos de entrada); y quizás más importante: una mejora considerable en la solidez computacional frente a algunos métodos clásicos de precisión parecida. Finalmente, como se ha apuntado antes, se realizan algunas propuestas, relacionadas con el paradigma expresivo, para mejorar la comunicabilidad de los resultados. Algunas de estas iniciativas se refieren a la ley de Weibull. Otras proponen expresiones alternativas para comunicar probabilidades que presentan algunas mejoras, especialmente en el contexto de la fiabilidad. Junto a ellas, se propone también un sistema formal de unidades para desambiguar las polisemias que pudieren producirse. En definitiva, puede concluirse que las técnicas avanzadas en confiabilidad permiten, en principio, obtener mejoras notables en la calidad de las conjeturas que elabora la Ciencia de la Confiabilidad, aprovechando el bajo coste de los recursos de la computación para optimizar la información que se puede extraer de la experiencia, mediante el uso de procedimientos más sofisticados. Sin embargo, existe el riesgo de que estas técnicas sean aplicadas, de forma inadecuada o reduccionista, comprometiendo la neutralidad de los análisis o de su comunicación, en particular, embelleciendo estudios de fiabilidad realizados con datos de baja calidad o tendenciosos; o avalando la presunción de precisión a estudios que carecen completamente de rigor. Por ello, es recomendable que estas técnicas se utilicen con cautela, especialmente en los sistemas sujetos a riesgo de daños elevados. Creo que sólo el esfuerzo de intentar contemplar los problemas desde una perspectiva más amplia, y sobre todo, el sentido común, pueden conjurar, al menos parcialmente, este peligro. Aun así, estimado Lector, he de confesar que, yo mismo, no sé muy bien qué es lo que uno puede hacer para tener, casi siempre, sentido común. ABSTRACT Our ecological context, and in particular technology and its information driver, empirical research, has clearly changed its relationship with humans in recent times. Thus, technology has gone from being a powerful ally against a hostile nature that is now being revealed, in many ways as fragile, to acquiring an informative and energetic power so big that now it constitutes, in many aspects of its development, a serious threat to the human being. The Reliability Science, as other closely related areas of knowledge such as Risk Analysis or Disaster Prevention, are created on the vocation of being moderators of techno-industrial development, guarantors of an adequate progress, and promoters of a technology that is effectively useful for humans. All these disciplines have also experienced a very significant development, particularly evident in regression procedures, with the emergence of advanced techniques that seek to make better use of the available experience. In this thesis, I try to perform a critical analysis of reliability, especially in relation to the use of these advanced techniques, discussing its impact on the quality of the studies. A peculiarity that distinguishes the Reliability Science from other areas of empirical knowledge is the great number of methodological principles that support its practice, so I start this work trying to promote some discussion about them. Among these principles, some are central in this work: on the one hand, the principle of utility (and its subsidiary, the principle of effectiveness); and on the other, the precautionary principle, which prevents, among other things, of the high risk posed by the presence of polysemy (ambiguity) in algorithms or statements. Regarding the principle of effectiveness, the need to approach the practice of reliability from an integral perspective appears from the evidence that partial figures of reliability have, in practice, little or no utility. To approach this integral perspective, I propose here a reference model of the process of inferring the attributes of reliability of industrial artifacts, decomposing such process in a set of five stages or paradigms: experimental, regressive, compositional, expressive and applicative. This reference model allows, on the one hand, methodologically locating the activity of any reliability technique, and on the other hand, auditing the global reliability processes, accounting for the ignorance that each of its procedures brings. These considerations should not remain mere theoretical disquisitions, so much work has been devoted to developing and explaining in detail some specific advanced techniques, related to some problems that I found particularly attractive. Most of the initiatives proposed here are closely related to the regressive paradigm. However, special attention has also been paid to the expressive paradigm, so that the reader will also find some concrete methodologies directly related to this paradigm. In particular, many efforts have been made to propose appropriate designative conventions to communicate with reasonable certainty the sequence of concrete assumptions that lead to each methodology. The evaluation of these proposals is carried out by contrasting their performance with classical techniques, so, previously, a descriptive route is made through the context of reliability and some of its usual techniques. The first topic that motivates the proposals has to do with the generic problem of returning algebraic laws based on vector data that incorporate heterogeneous (heteroscedastic) and crossed (with interaxial dependence) uncertainties. In relation to this subject, the properties of the data space are analyzed, some entities of interest are defined, and various possibilities are proposed to represent and to establish metrics between them. Eventually, a complete algorithm PDIM3 is proposed, which allows to fit bivariate heteroscedastic to affine algebraic laws. PDIM offers some notable advantages in terms of robustness, neutrality and accuracy when it is compared to classical methods, but perhaps its greatest merit is to intrinsically incorporate a mechanism to detect the possible presence of analytical ambiguity. This circumstance, when it is correctly exposed, gives to the user a clear indication that either the uncertainties that the data manifest do not correspond to reality, or the law to which the data are intended to fit, is not adequate. The second problem that this work focuses on is the Weibull reliability model. This law has special importance in the Theory of Reliability both for its algebraic flexibility and for the solidity of its theoretical foundation. Here we develop a concrete algorithm capable of estimating the parameters that describe Weibull's law, from a test life. The core of the algorithm is a functional approximation: HUWE4, whose scope is discussed using some Information Theory tools. The algorithm is contrasted with some classical techniques, showing some advantages, such as a notable gain in precision (more significant when broad sample size ranges are expected on input) and, perhaps more important: a considerable improvement in computational solidity when set side by side to some classic methods of comparable accuracy. Eventually, as noted above, other proposals are given, related to the expressive paradigm, to improve the communicability of the results. Some of these initiatives concern Weibull's law. Others propose alternative expressions to communicate probabilities that present some improvements, especially in the communication of reliability figures. Along with them, a formal system of units is also proposed to disambiguate polysemes that may occur. In short, it can be concluded that advanced reliability techniques allow, in principle, to obtain improvements in the quality of the assumptions elaborated by the Reliability Science, taking advantage of the low cost of computing resources to optimize the information that can be extracted from experience, by using more sophisticated procedures. However, there is a risk that these techniques will be applied in an inadequate or reductionist manner, compromising the neutrality of the analyses or their communication, for instance, by embellishing reliability studies conducted with low quality or tendentious data; or by endorsing the presumption of quality to studies that are completely lacking in rigor. Therefore, it is advisable that these techniques must be used with caution, especially in systems subject to risk of severe damages. I believe that only efforts to look at the problems from a broader perspective and, above all, common sense, can at least partially avoid this danger. Even so, dear Reader, I should admit that I myself do not know very well what one can do to have, almost always, common sense.