<< Volver atrás

Tesis:

Factor de visibilidad nuevo indicador para la evaluación cuantitativa de riesgos


  • Autor: VEGAS FERNÁNDEZ, Fernando

  • Título: Factor de visibilidad nuevo indicador para la evaluación cuantitativa de riesgos

  • Fecha: 2019

  • Materia: Sin materia definida

  • Escuela: E.T.S. DE INGENIEROS DE CAMINOS, CANALES Y PUERTOS

  • Departamentos: INGENIERIA CIVIL: CONSTRUCCION

  • Acceso electrónico: http://oa.upm.es/56394/

  • Director/a 1º: RODRÍGUEZ LÓPEZ, Fernando

  • Resumen: El presente trabajo de investigación acomete la solución de las necesidades de mejora de la evaluación y gestión de los riesgos que demandan los profesionales y la literatura científica. Los escenarios de riesgo actuales son muy complejos y comprenden numerosos riesgos de distintos tipos, lo cual hace necesario disponer de un indicador genérico del nivel de riesgo y de una forma de visibilizar o apreciar cuál es su riesgo global. Las técnicas de desagregación en dimensiones y componentes complican aún más esta labor, y las metodologías actuales de evaluación de riesgos no proporcionan una solución. En este documento se detalla el proceso de análisis de las soluciones disponibles, estudio de la literatura científica en busca de trabajos que pudieran servir de guía, elección y desarrollo de la metodología de investigación, definición de soluciones y validación de los resultados. Para conocer las mejores prácticas actuales, además de entrevistas con profesionales y consultores, se han recopilado miles de documentos científicos y empresariales que, tras su catalogación, filtrado y análisis, se han integrado en una base de documental de datos con alrededor de 300 referencias. Se han analizado los métodos más utilizados, particularmente los indicadores de riesgo, métodos de evaluación, escalas, y métodos para calcular el nivel de riesgo global de un escenario y el coste total de sus riesgos. También se han revisado los fundamentos teóricos en los que se fundamentan estas prácticas y su aplicabilidad, concretamente la regla de utilidad esperada de Neumann y Morgenstern y el teorema del Límite Central. Por eso, se han analizado los escenarios de riesgo habituales para conocer el número, dependencia y homogeneidad de los eventos de riesgo. También se han revisado las diversas técnicas usadas para la evaluación (tormenta de ideas, entrevistas, cuestionarios, Delphi, simulación de Monte Carlo, etc.) con objeto de valorar su aplicabilidad y adaptabilidad a los entornos de trabajo habituales en las empresas. Los estudios realizados han confirmado que las prácticas actuales no satisfacen las necesidades de evaluadores y empresas para lograr determinar y comunicar eficazmente cuál es la situación de riesgo y poder tomar las decisiones adecuadas. Pero todavía es más revelador el hallazgo relativo a las limitaciones y los errores implícitos en algunas de las técnicas y métodos de uso común. El indicador obtenido como producto del impacto por la probabilidad, pese a su popularidad, resulta tan poco intuitivo y comprensible que induce a infravalorar la importancia del riesgo. La obtención del nivel global de riesgo como suma o promedio de los productos anteriores restringe la modificación del catálogo de riesgos, limita la importancia individual de cada riesgo, y proporciona un resultado que puede infravalorar el riesgo. El cálculo del coste total del riesgo mediante dicha suma es un valor medio que no considera las propiedades probabilísticas del escenario y que se verá superado en la realidad el 50% de las veces y en una gran cuantía. Dado que las soluciones disponibles no satisfacen a los utilizadores y presentan limitaciones, se ha emprendido una investigación para diseñar una solución nueva más eficiente para visibilizar el riesgo, y se comenzado por definir los requisitos de una solución ideal. La metodología científica aplicada para ello ha consistido en investigar a través de varias líneas separadas e independientes, buscando su posterior convergencia. Para ello, se han obtenido tres listas de propuestas mediante tres métodos independientes (revisión de la literatura, tormenta de ideas y entrevistas estructuradas), y se han integrado a continuación aplicando para ello técnicas semánticas y coeficientes de ponderación adecuados, dando como resultado una lista priorizada de 66 parámetros de mejora que definen las especificaciones exigibles para lograr la solución ideal deseada. El método científico seguido contempla la aplicación de diversas técnicas para concebir una solución que cumpla con los requisitos definidos, así como su posterior verificación y calibración. Para definir un nuevo indicador, se ha empleado la técnica de pensamiento visual y posterior aplicación de un estudio matemático, teniendo en cuenta trabajos anteriores, pero logrando una novedosa formulación final para el mismo. Para definir un sistema de resumen de riesgos, además de las técnicas anteriores, se ha considerado una ponderación cuadrática, en línea con otros autores, pero ideando una solución más eficiente basada en el nuevo indicador definido. Para encontrar una respuesta para el cálculo fiable del coste total del riesgo de un escenario se han utilizado modelos aleatorios de simulación en combinación con la simulación de Monte Carlo, y se ha aplicado a los resultados técnicas de regresión no lineal y múltiple combinadas con aproximaciones sucesivas. Los resultados obtenidos, que constituyen la aportación principal de este trabajo, además de la anteriormente citada lista de 66 parámetros de mejora, son: un nuevo indicador cuantitativo, lineal e intuitivo, el Factor de Visibilidad, que se calcula con los valores de impacto y probabilidad asignados a cada evento de riesgo; un método de resumen de escenarios de riesgo, que consta de un sencillo algoritmo de combinación y de un sistema de ponderación cuadrática basado en el Factor de Visibilidad, y que proporciona como resumen un evento de riesgo equivalente con su propio impacto, probabilidad y Factor de Visibilidad; y, finalmente, un coeficiente de seguridad, obtenible mediante una tabla o con una fórmula, para poder aplicarlo al valor del coste total del riesgo calculado de forma convencional (suma de coste por probabilidad para todos los eventos) y obtener un nivel de confianza del 85% de que el coste así calculado no se verá desbordado en la práctica. El nuevo sistema propuesto satisface los principales parámetros de mejora de la lista definida y tiene capacidades analíticas, posibilitando la conversión de las evaluaciones cualitativas en valores cuantitativos susceptibles de análisis, lo cual facilita la toma de decisiones. Adicionalmente, su uso no comportará un trabajo adicional para los evaluadores, ya que será posible aprovechar las evaluaciones ya realizadas de impacto y probabilidad. El sistema propuesto se ha contrastado con modelos de simulación y con casos reales. En este documento se presentan algunos ejemplos de casos reales y se comparan los resultados obtenidos mediante el sistema propuesto con los resultados originales que poseían las empresas. El nuevo sistema detecta niveles de riesgo que antes pasaban desapercibidos, resume eficazmente el riesgo global de los escenarios, proporciona mucha más claridad e información (aunque también se puede resumir la situación global con un único número), y posibilita calcular contingencias debidas al riesgo con un nivel de confianza del 85%. Un primer prototipo de este novedoso sistema ha sido probado en una empresa constructora multinacional, y se ha aprovechado la experiencia para poder calibrar el sistema y profundizar en los aspectos investigadores para mejorarlo. Podría ser utilizable igualmente en empresas de cualquier otro sector, con las excepciones o consideraciones que se detallan en el apartado correspondiente. ----------ABSTRACT---------- This research project aims to provide a solution to improve control and risk management, as requested by professionals and in scientific literature. Risk assessment in construction projects today is more complex than ever because of the volume of risks (in the hundreds) and their sheer variety. There is a need for a generic risk indicator and a risk summary to rate the overall risk, and breakdown techniques introducing dimensions and components make it still more difficult asking for a solution that conventional risk assessment methodologies do not provide. This paper records the process of the analysis of existing solutions, a study of scientific literature in search of works that could serve as a guide, selection and development of the research methodology, definition of solutions, and justification of results. To become familiar with best current practices required interviews with professionals and consultants, as well as the compilation of thousands of scientific and business documents which were categorized, filtered and analyzed, and then integrated into a document database of around 300 references. The most commonly used techniques were analyzed, focusing especially on risk indicators, evaluation methods, scales, and methods for calculating overall risk in any one scenario, and the total cost of those risks. The theoretical bases of these practices and their applicability to risk assessment were also analyzed, especially the Expected Utility Theory and the Central Limit Theorem. That meant investigating the most common characteristics of risk scenarios in terms of number, dependency and uniformity of risk events. The various techniques (brainstorm, interviews, questionnaires, Delphi, Monte Carlo simulation, etc.) were also studied to gauge their applicability and adaptability to typical corporate work environments. The studies carried out confirmed that current practices do not satisfy the need that evaluators and companies have to evaluate and communicate efficiently what the risk status is and facilitate decision making. But what is yet more important is the discovery regarding limitations and errors implicit in some of the techniques and methods most often used. The indicator resulting from the product of impact times likelihood, in spite of being commonplace, is so non-intuitive and hard to understand that it leads to an underestimation of the importance of the risk. Drawing the overall risk level as a sum or average of the previous products highly restricts the modification of the risk catalog and the importance of each risk individually and yields a result which can underestimate the risk level. The total risk cost as the sum of the products of probability times cost provides an average value that does not allow for the probabilistic properties of the scenario and which in reality overruns 50% of the time, and by a large amount. The inadequacy of existing solutions led to research into the design of a new solution, starting with the definition of the characteristics that an ideal solution would possess. The scientist methodology has followed separated research lines. Three independent methods (literature review, brainstorming sessions and structured interviews) gave rise to three lists of proposals. The lists were integrated by applying semantic techniques and appropriate weighted coefficients yielding a prioritized list of 66 improvement parameters that define the required characteristics. Scientist methodology involves several combined techniques to provide a solution that meets the defined requirements, and a calibration and testing process to validate the results. To define the new indicator the visual thinking technique and subsequent mathematical study were applied, bearing in mind earlier works, though achieving a final formulation for it. To define a risk summary system, building on the previous technique, a weighted square was incorporated, in line with other research, but with an innovative design based on the new defined indicator. To find a solution that provides reliable calculations of the total risk cost of a scenario, simulation models were used in combination with the Monte Carlo simulation, applying to the results non-lineal and multiple regressions, combined with successive approximations. There are several main results presented here, as well as the 66 improvement parameters: a new indicator which is quantitative, lineal and intuitive, the Visibility Factor, calculated using impact and likelihood values assigned to every risk event; a risk scenario summary method that combines an ingenious and simple combinatorial algorithm with a weighted square based on the Visibility Factor, and which offers as a summary an equivalent risk event with its own impact, likelihood and Visibility Factor; and lastly, an enlargement coefficient which can be obtained using a table or formula, to be applied to the conventional total risk cost (the sum of cost times likelihood for each risk event) obtaining a confidence level of 85%, greatly reducing the chance of a cost overrun. The new system proposed here meets the main improvement parameters that were defined in the list and has analytical capacities, converting qualitative evaluations into quantitative values ready for analysis, which facilitates decision making. Its use will not create extra work for evaluators because it will make the most of existing impact and likelihood evaluations. The proposed system has been tested with simulation models and in real projects. This paper presents some examples of real cases which show the comparison of results between the companies’ system and the proposed system. Risk levels that went unnoticed before are now detected. It also efficiently summarizes overall risk in scenarios and provides much greater clarity and information (although it is able to summarize the overall situation with one figure) and it allows risk contingencies to be calculated with a confidence level of 85%. A prototype of the new system was fully implemented in a large multinational construction company and that experience has been used for calibration and improvement proposes. It could equally be used in companies in other sectors, with exceptions and specifications mentioned in the corresponding section.