<< Volver atrás

Tesis:

Scalable Machine Learning in Embedded Systems For Industry 4.0 Applications


  • Autor: RODRIGO MARIÑO, Andrés

  • Título: Scalable Machine Learning in Embedded Systems For Industry 4.0 Applications

  • Fecha: 2022

  • Materia: Sin materia definida

  • Escuela: E.T.S. DE INGENIEROS INDUSTRIALES

  • Departamentos: AUTOMATICA, INGENIERIA ELECTRICA Y ELECTRONICA E INFORMATICA INDUSTRIAL

  • Acceso electrónico: https://oa.upm.es/71942/

  • Director/a 1º: OTERO MARNOTES, Andres
  • Director/a 2º: LANZA GUTIÉRREZ, José Manuel

  • Resumen: The industry is constantly searching for new methods and technologies to increase productivity, autonomy, and efficiency. Nowadays, a new industrial revolution, known as Industry 4.0, is emerging due to the synthesis of the industry with machine learning and the Internet of Things (IoT) paradigms. Machine learning has introduced the possibility that machines can learn from experience, that is, from data. Contrary to analytical techniques, machines might create their own models for a particular problem. The use of these models has different advantages, for example, identifying new relationships from real-world data, which an analytical modelmight bias, to improve the decision-making algorithms. Thus, machine learning in Industry 4.0 is, therefore, a promising tool for studying new relationships from data and also creating reliable and accurate models, which will open the way to the development of more efficient, productive, and adaptive processes. IoT presents an infrastructure to collect and process data massively, giving more control to machines and releasing human beings from tedious tasks. The design of current industrial processes follows a centralized structure; nonetheless, IoT offers the capability to distribute industrial control. Also, the integration of machine learning in IoT has brought intelligence to IoT systems so that it can be obtained fully autonomous, distributed, accurate decision-making systems powered by machine learningmodels. However, machine learning-based systems have high computational demands; thus, in the IoT domain, these techniques are placed in the cloud (i.e., servers orworkstations), but data is extracted on the edge (i.e., the devices which act and sense the environment). Thus, information has to be set through the network for executing machine learning models. This fact goes against the decentralization objective in Industry 4.0 paradigm, which stands for keeping processing techniques near sensors since the response time and costs are reduced when the decisionmaking tasks are close to the production lines, and also decreases the privacy losses. Therefore, the main challenge is the integration of machine learning techniques inside the edge (i.e., near sensors) so that data is processed closer to their sources, alleviating communications and making short-termdetection. From the data processing perspective, embedded devices might provide a suitable hardware solution to move machine learning systems from cloud to edge. Distribution requires using a high amount of these devices, but their cost and energy consumption are not negligible. Therefore, the focus of this thesis is on implementing machine learning systems in resource-constrained devices. Cloud-based machine learning systems are not allowed to be implemented directly on an embedded device due to their computational needs. So, one goal is to reduce the computational needs of the machine learning system while maintaining machine learning model performance at an acceptable value. So, this thesis aims at creating scalable machine learning systems while analyzing the trade-off between the available resources and the prediction performance of machine learning. Another goal is to move machine learning systems near sensors, so three proposals were established in this thesis according to three different types of sensors. The first proposal is a methodology which creates scalable machine learning systems with information from heterogeneous sensors (i.e., sensors which measure phenomena of different nature). The methodology provides multiple machine learning systems by using different sensor constellations. A sensor constellation is a subset of distributed heterogeneous sensors from the factory. Thus, the scalability in sensor constellation-based machine learning systems attends to the number of sensors against the machine learning performance so that it can be distributed in embedded devices while maintaining an accurate machine learning prediction. To validate the proposed methodology, scalable machine learning solutions based on sensor constellations are created for an industrial fault diagnosis use case. The second proposal is a methodology for scalable machine learning systems for sophisticated sensors (i.e., a sensor which produces high dimensional data). Sophisticated sensors, such as spectrograms, produce a great deal of information which is not feasible to process directly on a resource-constrained device. Therefore, the methodology studies the information from the sensors and provides multiple machine learning solutions using particular data from this sensor. The scalability in sophisticated sensor-based machine learning systems attends to the pieces of data from the sensor against the machine learning performance. This second methodology, contrary to the previous one, needs to analyze the intra-relationships of sensor data to provide a machine learning solution. To validate this second methodology, scalable machine learning solutions based on data from photonic sensors (i.e., sophisticated sensors) for a chemical industrial process are created. The third proposal is a data architecture for temporal data, that is, signals. The goal is to provide a modular and flexible architecture which permits the building of multi-modal machine learning systems. The scalability in multi-modal systems attends to the number of signals and their functions against the machine learning performance. The flexibility of the architecture allows the integration of scalable machine learning systems based on signal processing. Thus, a signal can be removed from the architecture without affecting the rest of the signals. To validate this data architecture, a scalable machine learning system based on physiological signal analysis for identifying stress in industrial workers is created. ----------RESUMEN---------- La industria está en constante búsqueda de nuevos métodos y tecnologías para incrementar su productividad, su autonomía y su eficiencia. Actualmente, una nueva revolución industrial, conocida como Industria 4.0, está emergiendo gracias a la síntesis de ella misma con los paradigmas de aprendizaje automático (machine learning en inglés) y el Internet de las Cosas (IoT por sus siglas en inglés). El aprendizaje automático ha introducido la posibilidad de que las máquinas puedan aprender de la experiencia, a saber, de los datos. Al contrario de las técnicas analíticas, las máquinas pueden crear sus propios modelos para un problema particular. El uso de estos modelos tiene múltiples ventajas, por ejemplo, la capacidad de identificar nuevas relaciones a través de la información obtenida en el mundo real para mejorar los algoritmos de toma de decisiones. Esto no podría hacerlo un modelo analítico. Por tanto, el aprendizaje automático en la Industria 4.0 es una herramienta prometedora para el estudio de nuevas relaciones entre datos y también para crear modelos precisos y fiables, los cuales abrirán una via al desarrollo de procesos más eficientes, productivos y adaptativos. El IoT presenta una infraestructura para recolectar y procesar datos de forma masiva, dando más control a las máquinas y liberando a los seres humanos de tareas tediosas. El diseño de los procesos industriales actuales sigue una estructura centralizada; sin embargo, el IoT ofrece la capacidad de distribuir el control industrial. También, la integración del aprendizaje automático en el IoT ha introducido la inteligencia en los sistemas IoT de manera que se puede obtener sistemas de toma de decisiones completamente autónomos, distribuidos y precisos potenciados por los modelos de aprendizaje automático. No obstante, los sistemas basados en aprendizaje automático tienen altas demandas computacionales; por tanto, en el dominio del IoT, estas técnicas se sitúan en el cloud (i.e., servidores y estaciones de trabajo). Sin embargo, los datos son extraídos en el edge (i.e., los dispositivos que miden y actúan sobre el entorno). Entonces, la información tiene que ser enviada a través de la red para ejecutar los modelos de aprendizaje automático. Este hecho va en contra del objetivo de la descentralización en el paradigma de la Industria 4.0, que se centra en acercar las técnicas las técnicas de procesamiento a los sensores dado que el tiempo de respuesta y el coste se reducen cuando las tareas de toma de decisiones se encuentran cerca de las líneas de producción, y además también se reducen las pérdidas de privacidad. Por tanto, el principal reto es la integración de las técnicas de aprendizaje automático dentro del edge (i.e., cerca de los sensores) de manera que los datos son procesados cerca de sus fuentes, aliviando las comunicaciones y creando una detección a corto plazo. Desde la perspectiva del procesamiento de datos, los sistemas embebidos pueden proveer una solución hardware apropiada para mover los sistemas de aprendizaje automático desde el cloud al edge. La distribución requiere usar una gran cantidad de estos dispositivos, pero sus coste y su consumo de energía no son despreciables. Por ello, el foco de esta tesis se centra en la implementación de sistemas de aprendizaje automático en dispositivos con recursos limitados. Los sistemas de aprendizaje automático del cloud no se pueden implementar directamente en un sistema embebido por sus necesidades computacionales. De esta forma, un objetivo es reducir las necesidades computacionales del sistema de aprendizaje automático mientras el modelo de aprendizaje automático mantiene su desempeño en niveles aceptables. Por tanto, esta tesis se centra en crear sistemas escaladles de aprendizaje automáticomientras compensa los recursos disponibles y el desempeño de la predicción del modelo de aprendizaje automático. Otro objetivo es acercar los sistemas de aprendizaje automático a los sensores, de ello se han generado tres propuestas en esta tesis atendiendo a tres tipos de sensores diferentes. La primera propuesta es una metodología que crea sistemas escaladles de aprendizaje automático utilizando información de sensores heterogéneos (i.e., sensores que miden fenómenos de distinta naturaleza) La metodología provee de múltiple sistemas de aprendizaje automático para ser utilizados por diferentes constelaciones de sensores. Una constelación de sensores es un subconjunto distribuido de los sensores heterogéneos de una planta industrial. Por ello, la escalabilidad en los sistemas de aprendizaje automático basados en constelaciones de sensores analiza el número de sensores contra el desempeño del modelo de aprendizaje automático, de manera que se pueda distribuir en dispositivos embebidos mientras que se mantiene la precisión de la predicción del modelo de aprendizaje automático. Para validar la metodología propuesta, las soluciones escalables de aprendizaje automático basadas en constelaciones de sensores son creadas para un caso de uso de diagnóstico de fallos industriales. La segunda propuesta es una metodología para sistemas escaladles de aprendizaje automático para sensores sofisticados (i.e., un sensor que produce un conjunto de datos de alta dimensionalidad). La respuesta de los sensores sofisticados, como por ejemplo un espectrograma, producen una gran cantidad de información que no es factible procesar directamente en un dispositivo de recursos limitados. Por tanto, la metodología estudia la información de los sensores y provee múltiple soluciones basadas en aprendizaje automático usando datos seleccionados de este sensor. La escalabilidad en los sistemas de aprendizaje automático basados en sensores sofisticados analizan trozos de datos del sensor contra el desempeño del modelo de aprendizaje automático. Esta segunda metodología, al contrario que la anterior, necesita analizar las relaciones internas de los datos del sensores para generar una solución de aprendizaje automático. Para validar esta metodología, se han creado soluciones escalables de aprendizaje automático basadas en datos de sensores fotónicos (i.e., sensores sofisticados) para un proceso industrial químico. La tercera y última propuesta es una arquitectura de datos para datos con relaciones temporales, a saber, señales. El objetivo es generar una arquitectura modular y flexible que permita la construcción de sistemas de aprendizaje automático multimodales. La escalabilidad en sistemas multimodales se centra en el número de señales y sus funciones contra el desempeño del modelo de aprendizaje automático. La flexibilidad de la arquitectura permite la integración de sistemas escalables de aprendizaje automático basados en procesamiento de señales. Por ello, una señal puede ser eliminar de la arquitectura sin afectar al funcionamiento del sistema alimentado por otras señales. Para la validación de esta arquitectura de datos, un sistema escalable de aprendizaje automático basado en señales fisiológicas fue creado para el caso de uso de la identificación de estrés en trabajadores de la industria.