Tesis:

Técnicas cuantitativas de análisis del EEG


  • Autor: GARCIA GARCIA, Julio Antonio

  • Título: Técnicas cuantitativas de análisis del EEG

  • Fecha: 1984

  • Materia: Sin materia definida

  • Escuela: FACULTAD DE INFORMATICA

  • Departamentos: SIN DEPARTAMENTO DEFINIDO

  • Acceso electrónico:

  • Director/a 1º: ARRIAGA GOMEZ, Fernando de

  • Resumen: El análisis del electroencefalograma (actividad eléctrica de campo de la corteza cerebral, EEG), como el de otras muchas señales biológicas, ha sido objeto en las últimas décadas de la aplicación de gran número de técnicas estadísticas con el fin de obtener información sobre sus características y proceso de generación. Todas estas técnicas han tropezado con el hecho de que el EEG es una señal no-estacionaria, sino más bien cicloestacionaria (Franks, 1975), lo cual dificulta gravemente la aplicación de las técnicas descritas y la interpretación de los resultados obtenidos. Una solución a este problema consiste en la "segmentación" del EEG, es decir, su división en fragmentos temporales estacionaríos de la mayor longitud posible. Con esto se consiguen dos objetivos: a) se pueden aplicar técnicas estadísticas clásicas dentro de cada segmento, y b) se alcanza una importante reducción de la información contenida en la señal. Esta queda descrita con unos pocos parámetros, que caracterizan cada segmento, labor ésta muy similar a la que realiza un electroéncefalografista cuando estudia un largo registro de EEG y, finalmente, emite un informe. La solución que aquí se propone es una "segmentación", que busque la aparición de no-estacionariedades, para cuya detección empleamos una cierta función del error que cometemos, muestra a muestra, al aplicar una técnica de predicción lineal a la señal. Esta solución se propone, tras realizar una revisión bibliográfica tanto de las herramientas estadísticas empleadas como de los diferentes sistemas automáticos de interpretación de un EEG existentes, sistemas que presentan dificultades para la detección y clasificación de transitorios rápidos y no-estacionariedades. Se ha dividido el proceso de segmentación en dos partes claramente diferenciadas. En una primera se desarrollan diversas técnicas de predicción lineal (algoritmo de Wiener, algoritmo LMS y filtros en "celosía"), que, aplicadas a la señal nos proporcionan, para cada muestra tomada, un valor de predicción con su consiguiente error. De entre estas técnicas escogemos aquella que, aplicada a una señal real de EEG, nos proporciona mejores resultados, desechando como test suficiente de bondad de cualquiera de estas técnicas el usualmente empleado en la literatura, y que consiste en la variación brusca de los parámetros de señales deterministicas de entrada. En una segunda etapa se completa el proceso de segmentación mediante el desarrollo de dos algoritmos, que detectan la aparición de no-estacionariedades. Estos dos algoritmos - uno, inédito, y otro, generalización de uno ya conocido, original de Rodenstein y Praetorius (1977) han sido aplicados, con el fin de estudiar sus comportamientos respectivos, a diferentes señales de EEG. Fruto de este estudio es la elección de uno de ellos como método de segmentación, procediendo entonces a fragmentar un EEG y efectuando un análisis comparativo entre los segmentos detectados por nuestro método y los detectados por un electroencefalografista, con lo que podemos hacernos una idea acerca de la fiabilidad del método propuesto