Studies on genetic programming techniques for the short and medium term predictions of the interstitial glucose of diabetic patients

  1. CONTADOR PACHÓN, SERGIO
Dirigida por:
  1. José Ignacio Hidalgo Pérez Director
  2. José Manuel Velasco Cabo Codirector
  3. José Manuel Colmenar Verdugo Tutor/a

Universidad de defensa: Universidad Rey Juan Carlos

Fecha de defensa: 11 de mayo de 2022

Tribunal:
  1. Rafael Jacinto Villanueva Micó Presidente/a
  2. Alberto Herrán González Secretario/a
  3. Francisco Fernández de Vega Vocal

Tipo: Tesis

Teseo: 717393 DIALNET lock_openTESEO editor

Resumen

Antecedentes Diabetes Mellitus (DM) es una enfermedad crónica que aumenta la morbilidad y mortalidad, y provoca un deterioro significativo en la calidad de vida. Existen principalmente dos tipos de diabetes: - Diabetes Mellitus Tipo 1 (DMT1): debido a un proceso autoinmune, el páncreas no puede generar suficiente insulina para procesar el azúcar producido después de la ingesta de carbohidratos. - Diabetes Mellitus Tipo 2 (DMT2): la insulina producida por el páncreas no funciona correctamente, en un fenómeno conocido como resistencia a la insulina. La DMT1 solo se puede tratar con insulina sintética inyectada en el torrente sanguíneo. Dependiendo de la cantidad de insulina en el cuerpo se pueden dar dos escenarios. Por un lado, un exceso de insulina puede provocar hipoglucemia, definida como un valor de Glucosa en Sangre (GS) inferior a 70 mg/dl. Si esta situación continúa en el tiempo, puede causar complicaciones a corto plazo. Por otro lado, si la dosis de insulina es insuficiente, puede provocar hiperglucemia, definida como un valor de GS superior a 180 mg/dl, lo que puede derivar en complicaciones a largo plazo. El objetivo es mantener los niveles de GS dentro del rango objetivo la mayor parte del tiempo (definido como un valor de GS entre [70, 180] mg/dl). El control de GS en pacientes insulino-dependientes requiere predecir los valores futuros de glucosa para determinar la cantidad de insulina que se necesita inyectar. Esta cantidad depende de muchos factores que las Personas con Diabetes (PcD) tienen que estimar manualmente, siguiendo fundamentalmente dos terapias distintas: Infusión Continua de Insulina Subcutánea y Múltiples Dosis de Insulina. Uno de los factores más importantes es la Variabilidad Glucémica (VG), definida como la fluctuación de los niveles de glucosa durante un día. La VG hace que el proceso de predicción sea más complicado. Existen diferentes tipos de estrategias de control de GS (Manual, Semiautomática y Automática), pero en todas ellas es importante desarrollar modelos matemáticos o sistemas basados en Inteligencia Artificial que describan la interacción entre el sistema de glucosa y la insulina utilizando las mediciones y los datos almacenados. Hay diferentes formas de producir modelos de predicción de GS dependiendo de la información disponible en el momento del pronóstico. Una opción es el escenario Que-pasaría-si, donde el modelo predice los valores futuros de glucosa teniendo en cuenta no solo los valores pasados de las tres variables (glucosa, carbohidratos e insulina), sino también la ingesta futura de carbohidratos y las inyecciones de insulina presentes hasta el horizonte de predicción. Por ejemplo, el modelo puede predecir el nivel de GS, suponiendo que el paciente ingiere una cierta cantidad de carbohidratos m minutos desde el tiempo de la predicción. Otra opción es el escenario Agnóstico, que genera el modelo sin tener en cuenta información sobre eventos futuros en la fase de predicción. Este tipo de modelo necesita predecir implícitamente esos eventos. Por ejemplo, el modelo debe identificar los periodos de ayuno o el ejercicio físico. Ambos escenarios se utilizan en esta tesis. Existen tres métodos principales comúnmente utilizados para resolver el problema de predicción de glucosa. El primer método está compuesto por el modelo Fisiológico, que utiliza ecuaciones lineales que simulan la fisiología del sistema regulador de glucosa-insulina, y requiere conocimientos específicos de fisiología. El segundo método, el modelo Basado-en-datos, puede predecir la concentración de glucosa basándose únicamente en los datos de entrada y salida existentes. El último método combina ambas soluciones de forma Híbrida, donde el modelo toma las partes más simples de la fisiología de la glucosa-insulina e incluye datos para determinar los parámetros del modelo. Todos los modelos creados en esta tesis se basan en el método Basado-en-datos. Hay algunas investigaciones que utilizan técnicas de Minería de Datos y Aprendizaje Automático para estudiar el problema de la predicción de glucosa y recomendación de insulina en PcD. Una de esas técnicas son los árboles de decisión. Uno de los más utilizados es el algoritmo CHi-square Automatic Interaction Detection (CHAID). Este algoritmo divide recursivamente los datos mediante una variable respuesta/objetivo utilizando múltiples divisiones entre las diferentes variables de entrada/predictores. El algoritmo calcula la prueba Chi a través del predictor. Una prueba Chi-cuadrado da como resultado una probabilidad entre 0 y 1. Un valor cercano a 0 indica una diferencia significativa entre las dos clases que se comparan, y un valor cercano a 1 significa que no hay diferencia significativa entre ellas. Si la prueba no es estadísticamente significativa, el algoritmo determina el predictor que es menos diferente significativamente con respecto a la variable criterio y junta las categorías del predictor. De lo contrario, calcula el p-valor de Bonferroni para el conjunto de categorías del predictor. La corrección de Bonferroni se usa para comparar múltiples clases y encontrar la clase que obtuvo la mejor división. Si la prueba no es estadísticamente significativa, la variable predictora con el p-valor más bajo se utiliza para la próxima división. De lo contrario, el nodo respectivo se convierte en un nodo terminal. El algoritmo repite este proceso hasta que no se pueden realizar más divisiones. Otras soluciones trabajan con técnicas evolutivas como Programación Genética (PG) o Gramáticas Evolutivas (GEs). La PG es una técnica de computación evolutiva que resuelve problemas de forma autónoma sin requerir que el usuario conozca la estructura de la solución de antemano. En PG evolucionamos una población de programas de ordenador. El algoritmo crea aleatoriamente una población inicial de programas (individuos o soluciones). A continuación, ejecuta cada programa y determina su aptitud para seleccionar uno o dos programas de la población que pasan a ser los programas padre del proceso. Un programa hijo se crea combinando partes elegidas al azar de los dos programas seleccionados (cruce). Se crea otro nuevo programa hijo alterando aleatoriamente una parte elegida al azar de un programa padre (mutación). El algoritmo repite este proceso hasta que encuentra una solución aceptable o se cumple alguna otra condición de parada. Finalmente, devuelve como solución al mejor individuo que ha encontrado. Las GEs son una variante de la PG, donde la solución se calcula mediante el uso de una gramática específica. La expresión matemática de la solución se logra decodificándola a través de la gramática. Por lo tanto, se puede restringir el espacio de búsqueda y se puede incorporar el conocimiento del dominio del problema. Por lo general, la gramática se implementa en formato Backus-Naur Form (BNF) y se diseña para encontrar un modelo predictivo de niveles de GS. El método Clarke Error Grid (CEG) se publicó en 1987 como técnica para evaluar la precisión clínica de los Monitores Continuos de Glucosa (MCG). Parkes Error Grid (PEG) se publicó en 2000 como una alternativa a CEG. Ambos métodos se pueden utilizar para representar las diferencias entre los valores estimados en una predicción y los valores actuales o de referencia en un gráfico con coordenadas cartesianas donde el eje X representa los valores de referencia y el eje Y los valores de la predicción, con Y = X siendo la predicción ideal. La característica única de esta representación es que el gráfico se divide en cinco zonas según el grado de precisión de las estimaciones de glucosa. La diferencia entre los dos métodos radica en la definición de las zonas. En CEG las zonas se definen de la siguiente manera: la zona A representa los valores de glucosa que se desvían de la referencia no más del 20%; la zona B son puntos que están fuera del 20% pero que darían lugar a un tratamiento adecuado; la zona C son puntos que darían como resultado una corrección excesiva de los niveles aceptables de GS, lo que conduciría a un tratamiento innecesario; la zona D son puntos que indican un error potencialmente peligroso en la detección de hipoglucemias o hiperglucemias; la zona E son puntos que confundirían el tratamiento entre hipoglucemias e hiperglucemias. En PEG, las zonas se redefinen en base a las zonas de CEG y a los límites establecidos por 100 médicos expertos en diabetes en una encuesta realizada en la American Diabetes Association Meetings en junio de 1994. En ambas alternativas, el objetivo es maximizar las predicciones incluidas en las zonas A y B y minimizarlas en las zonas C, D y E. Objetivos Los principales objetivos de esta tesis son mejorar los modelos de última generación, en términos de precisión y efectividad, aplicados en la predicción de los niveles de GS en pacientes con DMT1 y aumentar el horizonte temporal de predicción. Para llevar a cabo estos objetivos primarios, se definen los siguientes sub-objetivos: - Demostrar usando técnicas estadísticas, que es posible extraer una pequeña cantidad de perfiles de glucosa que caractericen la mayoría de los patrones de glucosa en pacientes con DMT1. - Crear una nueva metodología para obtener predictores de glucosa precisos mediante un proceso compuesto por tres pasos: (i) los datos se recopilan usando MCG, se preprocesan y se dividen usando criterios de división; (ii) los datos se agrupan para obtener modelos personalizados de diferentes perfiles de glucosa; (iii) se utiliza un paso de entrenamiento para crear modelos de predicción ensamblados basados en computación evolutiva. - Diseñar mediante un enfoque Basado-en-datos modelos de predicción utilizando algoritmos evolutivos que tengan en cuenta la clasificación de los perfiles de glucosa y varias medidas de VG latentes como nuevas características de entrada del motor de modelado. - Investigar los beneficios de aplicar un enfoque multi-objetivo para resolver un problema de Regresión Simbólica (RS) basado en el algoritmo Non-dominated Sorting Genetic Algorithm (NSGA-II) a través de las GEs, probando dos escenarios diferentes: Que-pasaría-si y Agnóstico (el más común en la práctica clínica diaria). Metodología A continuación describimos la metodología general utilizada en esta tesis. En primer lugar, se recopilan datos de glucosa, insulina y carbohidratos de diferentes pacientes con DMT1. La recopilación se realiza mediante MCG e incluye información sobre Glucosa Intersticial, unidades inyectadas de insulina y cantidades de carbohidratos consumidas. El siguiente paso es el preprocesado. Los datos de glucosa que no se han podido medir se completan realizando una corrección de los valores utilizando interpolación segmentada de grado 3, donde el número máximo de valores consecutivos que se pueden completar es una hora. En el caso de las dosis de insulina, se utiliza una función basada en el modelo de Berger para simular la dinámica del plasma tras la inyección subcutánea de insulina. Después de que los datos se seleccionan, organizan y sincronizan mediante marcas de tiempo, se crean modelos basados en algoritmos evolutivos. Abordamos el problema como un problema de RS. Los modelos se generan utilizando series temporales de glucosa, insulina, carbohidratos y un conjunto de características con valores históricos y futuros promediados y agregados en diferentes períodos de tiempo. La validación cruzada de 10 iteraciones se utiliza en la fase de entrenamiento. Los modelos se evalúan utilizando dos métricas diferentes que calculan la precisión de las predicciones para cada horizonte temporal. Finalmente, para seleccionar la prueba adecuada para evaluar de forma estadística los resultados, se analiza la distribución de los mismos usando la técnica de Estimación de la Densidad del Kernel (EDK) de la distribución de las muestras. Para hacer un estudio estadístico más profundo de los resultados, se utiliza el modelo Bayesiano basado en la distribución de Plackett-Luce sobre rankings para analizar múltiples métodos en múltiples horizontes de tiempo. A continuación, describimos las variantes de la metodología general en cada uno de los trabajos presentados en esta tesis. En el trabajo presentado en el capítulo 3, después del paso de preprocesamiento, los datos se dividen según un criterio que crea diferentes perfiles de glucosa. Los criterios de división se basan en el comportamiento de la serie temporal de glucosa en estudio. En esta investigación dividimos las series de tiempo en grupos obtenidos mediante la variable día de la semana en siete categorías (Monday; Tuesday; Wednesday; Thursday; Friday; Saturday; Sunday) y la variable franja horaria en seis categorías dividiendo los valores de glucosa en secciones de cuatro horas cada una (00:00h-04:00h; 04:00h-08:00h; 08:00h-12:00h; 12:00h-16:00h; 16:00h-20:00h; 20:00h-24:00h). Se aplica un algoritmo de clustering para explorar los datos y obtener la información oculta en ellos. En concreto, se utiliza el algoritmo CHAID para dividir recursivamente los datos relacionados con una variable objetivo (glucosa) usando múltiples divisiones entre las diferentes variables de entrada (día de la semana y franja horaria). El objetivo es obtener perfiles de glucosa para entrenar los modelos de forma específica en cada perfil. En el capítulo 4 generamos modelos basados en PG utilizando dos métodos diferentes. El primero, llamado CHAID-GP, genera modelos con PG y valores de glucosa clasificados obtenidos en el trabajo presentado en el capítulo 3. El segundo, llamado GP, genera modelos creados con PG y sin valores de glucosa clasificados. El mejor modelo de cada método se selecciona mediante el Criterio de Información de Akaike (CIA). Este método se utiliza para medir la calidad relativa de los modelos en función de la entropía de información. Se selecciona un modelo por cada horizonte temporal e iteración de la validación cruzada. Se obtienen modelos de predicción de valores de glucosa a intervalos de 30 minutos para un máximo de cuatro horas (horizontes temporales a 30, 60, 90, 120, 150, 180, 210 y 240 minutos). El método PEG se utiliza para evaluar la precisión de las predicciones para cada horizonte temporal. La idea es comparar estos dos métodos para averiguar si utilizando los valores de glucosa clasificados, los modelos pueden mejorar la precisión en la predicción de los valores de glucosa para diferentes horizontes temporales. En el estudio presentado en el capítulo 5, después del paso de preprocesamiento, se genera un conjunto de características adicionales basadas en diferentes medidas de VG. Una vez más, después de que se hayan generado todas las Variables Latentes (VL), los datos se dividen y agrupan de acuerdo con un criterio que crea diferentes perfiles de glucosa. Los criterios de división y el algoritmo de clustering utilizados son los mismos que se aplicaron en el capítulo 3. Se utiliza un algoritmo de aumento de datos que genera de forma sintética series temporales de glucosa para entrenar conjuntos de datos. Con esta técnica se consigue incluir información significativa y mejorar la calidad de los datos. Generamos modelos basados en PG usando dos nuevos métodos. El Primero, llamado LV-GP, crea modelos basados en PG utilizando características de Variabilidad de Glucosa Latente (VGL). El segundo método, llamado LV-CHAID-GP, genera modelos basados en PG, con características de VGL y valores de glucosa clasificados. De nuevo se utiliza CIA para seleccionar el mejor modelo para cada método y los mismos horizontes de tiempo que en el capítulo 4. Se utiliza un método de ensamblado para crear el predictor. Finalmente, el predictor se selecciona para pronosticar el valor futuro de glucosa. El objetivo principal es investigar si el uso de las características de VGL en combinación con la glucosa clasificada mejora o no la precisión en la predicción. Finalmente, en la investigación presentada en el capítulo 6, analizamos dos escenarios diferentes: Que-pasaría-si y Agnóstico. Para ambos escenarios, se utiliza un modelo mono-objetivo (GE) y un enfoque multi-objetivo (MO-GE) basado en el algoritmo NSGA-II, considerando como funciones objetivo el Error Cuadrático Medio (ECM) y una función de aptitud ad-hoc llamada Fclarke. Esta función ad-hoc se basa en el análisis CEG, que ayuda a mostrar el potencial peligro de predicciones erróneas en PcD. Además de los modelos basados en GEs, también hemos ajustado modelos basados en el algoritmo Auto Regressive Integrated Moving Average (ARIMA) para estimar los valores de glucosa en los cuatro horizontes de predicción (30, 60, 90 y 120 minutos). Para el escenario Agnóstico, el conjunto de datos incluye, además de la información del conjunto de datos utilizado en trabajos anteriores y en el escenario Que-pasaría-si, datos recopilados de un brazalete de actividad. Particularmente se han tenido en cuenta la respuesta galvánica de la piel, la temperatura de la piel y la aceleración. Comparamos dos opciones teniendo en cuenta la información disponible en el momento de la predicción (60 y 120 minutos). Resultados Presentamos en el capítulo 3 los patrones de glucosa obtenidos utilizando técnicas de clustering. Se realiza un estudio retrospectivo de diez pacientes con DMT1. Se encontraron diferencias significativas en los perfiles de glucosa clasificados por las variables día de la semana y franja horaria en cada paciente. Hay algunos pacientes con diferencias entre los perfiles de glucosa obtenidos para cada día. En otros pacientes sucede lo contrario, y los perfiles de glucosa obtenidos son similares. Los resultados de la predicción de glucosa mediante clustering y PG se muestran en el capítulo 4. En este trabajo usamos el mismo conjunto de datos que en el capítulo 3. Se hace una comparación entre CHAID-GP y GP estudiando la proporción de predicciones en la zona A+B obtenida con PEG para los diferentes grupos de datos y horizontes temporales. Los resultados muestran que los modelos creados con CHAID-GP son más precisos o al menos tienen la misma precisión que los modelos creados con GP. Finalmente, realizamos un análisis de las predicciones en la fase de evaluación obtenidas para la zona A+B con PEG para todos los horizontes temporales y pacientes. En general, la precisión de las predicciones es mejor para horizontes de tiempo más cortos y empeora gradualmente a medida que aumenta el horizonte temporal. La contribución de las características de VGL se expone en el capítulo 5. Se utiliza el mismo conjunto de datos que en los capítulos 3 y 4. Utilizamos dos nuevos métodos llamados LV-GP y LV-CHAID-GP. Estudiamos la proporción entre los valores obtenidos en la zona A+B para los diferentes clusters de datos y horizontes temporales entre GP y LV-CHAID-GP, y entre GP y CHAID-GP, respectivamente. Los resultados muestran que los modelos creados con CHAID-GP y LV-CHAID-GP son más precisos o al menos tienen la misma precisión que los modelos creados con GP. Analizamos las diferentes soluciones obtenidas con PEG para todos los pacientes con todos los métodos y horizontes temporales. Cabe señalar que, como era de esperar, cuando aumenta el horizonte temporal, los puntos están más dispersos, obteniéndose un número mayor de puntos en las zonas no deseadas (C, D y E). También podemos ver que LV-CHAID-GP no está dando predicciones en la peor zona E y solo algunos puntos en la zona D. También comparamos las predicciones en la fase de evaluación obtenidas para la zona A+B con PEG para todos los horizontes temporales. Los modelos creados con LV-GP y LV-CHAID-GP son más precisos. También realizamos un análisis de las 25 variables más significativas, en cuanto a su importancia relativa de aparición en los modelos, de un total de 83. Las medidas MEAN, Percentage Spent in Target Range (PSTR) y J Index (JI) aparecen en las diez primeras posiciones. Para las variables que no son VL, la glucosa, la insulina y los carbohidratos aparecen en las cinco primeras posiciones. Analizamos las distribuciones de los resultados para todos los métodos y horizontes temporales. Los datos no se distribuyen según una distribución Gaussiana y son multi-modales, por lo que es necesario una prueba no paramétrica. A continuación, seleccionamos la prueba de Nemenyi para realizar una comparación de los resultados por pares. La prueba determina las Diferencias Críticas. Los resultados muestran diferencias significativas para todos los horizontes temporales (excepto para 150 minutos). Finalmente, utilizamos la prueba Bayesiana para todos los métodos y horizontes temporales. Los resultados muestran que LV-GP tiene la mayor probabilidad de ser el mejor método para los horizontes de tiempo a 30, 60, 90 y 120 minutos. Para 150 y 180 minutos, CHAID-GP es el método con mayor probabilidad de ser el mejor. En el capítulo 6 presentamos los resultados obtenidos en la predicción de glucosa utilizando las GEs multi-objetivo. Se seleccionaron diez pacientes con DMT1 para el escenario Qué-pasaría-si, en base a un control adecuado de los niveles de glucosa. Estudiamos las soluciones obtenidas con los enfoques mono-objetivo (GE) y multi-objetivo (MO-GE), donde cada punto representa una solución referenciada por sus coordenadas (CDE, ECM). Podemos observar que las soluciones obtenidas con MO-GE dominan a todas las soluciones generadas por GE. También estudiamos la distribución de las soluciones a través de los diferentes horizontes con ambos enfoques. Como era de esperar, el error y el número de soluciones en zonas de predicción peligrosas aumentan con el horizonte de predicción. Se realiza un análisis adicional de las soluciones teniendo en cuenta las diferentes iteraciones de la validación cruzada. Cabe señalar que algunas de las soluciones obtenidas con las distintas iteraciones son más difíciles de resolver que otras, y se debe hacer un estudio más profundo de los datos para mejorar el algoritmo. Analizamos las soluciones cuantitativamente comparando las 40 instancias diferentes (diez pacientes por cuatro horizontes de tiempo diferentes) para ambos métodos. Las soluciones obtenidas con el método MO-GE dominan a las soluciones obtenidas con GE. Realizamos un análisis de los resultados agregados para los diferentes métodos: GE, MO-GE y ARIMA. Los resultados muestran que el algoritmo MO-GE obtiene las mejores soluciones, reduciendo las predicciones en las zonas más peligrosas D y E para los horizontes de tiempo a 30 y 60 minutos. ARIMA obtiene los peores resultados para todos los horizontes excepto a 30 minutos, donde obtiene mejores resultados que el enfoque GE. Los seis pacientes del conjunto de datos utilizados en el escenario Agnóstico se seleccionaron del conjunto de datos OhioT1DM para la predicción del nivel de glucosa en sangre: actualización 2020. Examinamos las diferencias entre los enfoques MO-GE y GE teniendo en cuenta la información histórica WS={60, 120} minutos. Hay algunos casos en los que las soluciones obtenidas con GE están dominadas por soluciones generadas con MO-GE. Hay otros casos donde las soluciones obtenidas con MO-GE están dominadas por soluciones generadas con GE. Estudiamos los resultados comparando ambos valores históricos. Encontramos soluciones en el frente de Pareto para los diferentes valores históricos y horizontes temporales, por lo que no existe dominancia entre métodos. También analizamos las soluciones cuantitativamente al comparar las 24 instancias diferentes (seis pacientes por cuatro horizontes de tiempo diferentes) para ambos métodos y los dos valores históricos. Las soluciones obtenidas con MO-GE dominan a las soluciones obtenidas con GE. También examinamos los resultados agregados para ws=120 minutos para los métodos GE, MO-GE y ARIMA. Así como en el escenario Que-pasaría-si, el algoritmo MO-GE obtiene los mejores resultados en todos los horizontes excepto a 30 minutos, donde ARIMA es el mejor método. Para analizar la complejidad de las soluciones en términos del número de parámetros que contienen y de su longitud, representamos el ECM en función del número de parámetros y de la longitud de los modelos encontrados en las soluciones para los métodos GE y MO-GE y para ambos escenarios Qué-pasaría-si y Agnóstico. Hemos observado que las soluciones obtenidas con GE tienen una mayor longitud, un mayor número de parámetros y un ECM más alto que las soluciones obtenidas con MO-GE en ambos escenarios. Para estudiar cómo los diferentes valores históricos WS={60, 120} minutos contribuyeron a los modelos, se realiza un análisis estadístico para evaluar la importancia de los resultados. Primero creamos gráficas de densidad usando la EDK para la distribución de las muestras. La distribución de datos no es unimodal y es necesaria una prueba no paramétrica. Luego, utilizamos el modelo Bayesiano sobre los valores históricos y los horizontes temporales teniendo en cuenta los distintos métodos y funciones objetivo. Se puede observar que las mejores soluciones se obtienen con el horizonte de predicción a 30 minutos ya que ambas configuraciones alcanzan las mayores probabilidades. Además, el valor histórico a 60 minutos tiene la probabilidad más alta. Aun así, como el intervalo de confianza de las soluciones obtenidas con los diferentes valores históricos se superponen, no existe evidencia estadística de que un método sea mejor que el otro. Conclusiones Las conclusiones obtenidas en el capítulo 3 son que se han observado diferencias y dependencias significativas entre los perfiles de glucosa clasificados según las variables día de la semana y franja horaria, y los grupos encontrados han sido diferentes para cada paciente, demostrando la necesidad de un estudio individualizado. Las principales conclusiones del trabajo presentado en el capítulo 4 se pueden resumir de la siguiente manera. Las predicciones de glucosa con modelos creados con PG son mejores para horizontes de tiempo más cortos y empeoran gradualmente a medida que el horizonte de tiempo aumenta de 30 a 240 minutos. Los modelos creados con valores de glucosa clasificados en categorías con menos elementos obtuvieron los mejores resultados. En general, cuando se utilizan valores de glucosa clasificados (CHAID-GP), la precisión en la predicción de los valores de glucosa mejora en comparación con los modelos obtenidos con el conjunto de datos original (GP). En la investigación presentada en el capítulo 5, concluimos que la VG se puede incorporar para generar modelos utilizando diferentes patrones de perfiles de glucosa o incluyendo las VL. Los modelos creados con las VL mejoran la calidad de las predicciones y no producen pronósticos en la peor zona E y solo unos pocos puntos en la segunda peor zona D. CHAID-GP y LV-CHAID- GP son los mejores métodos para todos los horizontes temporales y pacientes. En general, teniendo en cuenta todos los pacientes y horizontes a corto plazo, LV-GP, CHAID-GP y LV-CHAID-GP obtienen modelos más precisos que GP. El análisis de la importancia relativa de las variables revela que las medidas MEAN, PSTR y JI están en las posiciones más altas, siendo por tanto las medidas más relevantes. Las características que no son VL (glucosa, carbohidratos e insulina) aparecen en las cinco primeras posiciones de influencia. El análisis estadístico se realizó utilizando un enfoque novedoso basado en el modelo Bayesiano y la distribución de Plackett-Luce sobre rankings. Los resultados obtenidos muestran que LV-GP tiene la mayor probabilidad de ser el mejor método para los horizontes de tiempo a 30, 60, 90 y 120 minutos. Para 150 y 180 minutos, CHAID-GP es el método con mayor probabilidad de ser el mejor. Los resultados del capítulo 6 muestran que el enfoque multi-objetivo genera los mejores modelos, reduciendo la cantidad de predicciones en las zonas más peligrosas de la métrica CEG para ambos escenarios. Estos resultados se logran porque el enfoque multi-objetivo tiene una mejor capacidad que el enfoque mono-objetivo para atravesar las diferentes áreas del espacio de búsqueda definidas por la función objetivo Fclarke. Esta es una conclusión esencial ya que con esta función se obtienen modelos que incluyen criterios médicos que penalizan los errores de predicción más peligrosos. Además, hemos encontrado que las GEs pueden obtener buenos resultados en términos de CEG para ambos escenarios, a pesar de no ser considerada como función objetivo. Sin embargo, el enfoque multi-objetivo puede verse como un enfoque más seguro ya que la métrica CEG se incluye explícitamente, y el responsable de la toma de decisiones va a poder examinar los modelos no dominados y decidir cuál se adapta mejor a cada paciente. Ahora, estamos desarrollando un marco de trabajo para generar modelos creados con el enfoque multi-objetivo para los escenarios Que-pasaría-si y Agnóstico. Los modelos creados en esta tesis van a poder ser, después de las pruebas clínicas, directamente aplicables a la práctica clínica diaria. Como trabajo futuro exploraremos otras combinaciones de técnicas de computación evolutiva con lógica difusa y enfoques basados en redes neuronales, utilizando diferentes algoritmos de clustering (por ejemplo, K-means, K-shape, y Redes Neuronales Recurrentes).