Identificador persistente para citar o vincular este elemento: http://hdl.handle.net/10553/136583
Título: Exploring Medical Artificial Intelligence Interpretability through the Lens of Information Theory
Autores/as: Hernández Guedes, Abián
Director/a - Tutor/a:Marrero Callicó, Gustavo Iván
Ruiz Alzola, Juan Bautista
Clasificación UNESCO: 3314 Tecnología médica
Fecha de publicación: 2025
Resumen: Artificial intelligence, particularly deep learning models, has rapidly advanced recently, demonstrating exceptional performance in areas such as image processing, natural language understanding, and, more critically, healthcare. These models hold immense potential in automating tasks traditionally performed by experts, such as disease diagnosis or medical imaging interpretation. However, despite their success, a significant barrier to the full integration of deep learning models into critical fields like medicine is their lack of transparency and interpretability. Often referred to as “black boxes”, these models make decisions where understanding the processes within the hidden layers is nearly impossible, raising concerns about their reliability in critical scenarios. This thesis aims to address the challenge of interpretability in deep learning models, particularly in medical contexts, by adopting an approach grounded in information theory. This perspective treats deep learning models as information processors that operate at multiple levels of abstraction, enabling them to extract useful features from complex, high-dimensional data. Throughout the dissertation, various deep learning methods are proposed to tackle key challenges in medical data analysis, including medical screening with limited datasets, feature selection for clinical data, or anomaly detection in imbalanced clinical data. Furthermore, hyperspectral imaging, an emerging modality for clinical purposes, has been used in experiments, particularly in the signal decomposition task known as hyperspectral unmixing. The thesis not only addresses these problems but also focuses on understanding the underlying mechanisms behind the models’ operations. The work provides theoretical and experimental insights into how deep learning models balance data compression and prediction, offering an interpretable framework based on information theory to gain more in-depth insights into their decision-making processes. The application of information theory allows for a more general and quantifiable interpretation of deep learning models, making it possible to evaluate how well these models transmit and process the information required for specific tasks. By analyzing the models from this abstract perspective, the thesis demonstrates that it is possible to design more interpretable architectures without compromising their performance. The results presented in this dissertation demonstrate the potential of deep learning models in critical applications like healthcare, while also underscoring the importance of interpretability to ensure their safe and effective use. This work contributes to ongoing efforts to make deep learningbased artificial intelligence more transparent and reliable in high-impact fields such as medicine.
La inteligencia artificial, en particular los modelos basados en redes neuronales, ha avanzado en los últimos años, mostrando un rendimiento excepcional en áreas como el procesamiento de imágenes, la comprensión del lenguaje natural y, de manera especialmente relevante, en ámbitos críticos como la salud. Estos modelos tienen un inmenso potencial para automatizar tareas que tradicionalmente realizaban expertos, como el diagnóstico de enfermedades o la interpretación de imágenes médicas. Sin embargo, a pesar de su éxito, una barrera significativa para la plena integración de los modelos de aprendizaje profundo en campos críticos como la medicina es su falta de transparencia e interpretabilidad. A menudo denominados “cajas negras” o “cajas opacas”, estos modelos toman decisiones cuyo proceso en las capas ocultas es imposible de entender, lo cual genera inquietudes sobre su fiabilidad en escenarios críticos. Esta tesis tiene como objetivo abordar el desafío de la interpretabilidad en modelos de aprendizaje profundo, particularmente en contextos méicos, adoptando un enfoque basado en la teoría de la información. Esta perspectiva trata a los modelos de aprendizaje profundo como procesadores de información que operan en múltiples niveles de abstracción, permitiéndoles extraer características útiles de datos complejos y de alta dimensionalidad. A lo largo de esta tesis, se proponen varios métodos de aprendizaje profundo para enfrentar desafíos clave en el análisis de datos médicos, como la clasificación con conjuntos de datos con muestras limitados, la selección de características en datos clínicos o la detección de anomalías en datos clínicos desbalanceados. Además, se explora el uso de imágenes hiperespectrales, una modalidad emergente en el ámbito clínico, aplicándola especialmente en la descomposición espectral de señales. La tesis no solo aborda estos problemas, sino que también se enfoca en comprender los mecanismos subyacentes en las operaciones de los modelos propuestos. El trabajo proporciona perspectivas teóricas y experimentales sobre cómo los modelos de aprendizaje profundo equilibran la compresión de datos y la predicción, ofreciendo un marco interpretativo basado en la teoría de la información para obtener una comprensión más profunda de sus procesos de toma de decisiones. La aplicación de la teoría de la información permite una interpretación más general y cuantificable de los modelos de aprendizaje profundo, haciendo posible evaluar qué tan bien estos modelos transmiten y procesan la información necesaria para tareas específicas. Al analizar los modelos desde esta perspectiva abstracta, la tesis demuestra que es posible diseñar arquitecturas más interpretables sin comprometer su rendimiento. Los resultados presentados en esta tesis demuestran el potencial de los modelos de aprendizaje profundo en aplicaciones críticas como la salud, al tiempo que subrayan la importancia de la interpretabilidad para garantizar su uso seguro y efectivo. Este trabajo contribuye a los esfuerzos en curso por hacer que la inteligencia artificial basada en redes neuronales sea más ‘transparente’ y confiable en campos de alto impacto como la medicina.
Descripción: Programa de Doctorado en Tecnologías de Telecomunicación e Ingeniería Computacional por la Universidad de Las Palmas de Gran Canaria
URI: http://hdl.handle.net/10553/136583
Colección:Tesis doctoral
Vista completa
Adobe PDF (35,27 MB)

Google ScholarTM

Verifica


Comparte



Exporta metadatos



Los elementos en ULPGC accedaCRIS están protegidos por derechos de autor con todos los derechos reservados, a menos que se indique lo contrario.