Identificador persistente para citar o vincular este elemento:
http://hdl.handle.net/10553/136583
Título: | Exploring Medical Artificial Intelligence Interpretability through the Lens of Information Theory |
Autores/as: | Hernández Guedes, Abián |
Director/a - Tutor/a: | Marrero Callicó, Gustavo Iván Ruiz Alzola, Juan Bautista |
Clasificación UNESCO: | 3314 Tecnología médica |
Fecha de publicación: | 2025 |
Resumen: | Artificial intelligence, particularly deep learning models, has rapidly advanced recently, demonstrating
exceptional performance in areas such as image processing, natural language understanding, and,
more critically, healthcare. These models hold immense potential in automating tasks traditionally
performed by experts, such as disease diagnosis or medical imaging interpretation. However, despite
their success, a significant barrier to the full integration of deep learning models into critical fields
like medicine is their lack of transparency and interpretability. Often referred to as “black boxes”,
these models make decisions where understanding the processes within the hidden layers is nearly
impossible, raising concerns about their reliability in critical scenarios.
This thesis aims to address the challenge of interpretability in deep learning models, particularly
in medical contexts, by adopting an approach grounded in information theory. This perspective
treats deep learning models as information processors that operate at multiple levels of abstraction,
enabling them to extract useful features from complex, high-dimensional data. Throughout the
dissertation, various deep learning methods are proposed to tackle key challenges in medical data
analysis, including medical screening with limited datasets, feature selection for clinical data, or
anomaly detection in imbalanced clinical data. Furthermore, hyperspectral imaging, an emerging
modality for clinical purposes, has been used in experiments, particularly in the signal decomposition
task known as hyperspectral unmixing. The thesis not only addresses these problems but also focuses
on understanding the underlying mechanisms behind the models’ operations.
The work provides theoretical and experimental insights into how deep learning models balance
data compression and prediction, offering an interpretable framework based on information theory
to gain more in-depth insights into their decision-making processes. The application of information
theory allows for a more general and quantifiable interpretation of deep learning models, making it
possible to evaluate how well these models transmit and process the information required for specific
tasks. By analyzing the models from this abstract perspective, the thesis demonstrates that it is
possible to design more interpretable architectures without compromising their performance.
The results presented in this dissertation demonstrate the potential of deep learning models in
critical applications like healthcare, while also underscoring the importance of interpretability to
ensure their safe and effective use. This work contributes to ongoing efforts to make deep learningbased
artificial intelligence more transparent and reliable in high-impact fields such as medicine. La inteligencia artificial, en particular los modelos basados en redes neuronales, ha avanzado en los últimos años, mostrando un rendimiento excepcional en áreas como el procesamiento de imágenes, la comprensión del lenguaje natural y, de manera especialmente relevante, en ámbitos críticos como la salud. Estos modelos tienen un inmenso potencial para automatizar tareas que tradicionalmente realizaban expertos, como el diagnóstico de enfermedades o la interpretación de imágenes médicas. Sin embargo, a pesar de su éxito, una barrera significativa para la plena integración de los modelos de aprendizaje profundo en campos críticos como la medicina es su falta de transparencia e interpretabilidad. A menudo denominados “cajas negras” o “cajas opacas”, estos modelos toman decisiones cuyo proceso en las capas ocultas es imposible de entender, lo cual genera inquietudes sobre su fiabilidad en escenarios críticos. Esta tesis tiene como objetivo abordar el desafío de la interpretabilidad en modelos de aprendizaje profundo, particularmente en contextos méicos, adoptando un enfoque basado en la teoría de la información. Esta perspectiva trata a los modelos de aprendizaje profundo como procesadores de información que operan en múltiples niveles de abstracción, permitiéndoles extraer características útiles de datos complejos y de alta dimensionalidad. A lo largo de esta tesis, se proponen varios métodos de aprendizaje profundo para enfrentar desafíos clave en el análisis de datos médicos, como la clasificación con conjuntos de datos con muestras limitados, la selección de características en datos clínicos o la detección de anomalías en datos clínicos desbalanceados. Además, se explora el uso de imágenes hiperespectrales, una modalidad emergente en el ámbito clínico, aplicándola especialmente en la descomposición espectral de señales. La tesis no solo aborda estos problemas, sino que también se enfoca en comprender los mecanismos subyacentes en las operaciones de los modelos propuestos. El trabajo proporciona perspectivas teóricas y experimentales sobre cómo los modelos de aprendizaje profundo equilibran la compresión de datos y la predicción, ofreciendo un marco interpretativo basado en la teoría de la información para obtener una comprensión más profunda de sus procesos de toma de decisiones. La aplicación de la teoría de la información permite una interpretación más general y cuantificable de los modelos de aprendizaje profundo, haciendo posible evaluar qué tan bien estos modelos transmiten y procesan la información necesaria para tareas específicas. Al analizar los modelos desde esta perspectiva abstracta, la tesis demuestra que es posible diseñar arquitecturas más interpretables sin comprometer su rendimiento. Los resultados presentados en esta tesis demuestran el potencial de los modelos de aprendizaje profundo en aplicaciones críticas como la salud, al tiempo que subrayan la importancia de la interpretabilidad para garantizar su uso seguro y efectivo. Este trabajo contribuye a los esfuerzos en curso por hacer que la inteligencia artificial basada en redes neuronales sea más ‘transparente’ y confiable en campos de alto impacto como la medicina. |
Descripción: | Programa de Doctorado en Tecnologías de Telecomunicación e Ingeniería Computacional por la Universidad de Las Palmas de Gran Canaria |
URI: | http://hdl.handle.net/10553/136583 |
Colección: | Tesis doctoral |
Los elementos en ULPGC accedaCRIS están protegidos por derechos de autor con todos los derechos reservados, a menos que se indique lo contrario.