Please use this identifier to cite or link to this item:
http://hdl.handle.net/10553/124884
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Afonso Suárez, María Dolores | - |
dc.contributor.advisor | Hernández Guedes, Abián | - |
dc.contributor.author | Ortiz Falcón, Kevin | - |
dc.date.accessioned | 2023-09-22T08:37:23Z | - |
dc.date.available | 2023-09-22T08:37:23Z | - |
dc.date.issued | 2023 | en_US |
dc.identifier.other | Gestión académica | - |
dc.identifier.uri | http://hdl.handle.net/10553/124884 | - |
dc.description.abstract | Las redes neuronales artificiales son el modelo computacional más utilizado en el área de inteligencia artificial en la actualidad. Estas redes intentan imitar las redes neuronales biológicas del cerebro humano. En estas redes artificiales existen una serie de configuraciones de parámetros ajustables que permiten controlar el proceso de entrenamiento, estos parámetros se llaman hiperparámetros. Este proyecto consiste en el estudio de la optimización de estos hiperparámetros. Los hiperparámetros que utilizan las redes neurona- les muchas veces tienen valores escogidos de manera aleatoria, o en algunos casos valores seleccionados de acuerdo a experiencias personales del desarrollador. Existen numerosos métodos para optimizar estos hiperparámetros, los criterios de elección entre estos diferentes métodos dependerá bastante de las prestaciones y el tiempo que predisponga el usuario. Por nuestra parte, se plantea que el proceso de optimización se realice mediante optimización Bayesiana, que consiste en crear un modelo probabilístico basado en el teorema de Bayes. Además, para poner a prueba y analizar bien los resultados de nuestra optimización, se entrenan diferentes modelos para solventar problemas de clasificación y de segmentación. Después del proceso de optimización, se realiza una tarea de análisis y comparación de los resultados con los de otros proyectos en los que se ve una mejoría significativa en algunos casos. En conclusión, la tarea de optimización de los hiperparámetros es totalmente necesaria. Incluso cuando el desarrollador no se puede permitir realizarlo por optimización bayesiana se puede decantar por otros métodos tradicionales que aunque sean menos efectivos son más asequibles. | en_US |
dc.description.abstract | Nowadays, neural networks are the most widely used method in state-of-the-art artificial intelligence. These networks aim to imitate the biological neural networks of the human brain. There are a series of adjustable configurations parameters that allow us to control the training process. These parameters are known as hyperparameters. This project focuses on optimizing these hyperparameters. The hyperparameters passed to the neural networks are chosen randomly or based on personal experience in some cases. There are several methods available to obtain the best configurations. The choice of these methods depends on factors such as available time, economic resources and mate- rial requirements. On our side, we propose the Bayesian optimization as the optimization process, which consists of creating a probabilistic model based on Bayes theorem. In addition, we have developed different models and experiments to solve classification and segmentation problems for testing and analyzing the results of our optimization. Significant improvements have been observed in some cases. In conclusion, the task of optimizing the hyperparameters is absolutely necessary, even if the user does not have the time or economic and material requirements to perform it by Bayesian optimization, it can be optimized using others traditional methods which, although less effective, are much faster. | en_US |
dc.language | spa | en_US |
dc.subject | 120317 Informática | en_US |
dc.subject.other | Optimización Bayesiana | en_US |
dc.subject.other | Clasificación | en_US |
dc.subject.other | Segmentación | en_US |
dc.subject.other | Análisis | en_US |
dc.subject.other | Hiperparámetros | en_US |
dc.subject.other | Redes neuronales | en_US |
dc.subject.other | Inteligencia artificial | en_US |
dc.subject.other | Bayesian optimization | en_US |
dc.subject.other | Classification | en_US |
dc.subject.other | Segmentation | en_US |
dc.subject.other | Hyperparameters | en_US |
dc.subject.other | Neuralnetworks | en_US |
dc.subject.other | Artificial intelligence | en_US |
dc.title | Optimización Bayesiana de hiperparámetros | en_US |
dc.type | info:eu-repo/semantics/bachelorThesis | en_US |
dc.type | BachelorThesis | en_US |
dc.contributor.departamento | Departamento de Informática y Sistemas | en_US |
dc.contributor.facultad | Escuela de Ingeniería Informática | en_US |
dc.investigacion | Ingeniería y Arquitectura | en_US |
dc.type2 | Trabajo final de grado | en_US |
dc.utils.revision | Sí | en_US |
dc.identifier.matricula | TFT-67724 | es |
dc.identifier.ulpgc | Sí | en_US |
dc.contributor.buulpgc | BU-INF | en_US |
dc.contributor.titulacion | Grado en Ingeniería Informática | es |
item.grantfulltext | open | - |
item.fulltext | Con texto completo | - |
crisitem.advisor.dept | GIR SIANI: Inteligencia Artificial, Redes Neuronales, Aprendizaje Automático e Ingeniería de Datos | - |
crisitem.advisor.dept | IU Sistemas Inteligentes y Aplicaciones Numéricas | - |
crisitem.advisor.dept | Departamento de Informática y Sistemas | - |
Appears in Collections: | Trabajo final de grado |
Page view(s)
73
checked on Oct 12, 2024
Download(s)
106
checked on Oct 12, 2024
Google ScholarTM
Check
Share
Export metadata
Items in accedaCRIS are protected by copyright, with all rights reserved, unless otherwise indicated.