Please use this identifier to cite or link to this item: http://hdl.handle.net/10553/124884
DC FieldValueLanguage
dc.contributor.advisorAfonso Suárez, María Dolores-
dc.contributor.advisorHernández Guedes, Abián-
dc.contributor.authorOrtiz Falcón, Kevin-
dc.date.accessioned2023-09-22T08:37:23Z-
dc.date.available2023-09-22T08:37:23Z-
dc.date.issued2023en_US
dc.identifier.otherGestión académica-
dc.identifier.urihttp://hdl.handle.net/10553/124884-
dc.description.abstractLas redes neuronales artificiales son el modelo computacional más utilizado en el área de inteligencia artificial en la actualidad. Estas redes intentan imitar las redes neuronales biológicas del cerebro humano. En estas redes artificiales existen una serie de configuraciones de parámetros ajustables que permiten controlar el proceso de entrenamiento, estos parámetros se llaman hiperparámetros. Este proyecto consiste en el estudio de la optimización de estos hiperparámetros. Los hiperparámetros que utilizan las redes neurona- les muchas veces tienen valores escogidos de manera aleatoria, o en algunos casos valores seleccionados de acuerdo a experiencias personales del desarrollador. Existen numerosos métodos para optimizar estos hiperparámetros, los criterios de elección entre estos diferentes métodos dependerá bastante de las prestaciones y el tiempo que predisponga el usuario. Por nuestra parte, se plantea que el proceso de optimización se realice mediante optimización Bayesiana, que consiste en crear un modelo probabilístico basado en el teorema de Bayes. Además, para poner a prueba y analizar bien los resultados de nuestra optimización, se entrenan diferentes modelos para solventar problemas de clasificación y de segmentación. Después del proceso de optimización, se realiza una tarea de análisis y comparación de los resultados con los de otros proyectos en los que se ve una mejoría significativa en algunos casos. En conclusión, la tarea de optimización de los hiperparámetros es totalmente necesaria. Incluso cuando el desarrollador no se puede permitir realizarlo por optimización bayesiana se puede decantar por otros métodos tradicionales que aunque sean menos efectivos son más asequibles.en_US
dc.description.abstractNowadays, neural networks are the most widely used method in state-of-the-art artificial intelligence. These networks aim to imitate the biological neural networks of the human brain. There are a series of adjustable configurations parameters that allow us to control the training process. These parameters are known as hyperparameters. This project focuses on optimizing these hyperparameters. The hyperparameters passed to the neural networks are chosen randomly or based on personal experience in some cases. There are several methods available to obtain the best configurations. The choice of these methods depends on factors such as available time, economic resources and mate- rial requirements. On our side, we propose the Bayesian optimization as the optimization process, which consists of creating a probabilistic model based on Bayes theorem. In addition, we have developed different models and experiments to solve classification and segmentation problems for testing and analyzing the results of our optimization. Significant improvements have been observed in some cases. In conclusion, the task of optimizing the hyperparameters is absolutely necessary, even if the user does not have the time or economic and material requirements to perform it by Bayesian optimization, it can be optimized using others traditional methods which, although less effective, are much faster.en_US
dc.languagespaen_US
dc.subject120317 Informáticaen_US
dc.subject.otherOptimización Bayesianaen_US
dc.subject.otherClasificaciónen_US
dc.subject.otherSegmentaciónen_US
dc.subject.otherAnálisisen_US
dc.subject.otherHiperparámetrosen_US
dc.subject.otherRedes neuronalesen_US
dc.subject.otherInteligencia artificialen_US
dc.subject.otherBayesian optimizationen_US
dc.subject.otherClassificationen_US
dc.subject.otherSegmentationen_US
dc.subject.otherHyperparametersen_US
dc.subject.otherNeuralnetworksen_US
dc.subject.otherArtificial intelligenceen_US
dc.titleOptimización Bayesiana de hiperparámetrosen_US
dc.typeinfo:eu-repo/semantics/bachelorThesisen_US
dc.typeBachelorThesisen_US
dc.contributor.departamentoDepartamento de Informática y Sistemasen_US
dc.contributor.facultadEscuela de Ingeniería Informáticaen_US
dc.investigacionIngeniería y Arquitecturaen_US
dc.type2Trabajo final de gradoen_US
dc.utils.revisionen_US
dc.identifier.matriculaTFT-67724es
dc.identifier.ulpgcen_US
dc.contributor.buulpgcBU-INFen_US
dc.contributor.titulacionGrado en Ingeniería Informáticaes
item.grantfulltextopen-
item.fulltextCon texto completo-
crisitem.advisor.deptGIR SIANI: Inteligencia Artificial, Redes Neuronales, Aprendizaje Automático e Ingeniería de Datos-
crisitem.advisor.deptIU Sistemas Inteligentes y Aplicaciones Numéricas-
crisitem.advisor.deptDepartamento de Informática y Sistemas-
Appears in Collections:Trabajo final de grado
Adobe PDF (6,17 MB)
Show simple item record

Page view(s)

73
checked on Oct 12, 2024

Download(s)

106
checked on Oct 12, 2024

Google ScholarTM

Check


Share



Export metadata



Items in accedaCRIS are protected by copyright, with all rights reserved, unless otherwise indicated.