Please use this identifier to cite or link to this item: http://hdl.handle.net/10553/124884
Title: Optimización Bayesiana de hiperparámetros
Authors: Ortiz Falcón, Kevin
Director: Afonso Suárez, María Dolores 
Hernández Guedes, Abián 
UNESCO Clasification: 120317 Informática
Keywords: Optimización Bayesiana
Clasificación
Segmentación
Análisis
Hiperparámetros, et al
Issue Date: 2023
Abstract: Las redes neuronales artificiales son el modelo computacional más utilizado en el área de inteligencia artificial en la actualidad. Estas redes intentan imitar las redes neuronales biológicas del cerebro humano. En estas redes artificiales existen una serie de configuraciones de parámetros ajustables que permiten controlar el proceso de entrenamiento, estos parámetros se llaman hiperparámetros. Este proyecto consiste en el estudio de la optimización de estos hiperparámetros. Los hiperparámetros que utilizan las redes neurona- les muchas veces tienen valores escogidos de manera aleatoria, o en algunos casos valores seleccionados de acuerdo a experiencias personales del desarrollador. Existen numerosos métodos para optimizar estos hiperparámetros, los criterios de elección entre estos diferentes métodos dependerá bastante de las prestaciones y el tiempo que predisponga el usuario. Por nuestra parte, se plantea que el proceso de optimización se realice mediante optimización Bayesiana, que consiste en crear un modelo probabilístico basado en el teorema de Bayes. Además, para poner a prueba y analizar bien los resultados de nuestra optimización, se entrenan diferentes modelos para solventar problemas de clasificación y de segmentación. Después del proceso de optimización, se realiza una tarea de análisis y comparación de los resultados con los de otros proyectos en los que se ve una mejoría significativa en algunos casos. En conclusión, la tarea de optimización de los hiperparámetros es totalmente necesaria. Incluso cuando el desarrollador no se puede permitir realizarlo por optimización bayesiana se puede decantar por otros métodos tradicionales que aunque sean menos efectivos son más asequibles.
Nowadays, neural networks are the most widely used method in state-of-the-art artificial intelligence. These networks aim to imitate the biological neural networks of the human brain. There are a series of adjustable configurations parameters that allow us to control the training process. These parameters are known as hyperparameters. This project focuses on optimizing these hyperparameters. The hyperparameters passed to the neural networks are chosen randomly or based on personal experience in some cases. There are several methods available to obtain the best configurations. The choice of these methods depends on factors such as available time, economic resources and mate- rial requirements. On our side, we propose the Bayesian optimization as the optimization process, which consists of creating a probabilistic model based on Bayes theorem. In addition, we have developed different models and experiments to solve classification and segmentation problems for testing and analyzing the results of our optimization. Significant improvements have been observed in some cases. In conclusion, the task of optimizing the hyperparameters is absolutely necessary, even if the user does not have the time or economic and material requirements to perform it by Bayesian optimization, it can be optimized using others traditional methods which, although less effective, are much faster.
Department: Departamento de Informática y Sistemas
Faculty: Escuela de Ingeniería Informática
Degree: Grado en Ingeniería Informática
URI: http://hdl.handle.net/10553/124884
Appears in Collections:Trabajo final de grado
Adobe PDF (6,17 MB)

En el caso de que no encuentre el documento puede ser debido a que el centro o las/os autoras/es no autorizan su publicación. Si tiene verdadero interés en el contenido del mismo, puede dirigirse al director/a o directores/as del trabajo cuyos datos encontrará más arriba.

Show full item record

Page view(s)

30
checked on May 23, 2024

Download(s)

14
checked on May 23, 2024

Google ScholarTM

Check


Share



Export metadata



Items in accedaCRIS are protected by copyright, with all rights reserved, unless otherwise indicated.