Identificador persistente para citar o vincular este elemento:
http://hdl.handle.net/10553/124884
Campo DC | Valor | idioma |
---|---|---|
dc.contributor.advisor | Afonso Suárez, María Dolores | - |
dc.contributor.advisor | Hernández Guedes, Abián | - |
dc.contributor.author | Ortiz Falcón, Kevin | - |
dc.date.accessioned | 2023-09-22T08:37:23Z | - |
dc.date.available | 2023-09-22T08:37:23Z | - |
dc.date.issued | 2023 | en_US |
dc.identifier.other | Gestión académica | - |
dc.identifier.uri | http://hdl.handle.net/10553/124884 | - |
dc.description.abstract | Las redes neuronales artificiales son el modelo computacional más utilizado en el área de inteligencia artificial en la actualidad. Estas redes intentan imitar las redes neuronales biológicas del cerebro humano. En estas redes artificiales existen una serie de configuraciones de parámetros ajustables que permiten controlar el proceso de entrenamiento, estos parámetros se llaman hiperparámetros. Este proyecto consiste en el estudio de la optimización de estos hiperparámetros. Los hiperparámetros que utilizan las redes neurona- les muchas veces tienen valores escogidos de manera aleatoria, o en algunos casos valores seleccionados de acuerdo a experiencias personales del desarrollador. Existen numerosos métodos para optimizar estos hiperparámetros, los criterios de elección entre estos diferentes métodos dependerá bastante de las prestaciones y el tiempo que predisponga el usuario. Por nuestra parte, se plantea que el proceso de optimización se realice mediante optimización Bayesiana, que consiste en crear un modelo probabilístico basado en el teorema de Bayes. Además, para poner a prueba y analizar bien los resultados de nuestra optimización, se entrenan diferentes modelos para solventar problemas de clasificación y de segmentación. Después del proceso de optimización, se realiza una tarea de análisis y comparación de los resultados con los de otros proyectos en los que se ve una mejoría significativa en algunos casos. En conclusión, la tarea de optimización de los hiperparámetros es totalmente necesaria. Incluso cuando el desarrollador no se puede permitir realizarlo por optimización bayesiana se puede decantar por otros métodos tradicionales que aunque sean menos efectivos son más asequibles. | en_US |
dc.description.abstract | Nowadays, neural networks are the most widely used method in state-of-the-art artificial intelligence. These networks aim to imitate the biological neural networks of the human brain. There are a series of adjustable configurations parameters that allow us to control the training process. These parameters are known as hyperparameters. This project focuses on optimizing these hyperparameters. The hyperparameters passed to the neural networks are chosen randomly or based on personal experience in some cases. There are several methods available to obtain the best configurations. The choice of these methods depends on factors such as available time, economic resources and mate- rial requirements. On our side, we propose the Bayesian optimization as the optimization process, which consists of creating a probabilistic model based on Bayes theorem. In addition, we have developed different models and experiments to solve classification and segmentation problems for testing and analyzing the results of our optimization. Significant improvements have been observed in some cases. In conclusion, the task of optimizing the hyperparameters is absolutely necessary, even if the user does not have the time or economic and material requirements to perform it by Bayesian optimization, it can be optimized using others traditional methods which, although less effective, are much faster. | en_US |
dc.language | spa | en_US |
dc.subject | 120317 Informática | en_US |
dc.subject.other | Optimización Bayesiana | en_US |
dc.subject.other | Clasificación | en_US |
dc.subject.other | Segmentación | en_US |
dc.subject.other | Análisis | en_US |
dc.subject.other | Hiperparámetros | en_US |
dc.subject.other | Redes neuronales | en_US |
dc.subject.other | Inteligencia artificial | en_US |
dc.subject.other | Bayesian optimization | en_US |
dc.subject.other | Classification | en_US |
dc.subject.other | Segmentation | en_US |
dc.subject.other | Hyperparameters | en_US |
dc.subject.other | Neuralnetworks | en_US |
dc.subject.other | Artificial intelligence | en_US |
dc.title | Optimización Bayesiana de hiperparámetros | en_US |
dc.type | info:eu-repo/semantics/bachelorThesis | en_US |
dc.type | BachelorThesis | en_US |
dc.contributor.departamento | Departamento de Informática y Sistemas | en_US |
dc.contributor.facultad | Escuela de Ingeniería Informática | en_US |
dc.investigacion | Ingeniería y Arquitectura | en_US |
dc.type2 | Trabajo final de grado | en_US |
dc.utils.revision | Sí | en_US |
dc.identifier.matricula | TFT-67724 | es |
dc.identifier.ulpgc | Sí | en_US |
dc.contributor.buulpgc | BU-INF | en_US |
dc.contributor.titulacion | Grado en Ingeniería Informática | es |
item.fulltext | Con texto completo | - |
item.grantfulltext | open | - |
crisitem.advisor.dept | GIR SIANI: Inteligencia Artificial, Redes Neuronales, Aprendizaje Automático e Ingeniería de Datos | - |
crisitem.advisor.dept | IU Sistemas Inteligentes y Aplicaciones Numéricas | - |
crisitem.advisor.dept | Departamento de Informática y Sistemas | - |
Colección: | Trabajo final de grado |
Visitas
73
actualizado el 12-oct-2024
Descargas
106
actualizado el 12-oct-2024
Google ScholarTM
Verifica
Comparte
Exporta metadatos
Los elementos en ULPGC accedaCRIS están protegidos por derechos de autor con todos los derechos reservados, a menos que se indique lo contrario.