Please use this identifier to cite or link to this item: http://hdl.handle.net/10553/128425
Title: Regresión en Series Temporales usando Aprendizaje Profundo
Authors: Couros García, Marcos
Director: Quinteiro González, José María 
UNESCO Clasification: 120317 Informática
Issue Date: 2024
Abstract: El objetivo de este trabajo fin de grado (TFG) consiste en evaluar la predicción de series temporales mediante distintas técnicas basadas en aprendizaje profundo o Deep Learning ,y realizar una comparación con modelos clásicos como AR, MA, ARMA, ARIMA o SARIMA y con modelos basados en aprendizaje automático1. Desde que se presentó el anteproyecto de este TFG han irrumpido con fuerza dentro del Aprendizaje Profundo los Modelos Largos de Lenguaje (LLM en inglés) como chatGPT y variantes. Inicialmente no se contemplaba explorar el uso de modelos basados en la generación de lenguaje para la predicción de series temporales, pero dada la actualidad de este tipo de modelos haremos también una exploración inicial para ver el comportamiento de modelos de uso general, estando la creación de modelos específicos de LLM fuera del alcance de este TFG entre otras cosas debido al alto coste computacional que requiere este tipo de modelos. Un uso específico de modelos basados en GPT al sector financiero podemos encontrarlo en empresas como Bloomberg, con BloombergGPT 2.
Faculty: Escuela de Ingeniería Informática
Degree: Grado en Ingeniería Informática
URI: http://hdl.handle.net/10553/128425
Appears in Collections:Trabajo final de grado
Adobe PDF (3,41 MB)

En el caso de que no encuentre el documento puede ser debido a que el centro o las/os autoras/es no autorizan su publicación. Si tiene verdadero interés en el contenido del mismo, puede dirigirse al director/a o directores/as del trabajo cuyos datos encontrará más arriba.

Show full item record

Page view(s)

112
checked on Oct 5, 2024

Google ScholarTM

Check


Share



Export metadata



Items in accedaCRIS are protected by copyright, with all rights reserved, unless otherwise indicated.