Please use this identifier to cite or link to this item: http://hdl.handle.net/10553/23943
DC FieldValueLanguage
dc.contributor.advisorGuerra Artal, Cayetano-
dc.contributor.authorJiménez Perera, Gabriel-
dc.contributor.otherEscuela de Ingeniería Informáticaen_US
dc.date.accessioned2017-10-14T02:34:52Z-
dc.date.accessioned2018-06-05T09:29:48Z-
dc.date.available2017-10-14T02:34:52Z-
dc.date.available2018-06-05T09:29:48Z-
dc.date.issued2017en_US
dc.identifier.urihttp://hdl.handle.net/10553/23943-
dc.description.abstractEl procesamiento del lenguaje natural ha sido tradicionalmente una tarea compleja y poco trivial en el diseño de algoritmos. Gracias a la inteligencia artificial, se han logrado grandes progresos en este entorno y número de modelos que hacen frente a estos problemas normalmente poco tratables ha ido incrementando. Este proyecto propone experimentar y comparar tres modelos de redes neuronales artificiales que han tenido bastante éxito en el procesamiento del lenguaje natural: LSTM (Long Short-Term Memory), MemN2N (modelo propuesto por Facebook) y DNC (modelo propuesto por Google). Para esta tarea, estos modelos optimizados han sido adaptados a un ámbito concreto, con el objetivo de comparar los resultados de cada uno.en_US
dc.description.abstractNatural language processing has traditionally been a complex, hardly-trivial task in algorithm design. Thanks to artificial intelligence, great progress has been made in this environment and the number of models that face these usually hardly treatable problems has increasingly grown.This project proposes experimenting and comparing three artificial neural network models that have had quite accomplishment in natural language processing: LSTM (Long Short-Term Memory), MemN2N (model proposed by Facebook) and DNC (model proposed by Google). For this task, these optimized models have been adapted to a concrete scope, with the objective of comparing the results of each.en_US
dc.formatapplication/pdfes
dc.languagespaen_US
dc.rightsby-nc-ndes
dc.subject120317 Informáticaen_US
dc.subject.otherProcesamientoen_US
dc.subject.otherLenguaje naturalen_US
dc.subject.otherDNCen_US
dc.subject.otherMemN2Nen_US
dc.subject.otherLSTMen_US
dc.subject.otherMemoriaen_US
dc.subject.otherNeuronalen_US
dc.titleExperimentación y comparativa de diferentes modelos de redes neuronales artificiales para el procesamiento del lenguaje naturalen_US
dc.typeinfo:eu-repo/semantics/bachelorThesisen_US
dc.typeBachelorThesisen_US
dc.compliance.driver1es
dc.contributor.departamentoDepartamento de Informática y Sistemasen_US
dc.contributor.facultadEscuela de Ingeniería Informáticaen_US
dc.identifier.absysnet738886es
dc.investigacionIngeniería y Arquitecturaen_US
dc.rights.accessrightsinfo:eu-repo/semantics/openAccesses
dc.type2Trabajo final de gradoen_US
dc.utils.revisionen_US
dc.identifier.matriculaTFT-43167es
dc.identifier.ulpgcen_US
dc.contributor.buulpgcBU-INFen_US
dc.contributor.titulacionGrado en Ingeniería Informáticaes
item.grantfulltextopen-
item.fulltextCon texto completo-
crisitem.advisor.deptGIR SIANI: Inteligencia Artificial, Redes Neuronales, Aprendizaje Automático e Ingeniería de Datos-
crisitem.advisor.deptIU Sistemas Inteligentes y Aplicaciones Numéricas-
crisitem.advisor.deptDepartamento de Informática y Sistemas-
Appears in Collections:Trabajo final de grado
Thumbnail
Memoria
Adobe PDF (2,81 MB)
Show simple item record

Page view(s)

222
checked on Jun 22, 2024

Download(s)

420
checked on Jun 22, 2024

Google ScholarTM

Check


Share



Export metadata



Items in accedaCRIS are protected by copyright, with all rights reserved, unless otherwise indicated.