Identificador persistente para citar o vincular este elemento: http://hdl.handle.net/10553/23943
Campo DC Valoridioma
dc.contributor.advisorGuerra Artal, Cayetano-
dc.contributor.authorJiménez Perera, Gabriel-
dc.contributor.otherEscuela de Ingeniería Informáticaen_US
dc.date.accessioned2017-10-14T02:34:52Z-
dc.date.accessioned2018-06-05T09:29:48Z-
dc.date.available2017-10-14T02:34:52Z-
dc.date.available2018-06-05T09:29:48Z-
dc.date.issued2017en_US
dc.identifier.urihttp://hdl.handle.net/10553/23943-
dc.description.abstractEl procesamiento del lenguaje natural ha sido tradicionalmente una tarea compleja y poco trivial en el diseño de algoritmos. Gracias a la inteligencia artificial, se han logrado grandes progresos en este entorno y número de modelos que hacen frente a estos problemas normalmente poco tratables ha ido incrementando. Este proyecto propone experimentar y comparar tres modelos de redes neuronales artificiales que han tenido bastante éxito en el procesamiento del lenguaje natural: LSTM (Long Short-Term Memory), MemN2N (modelo propuesto por Facebook) y DNC (modelo propuesto por Google). Para esta tarea, estos modelos optimizados han sido adaptados a un ámbito concreto, con el objetivo de comparar los resultados de cada uno.en_US
dc.description.abstractNatural language processing has traditionally been a complex, hardly-trivial task in algorithm design. Thanks to artificial intelligence, great progress has been made in this environment and the number of models that face these usually hardly treatable problems has increasingly grown.This project proposes experimenting and comparing three artificial neural network models that have had quite accomplishment in natural language processing: LSTM (Long Short-Term Memory), MemN2N (model proposed by Facebook) and DNC (model proposed by Google). For this task, these optimized models have been adapted to a concrete scope, with the objective of comparing the results of each.en_US
dc.formatapplication/pdfes
dc.languagespaen_US
dc.rightsby-nc-ndes
dc.subject120317 Informáticaen_US
dc.subject.otherProcesamientoen_US
dc.subject.otherLenguaje naturalen_US
dc.subject.otherDNCen_US
dc.subject.otherMemN2Nen_US
dc.subject.otherLSTMen_US
dc.subject.otherMemoriaen_US
dc.subject.otherNeuronalen_US
dc.titleExperimentación y comparativa de diferentes modelos de redes neuronales artificiales para el procesamiento del lenguaje naturalen_US
dc.typeinfo:eu-repo/semantics/bachelorThesisen_US
dc.typeBachelorThesisen_US
dc.compliance.driver1es
dc.contributor.departamentoDepartamento de Informática y Sistemasen_US
dc.contributor.facultadEscuela de Ingeniería Informáticaen_US
dc.identifier.absysnet738886es
dc.investigacionIngeniería y Arquitecturaen_US
dc.rights.accessrightsinfo:eu-repo/semantics/openAccesses
dc.type2Trabajo final de gradoen_US
dc.utils.revisionen_US
dc.identifier.matriculaTFT-43167es
dc.identifier.ulpgcen_US
dc.contributor.buulpgcBU-INFen_US
dc.contributor.titulacionGrado en Ingeniería Informáticaes
item.grantfulltextopen-
item.fulltextCon texto completo-
crisitem.advisor.deptGIR SIANI: Inteligencia Artificial, Redes Neuronales, Aprendizaje Automático e Ingeniería de Datos-
crisitem.advisor.deptIU Sistemas Inteligentes y Aplicaciones Numéricas-
crisitem.advisor.deptDepartamento de Informática y Sistemas-
Colección:Trabajo final de grado
miniatura
Memoria
Adobe PDF (2,81 MB)
Vista resumida

Visitas

187
actualizado el 04-nov-2023

Descargas

334
actualizado el 04-nov-2023

Google ScholarTM

Verifica


Comparte



Exporta metadatos



Los elementos en ULPGC accedaCRIS están protegidos por derechos de autor con todos los derechos reservados, a menos que se indique lo contrario.