Identificador persistente para citar o vincular este elemento: http://hdl.handle.net/10553/76839
Campo DC Valoridioma
dc.contributor.advisorHernández Acosta, Luis Migueles
dc.contributor.authorTovar Rodríguez, Juan Carloses
dc.date.accessioned2020-12-18T14:28:11Z-
dc.date.available2020-12-18T14:28:11Z-
dc.date.issued2020-
dc.identifier.urihttp://hdl.handle.net/10553/76839-
dc.description.abstractPodemos observar un gran incremento año tras año, durante la última década, del despliegue de aplicaciones de Machine Learning y Deep Learning. Destacando la complejidad que genera normalmente, se hace visible la necesidad de crear un despliegue que sea sencillo, seguro y eficiente. Utilizaremos tecnologías ya existentes como son Docker y Kubernetes, y estudiaremos las ventajas que proporciona su uso conjunto para el despliegue de aplicaciones de TensorFlow. TensorFlow es una librería de código abierto para el cálculo numérico y el aprendizaje automático a gran escala. Agrupa una gran cantidad de modelos y algoritmos de Machine Learning y Deep Learning, este último también conocido como redes neuronales. En este proyecto crearemos una metodología, empezando desde cero, que permita aplicar los conocimientos necesarios para el despliegue de modelos de redes neuronales a través de Docker y Kubernetes. La finalidad del proyecto es facilitar el despliegue de este tipo de aplicaciones, teniendo en cuenta que ahora podremos desplegarlas de forma más sencilla y segura. Evitaremos depender de la plataforma en la que se despliega, y podremos portarla cómodamente sin la necesidad de volver a la configuración. Haremos uso de dos aplicaciones de TensorFlow para poner a prueba la eficiencia de este tipo de despliegues, deducir cuáles serían los pasos que seguir hasta completar el despliegue, y realizar una comparativa de los resultados obtenidos al desplegar las aplicaciones usando Docker y Kubernetes frente a un despliegue típico cuando empleas TensorFlow únicamente. Obtendremos, a parte de las características positivas descritas anteriormente: una distribución eficiente del flujo de datos a través del balanceo de carga y tolerancia a fallos. Mejorando la distribución del conjunto de datos que procesan las redes neuronales conseguimos evitar fallos si alguno de los nodos o pods deja de funcionar correctamente, ofreciéndonos redundancia a nivel de aplicación; y conseguiremos una mejora de los tiempos de ejecución.en_US
dc.languagespaen_US
dc.subject3325 Tecnología de las telecomunicacionesen_US
dc.subject.otherMachine Learninges
dc.subject.otherDeep Learninges
dc.subject.otherKuberneteses
dc.subject.otherDockeres
dc.subject.otherTensorflowes
dc.titleMetodología para despliegue de aplicaciones de machine learning y deep learning mediante contenedores dinámicos usando docker y kuberneteses
dc.typeinfo:eu-repo/semantics/bachelorThesisen_US
dc.typeBachelorThesisen_US
dc.contributor.departamentoDepartamento de Ingeniería Telemáticaes
dc.contributor.facultadEscuela de Ingeniería de Telecomunicación y Electrónicaen_US
dc.investigacionIngeniería y Arquitecturaen_US
dc.type2Trabajo final de gradoen_US
dc.identifier.matriculaTFT-58841es
dc.identifier.ulpgcen_US
dc.contributor.buulpgcBU-TELes
dc.contributor.titulacionAlumnos de intercambioes
item.grantfulltextrestricted-
item.fulltextCon texto completo-
crisitem.advisor.deptGIR IUMA: Sistemas de Información y Comunicaciones-
crisitem.advisor.deptIU de Microelectrónica Aplicada-
crisitem.advisor.deptDepartamento de Ingeniería Telemática-
Colección:Trabajo final de grado
Restringido ULPGC
miniatura
Adobe PDF (3,03 MB)
Inicia sesión para acceder
Vista resumida

Visitas

638
actualizado el 07-dic-2024

Descargas

151
actualizado el 07-dic-2024

Google ScholarTM

Verifica


Comparte



Exporta metadatos



Los elementos en ULPGC accedaCRIS están protegidos por derechos de autor con todos los derechos reservados, a menos que se indique lo contrario.