Identificador persistente para citar o vincular este elemento:
http://hdl.handle.net/10553/76839
Campo DC | Valor | idioma |
---|---|---|
dc.contributor.advisor | Hernández Acosta, Luis Miguel | es |
dc.contributor.author | Tovar Rodríguez, Juan Carlos | es |
dc.date.accessioned | 2020-12-18T14:28:11Z | - |
dc.date.available | 2020-12-18T14:28:11Z | - |
dc.date.issued | 2020 | - |
dc.identifier.uri | http://hdl.handle.net/10553/76839 | - |
dc.description.abstract | Podemos observar un gran incremento año tras año, durante la última década, del despliegue de aplicaciones de Machine Learning y Deep Learning. Destacando la complejidad que genera normalmente, se hace visible la necesidad de crear un despliegue que sea sencillo, seguro y eficiente. Utilizaremos tecnologías ya existentes como son Docker y Kubernetes, y estudiaremos las ventajas que proporciona su uso conjunto para el despliegue de aplicaciones de TensorFlow. TensorFlow es una librería de código abierto para el cálculo numérico y el aprendizaje automático a gran escala. Agrupa una gran cantidad de modelos y algoritmos de Machine Learning y Deep Learning, este último también conocido como redes neuronales. En este proyecto crearemos una metodología, empezando desde cero, que permita aplicar los conocimientos necesarios para el despliegue de modelos de redes neuronales a través de Docker y Kubernetes. La finalidad del proyecto es facilitar el despliegue de este tipo de aplicaciones, teniendo en cuenta que ahora podremos desplegarlas de forma más sencilla y segura. Evitaremos depender de la plataforma en la que se despliega, y podremos portarla cómodamente sin la necesidad de volver a la configuración. Haremos uso de dos aplicaciones de TensorFlow para poner a prueba la eficiencia de este tipo de despliegues, deducir cuáles serían los pasos que seguir hasta completar el despliegue, y realizar una comparativa de los resultados obtenidos al desplegar las aplicaciones usando Docker y Kubernetes frente a un despliegue típico cuando empleas TensorFlow únicamente. Obtendremos, a parte de las características positivas descritas anteriormente: una distribución eficiente del flujo de datos a través del balanceo de carga y tolerancia a fallos. Mejorando la distribución del conjunto de datos que procesan las redes neuronales conseguimos evitar fallos si alguno de los nodos o pods deja de funcionar correctamente, ofreciéndonos redundancia a nivel de aplicación; y conseguiremos una mejora de los tiempos de ejecución. | en_US |
dc.language | spa | en_US |
dc.subject | 3325 Tecnología de las telecomunicaciones | en_US |
dc.subject.other | Machine Learning | es |
dc.subject.other | Deep Learning | es |
dc.subject.other | Kubernetes | es |
dc.subject.other | Docker | es |
dc.subject.other | Tensorflow | es |
dc.title | Metodología para despliegue de aplicaciones de machine learning y deep learning mediante contenedores dinámicos usando docker y kubernetes | es |
dc.type | info:eu-repo/semantics/bachelorThesis | en_US |
dc.type | BachelorThesis | en_US |
dc.contributor.departamento | Departamento de Ingeniería Telemática | es |
dc.contributor.facultad | Escuela de Ingeniería de Telecomunicación y Electrónica | en_US |
dc.investigacion | Ingeniería y Arquitectura | en_US |
dc.type2 | Trabajo final de grado | en_US |
dc.identifier.matricula | TFT-58841 | es |
dc.identifier.ulpgc | Sí | en_US |
dc.contributor.buulpgc | BU-TEL | es |
dc.contributor.titulacion | Alumnos de intercambio | es |
item.grantfulltext | restricted | - |
item.fulltext | Con texto completo | - |
crisitem.advisor.dept | GIR IUMA: Sistemas de Información y Comunicaciones | - |
crisitem.advisor.dept | IU de Microelectrónica Aplicada | - |
crisitem.advisor.dept | Departamento de Ingeniería Telemática | - |
Colección: | Trabajo final de grado Restringido ULPGC |
Visitas
638
actualizado el 07-dic-2024
Descargas
151
actualizado el 07-dic-2024
Google ScholarTM
Verifica
Comparte
Exporta metadatos
Los elementos en ULPGC accedaCRIS están protegidos por derechos de autor con todos los derechos reservados, a menos que se indique lo contrario.