Identificador persistente para citar o vincular este elemento: https://accedacris.ulpgc.es/jspui/handle/10553/143107
Campo DC Valoridioma
dc.contributor.advisorLorenzo Navarro, José Javier-
dc.contributor.advisorSalas Cáceres, José Ignacio-
dc.contributor.authorLeón Quintana, Gerardo-
dc.date.accessioned2025-07-20T20:01:30Z-
dc.date.available2025-07-20T20:01:30Z-
dc.date.issued2025en_US
dc.identifier.otherGestión académica
dc.identifier.urihttps://accedacris.ulpgc.es/handle/10553/143107-
dc.description.abstractEste trabajo de fin de grado propone nuevos métodos para la interpretación automática de la Lengua de Signos Española, con el objetivo de fomentar la inclusión social de las personas sordas mediante el desarrollo de tecnologías accesibles. Para ello, se emplean técnicas de visión por computador y aprendizaje profundo. A partir del conjunto de datos LSE-Health- UVigo, se han procesado vídeos de intérpretes mediante herramientas como MediaPipe y OpenCV, extrayendo coordenadas articulares del cuerpo, rostro y manos. Sobre estos datos, se entrenaron modelos basados en redes neuronales recurrentes, como LSTM y GRU, orientados a tareas de clasificación de gestos aislados, reconocimiento de gestos continuos y detección de novedades. Además, se exploraron técnicas de aprendizaje métrico como Triplet Loss para construir espacios de características más discriminativos, y se implementaron arquitecturas basadas en Temporal Convolutional Networks para realizar segmentación automática de gestos dentro de secuencias no segmentadas. Los resultados experimentales demuestran la viabilidad de combinar diferentes enfoques del aprendizaje profundo para mejorar el reconocimiento automático de gestos en lengua de signos, incluso en escenarios abiertos y no controlados. Este trabajo supone una contribución tanto técnica como social, proponiendo un sistema que puede facilitar la comunicación entre personas sordas y oyentes en entornos educativos, laborales y sanitarios.en_US
dc.description.abstractThis bachelor’s thesis proposes novel methods for the automatic interpretation of Spanish Sign Language, aiming to promote the social inclusion of deaf individuals through the development of accessible technologies. To achieve this, the project applies computer vision and deep learning techniques. Using the LSE-Health-UVigo dataset, videos of sign language interpreters were processed with tools such as MediaPipe and OpenCV to extract joint coordinates from the body, face, and hands. Based on these features, recurrent neural network models, including LSTM and GRU, were trained to perform tasks such as isolated gesture classification, continuous gesture recognition, and novelty detection. Additionally, metric learning techniques such as Triplet Loss were explored to build more discriminative feature spaces, and architectures based on Temporal Convolutional Networks were implemented to enable automatic segmentation of gestures within unsegmented video sequences. Experimental results demonstrate the feasibility of combining various deep learning approaches to improve automatic sign language gesture recognition, even under open and uncontrolled conditions. This work contributes both technically and socially by proposing a system that can facilitate communication between deaf and hearing individuals in educational, workplace, and healthcare settingsen_US
dc.languagespaen_US
dc.subject120317 Informáticaen_US
dc.titleInterpretación del lenguaje de signos español basada en visión por computador y aprendizaje profundo.en_US
dc.typeinfo:eu-repo/semantics/bachelorThesisen_US
dc.typeBachelorThesisen_US
dc.contributor.departamentoDepartamento de Informática y Sistemasen_US
dc.contributor.facultadEscuela de Ingeniería Informáticaen_US
dc.investigacionIngeniería y Arquitecturaen_US
dc.type2Trabajo final de gradoen_US
dc.utils.revisionen_US
dc.identifier.matriculaTFT-36458
dc.identifier.ulpgcen_US
dc.contributor.buulpgcBU-INFen_US
dc.contributor.titulacionGrado en Ciencia e Ingeniería de Datos
item.grantfulltextopen-
item.fulltextCon texto completo-
crisitem.advisor.deptGIR SIANI: Inteligencia Artificial, Robótica y Oceanografía Computacional-
crisitem.advisor.deptIU de Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería-
crisitem.advisor.deptDepartamento de Informática y Sistemas-
crisitem.advisor.deptGIR SIANI: Inteligencia Artificial, Robótica y Oceanografía Computacional-
crisitem.advisor.deptIU de Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería-
Colección:Trabajo final de grado
Adobe PDF (4,52 MB)
Vista resumida

Visitas

11
actualizado el 11-ene-2026

Google ScholarTM

Verifica


Comparte



Exporta metadatos



Los elementos en ULPGC accedaCRIS están protegidos por derechos de autor con todos los derechos reservados, a menos que se indique lo contrario.