Please use this identifier to cite or link to this item: http://hdl.handle.net/10553/64248
DC FieldValueLanguage
dc.contributor.advisorCabrera Gámez, Jorge-
dc.contributor.advisorIsern González, José-
dc.contributor.authorQuevedo Rodríguez, Jesús Sergio-
dc.date.accessioned2020-01-22T15:27:56Z-
dc.date.available2013-01-03T00:00:00Zes
dc.date.available2020-01-22T15:27:56Z-
dc.date.issued2001en_US
dc.identifier.othercontentdm-postulpgces
dc.identifier.urihttp://hdl.handle.net/10553/64248-
dc.description.abstractEn este proyecto se describe un método de localización y navegación para robots móviles mediante balizas artificiales, omnidireccionales e individualmente identificables, utilizando un sistema de visión activa. Se ha desarrollado un algoritmo de localización donde se han introducido ciertas mejoras respecto del algoritmo originalmente propuesto en la bibliografía [6]. Por otro lado, se ha realizado un estudio de robustez del algoritmo y de los factores que pueden afectar la precisión median te simulaciones numéricas. También, se ha diseñado un servidor del sistema de visión el cual hace de interface entre el usuario y los dispositivos, permitiendo así el uso compartido del sistema de visión y liberando a los usuarios de la engorrosa tarea de conocer las características de los dispositivos. El sistema desarrollado es capaz de devolver la pose del robot en dos circunstancias diferentes, tanto cuando se dispone de una estimación de la posición actual del robot como cuando la localización del robot es totalmente desconocida. En el primer caso, el robot emplea el mapa del entorno para planificar los movimientos que debe realizar la cabeza activa para localizar visualmente las balizas que deberían ser visibles desde la posición estimada para el robot. El tiempo empleado es variable en función del número de balizas empleadas en la localización y de la amplitud de los movimientos a realizar por la cabeza activa. Cuando se emplean seis balizas el tiempo invertido en los movimientos de localización está entre 8 y 14 segundos. En el segundo caso - cuando el robot carece de una estimación de su posición - se realiza un barrido visual completo de 360°, empleando aproximadamente unos 40 segundos. En ambos casos, la precisión alcanzada es aproximadamente de cinco centímetros en las coordenadas X e Y, y de medio grado en la orientación.en_US
dc.formatPDFes
dc.format.mimetype300 ppp., TIFF sin compresiónes
dc.format.mimetype8 bits (escala de grises)es
dc.languagespaen_US
dc.rightsAcceso restringido para la comunidad universitaria de la ULPGCes
dc.subject120317 Informáticaen_US
dc.titleSistema de localización visual para robots móvilesen_US
dc.typeinfo:eu-repo/semantics/studentThesisen_US
dc.typeStudentThesisen_US
dc.contributor.departamentoDepartamento de Informática y Sistemasen_US
dc.identifier.absysnet579969es
dc.investigacionIngeniería y Arquitecturaen_US
dc.type2Proyecto fin de carreraen_US
dc.description.observacionesSedicanaen_US
dc.identifier.currens2344es
dc.description.numberofpages120 p.es
dc.utils.revisionen_US
dc.identifier.matriculaTFT-16770es
dc.identifier.ulpgcen_US
dc.contributor.buulpgcBU-INFen_US
dc.contributor.titulacionDiplomado en Informáticaes
item.grantfulltextrestricted-
item.fulltextCon texto completo-
crisitem.advisor.deptGIR SIANI: Inteligencia Artificial, Robótica y Oceanografía Computacional-
crisitem.advisor.deptIU Sistemas Inteligentes y Aplicaciones Numéricas-
crisitem.advisor.deptDepartamento de Informática y Sistemas-
crisitem.advisor.deptGIR SIANI: Inteligencia Artificial, Robótica y Oceanografía Computacional-
crisitem.advisor.deptIU Sistemas Inteligentes y Aplicaciones Numéricas-
crisitem.advisor.deptDepartamento de Filología Moderna, Traducción e Interpretación-
Appears in Collections:Proyecto fin de carrera
Restringido ULPGC
Thumbnail
Adobe PDF (32,73 MB)
This file is reserved to the following groups: autenticados
Show simple item record

Google ScholarTM

Check


Share



Export metadata



Items in accedaCRIS are protected by copyright, with all rights reserved, unless otherwise indicated.