dc.contributorANGELICA MUÑOZ MELENDEZ
dc.contributorEDUARDO FRANCISCO MORALES MANZANARES
dc.creatorANA CRISTINA PALACIOS GARCIA
dc.date2009-11
dc.date.accessioned2023-07-25T16:21:32Z
dc.date.available2023-07-25T16:21:32Z
dc.identifierhttp://inaoe.repositorioinstitucional.mx/jspui/handle/1009/429
dc.identifier.urihttps://repositorioslatinoamericanos.uchile.cl/handle/2250/7805647
dc.descriptionAutonomous learning of objects using visual information is important to robotics as it can be used for local and global localization problems, and for service tasks such as searching for objects in unknown places. In a robot team, the learning process can be distributed among robots to reduce training time and produce more accurate models. This work introduces a new learning framework where individual representations of objects are learned on-line and off-line by a group of robots while traversing an environment without prior knowledge on the number or nature of the objects to learn. Individual concepts are shared among robots to improve their own concepts, combining information from other robots that saw the same object, and to acquire a new representation of an object not seen by the robot. Since the robots do not know in advance how many objects they will encounter, they need to decide whether they are seeing a new object or a known object, i.e., a previously learned object or an object learned by another robot. Objects are characterized by local and global features. Then a Bayesian approach that combines both, global and local features, is applied by robots to recognize objects. We empirically evaluated our approach with a real world robot team with very promising results.
dc.descriptionEl aprendizaje autónomo de objetos usando información visual es importante en robótica ya que puede ser usado en problemas de localización global y local, así como en tareas de servicio como son buscar objetos en ambientes desconocidos, entre otras. En un sistema multi-robot, el proceso de aprendizaje se puede distribuir entre los miembros del sistema para reducir el tiempo de entrenamiento y producir modelos más precisos de los distintos objetos. En el presente documento introducimos un método de aprendizaje en el cual las representaciones individuales de los objetos se aprenden tanto en línea como fuera de línea por un grupo de robots, mientras éstos recorren un ambiente sin tener conocimiento a priori del número o la naturaleza de los objetos a aprender. Los conceptos individuales se comparten entre los robots del sistema para mejorar sus propios conceptos, esto es, combinando la información de otro robot que vió al mismo objeto y adquiriendo nuevas representaciones de objetos no vistos por el robot. Dado que los robots no conocen la cantidad de objetos que pueden encontrarse en el ambiente, ellos necesitan decidir si se encuentran observando a un nuevo objeto o a un objeto conocido, i.e., un objeto previamente aprendido o un objeto aprendido por el otro robot. Los objetos se representan por sus características locales y globales. Posteriormente, un esquema Bayesiano es aplicado por los robots para el reconocimiento de objetos, con el cuál se combinan las características globales con las locales. Nuestro método fue evaluado con un sistema multi-robot real cuyos resultados son prometedores.
dc.formatapplication/pdf
dc.languagespa
dc.publisherInstituto Nacional de Astrofísica, Óptica y Electrónica
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightshttp://creativecommons.org/licenses/by-nc-nd/4.0
dc.subjectinfo:eu-repo/classification/Sistemas Multi-robots/Multi-robot systems
dc.subjectinfo:eu-repo/classification/Sistemas cooperativos/Cooperative systems
dc.subjectinfo:eu-repo/classification/Sistemas de aprendizaje/Learning systems
dc.subjectinfo:eu-repo/classification/cti/1
dc.subjectinfo:eu-repo/classification/cti/12
dc.subjectinfo:eu-repo/classification/cti/1203
dc.subjectinfo:eu-repo/classification/cti/1203
dc.titleAprendizaje cooperativo de conceptos para sistemas Multi-Robot
dc.typeinfo:eu-repo/semantics/masterThesis
dc.typeinfo:eu-repo/semantics/acceptedVersion
dc.audiencestudents
dc.audienceresearchers
dc.audiencegeneralPublic


Este ítem pertenece a la siguiente institución