dc.contributorMIGUEL OCTAVIO ARIAS ESTRADA
dc.contributorCESAR TORRES HUITZIL
dc.creatorMARCO AURELIO NUÑO MAGANDA
dc.date2009-10
dc.date.accessioned2023-07-25T16:21:32Z
dc.date.available2023-07-25T16:21:32Z
dc.identifierhttp://inaoe.repositorioinstitucional.mx/jspui/handle/1009/423
dc.identifier.urihttps://repositorioslatinoamericanos.uchile.cl/handle/2250/7805641
dc.descriptionIn this work, a hardware architecture for Multilayer Spiking Neural Networks (SNNs) has been developed. Several attempts for implementing Multilayer SNNs have been done, but none of them have explored a hardware implementation and tradeoffs in detail. Spiking Neuron Models (SNMs) have obtained the interest of the computer science researchers due to their potential use as a more biological plausible processing model, which have been tested and successfully applied in several computational tasks, like speech processing, computer vision and robot navigation, with less hardware resources and iterations compared with classical models. In this research the hardware plausibility of SNNs has been demonstrated through the design of a dedicated hardware architecture for emulating a large number of spiking neurons. Dedicated modules have been developed for coding, recall and learning, being the main difference and contribution of this work compared to previously reported works the coding and the learning that has been carried out on a single chip. This implementation scheme reduces the bandwidth required for processing several stages in different hardware processors, and allows the hardware reusing of processing elements. In classical neural networks, a set of input patterns is passed as input to the network, and the network performs the learning by adjusting the weights for adapting the actual network output to the target or desired network output. In multilayer SNNs, three processing stages can be identied. In the rst processing phase, the data coding process is performed. The implemented coding scheme required for multilayer SNNs is the Gaussian Receptive Fields, which maps an input value into a set of ring times. The input ring times obtained by the GRFs are used for feeding the SNN. The main advantage of the GRFs is that they generate a sparse coding for the input values, solving several problems of scale adjusting of other coding schemes. In the second phase, the network output is computed, by evaluating the input ring times using the activation function. Each neuron connection have a set of synaptic terminals. The number of synaptic terminal is xed in compilation time, but the architecture can be extended to support different number of terminals. The output ring time of the current neuron depends on the weights and delays associated to each synaptic terminal. When each neuron generates its own ring time, the neuron remains in an inactivity state.
dc.descriptionEn esta tesis, se ha desarrollado una arquitectura hardware para redes neuronales pulsantes (SNNs) multicapa. Existen varios intentos para la implementación de este tipo de redes, pero ninguno de éstos ha profundizado en cuanto a la implementación y los compromisos hardware en detalle. Los modelos neuronales pulsantes (SNMs) han atraido el interés de los investigadores en ciencias computacionales, debido a su uso potencial como un modelo de procesamiento más plausible biológicamente, el cual ha sido utilizado exitosamente en diferentes tareas computacionales, como navegación robótica, visión por computadora y reconocimiento del habla, además los SNMs utilizan una cantidad menor de recursos hardware y requieren de una menor cantidad de iteraciones para el procesamiento en comparación, se ha demostrado la plausibilidad en hardware de las SNNs mediante el diseño de una arquitectura hardware dedicada que permita la emulación de una gran cantidad de neuronas pulsantes. Se han implementado módulos dedicados para las fases de codificación, recall y de aprendizaje (learning), siendo la principal diferencia y contribución de este trabajo que la codificación y el aprendizaje son llevados a cabo dentro del chip (on-chip). Este esquema de implementación reduce el ancho de banda requerido para las transferencias de datos entre módulos de procesamiento de diferentes plataformas (PC-FPGA) y permite el reuso de elementos procesadores hardware. En redes neuronales clásicas, un conjunto de patrones son pasados como entrada a una determinada red y la red debe efectuar el aprendizaje mediante el ajuste de los pesos actuales, la salida actual y la salida esperada (o función objetivo). En redes neuronales pulsantes multicapa, se identican tres etapas de procesamiento básico: en la primera etapa, se efectúa la codificación de los datos. El esquema de codificación implementado se denomina campos receptivos gausianos (GRFs), los cuales convierten los datos de entrada (continuos o discretos) en tiempos de disparo de salida. La ventaja de los GRFs consiste en que efectúan una codificación dispersa, la cual evita ciertos problemas de ajuste de escala presentes en otras técnicas de codificación.
dc.formatapplication/pdf
dc.languageeng
dc.publisherInstituto Nacional de Astrofísica, Óptica y Electrónica
dc.relationcitation:Nuño-Maganda M.A.
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rightshttp://creativecommons.org/licenses/by-nc-nd/4.0
dc.subjectinfo:eu-repo/classification/Arquitectura de red neuronal/Neural net architecture
dc.subjectinfo:eu-repo/classification/Arquitectura reconfigurable/Reconfigurable architecture
dc.subjectinfo:eu-repo/classification/Field programmabel gate arrays/Field programmabel gate arrays
dc.subjectinfo:eu-repo/classification/cti/1
dc.subjectinfo:eu-repo/classification/cti/22
dc.subjectinfo:eu-repo/classification/cti/2209
dc.subjectinfo:eu-repo/classification/cti/2209
dc.titleA high performance hardware architecture for multilayer spiking neural networks
dc.typeinfo:eu-repo/semantics/doctoralThesis
dc.typeinfo:eu-repo/semantics/acceptedVersion
dc.audiencestudents
dc.audienceresearchers
dc.audiencegeneralPublic


Este ítem pertenece a la siguiente institución