Technical Report
Solución del problema XOR mediante memorias asociativas
Autor
... [et al.]
Yáñez Márquez, Cornelio
Institución
Resumen
El problema XOR surgió a la palestra de la investigación en el área de redes neuronales en las postrimerías de la década de los sesenta del siglo XX. Una década antes de ello, en 1957, basado en las ideas de McCulloch-Pitts sobre las neuronas artificiales y de Hebb respecto del concepto de aprendizaje, Frank Rosenblatt creó y presentó la primera máquina de aprendizaje automático, el perceptron, hecho que generó grandes expectativas a nivel mundial. Sin embargo, el perceptron tenía su talón de Aquiles: sólo era capaz de aprender clases linealmente separables; esta restricción sirvió de base conceptual y fáctica para que, en 1969, Minsky y Papert evidenciaran formalmente las limitaciones del producto estrella de Rosenblatt en el famoso libro Perceptrons. Como consecuencia, el campo de las redes neuronales entró en una oscura etapa, de la que se recuperó hasta la popularización de backpropagation, algoritmo que se legitimó al vencer el primer reto: resolver exitosamente el problema XOR, el cual no es linealmente separable. En este informe técnico se presenta, por primera vez, el comportamiento de los modelos de memorias asociativas más importantes, al intentar resolver el, ya famoso, problema XOR. Se presentan los algoritmos y se reportan los resultados experimentales correspondientes