info:eu-repo/semantics/bachelorThesis
Comparación entre los tipos de entrenamiento Gradiente Descendente Simple y Gradiente Descendente con Momento de una red neuronal multicapa de propagación hacia adelante para resolver la cinemática inversa de un manipulador planar de tres grados de libertad
Fecha
2021-04Autor
Avalos Alvarez, Eduardo Flavio
Institución
Resumen
La presente tesis tuvo el objetivo de comparar el desempeño de dos tipos de
entrenamiento de redes neuronales al solucionar la cinemática inversa de un
manipulador planar de tres grados de libertad. Se desarrolló el modelo de la cinemática
directa del manipulador empleando matrices de transformación homogénea y el método
Denavit-Hartenberg. Este modelo fue usado para la generación de pares variable
articular-variable cartesiana que se aplicaron en el entrenamiento de las redes
neuronales. Dichos datos fueron seleccionados de una sección del espacio de trabajo del
manipulador y pasaron por una etapa de normalización para adecuarse al rango de
trabajo de la función de activación de las redes neuronales.
Las redes neuronales constaron de tres entradas, una capa oculta de un número variable
de neuronas y tres salidas. Las entradas corresponden a las variables cartesianas de
posición y orientación y las salidas a las variables articulares del manipulador. Para los
tipos de entrenamiento de las redes neuronales se consideró variable la tasa de
aprendizaje y un momento de 0.9 para el entrenamiento Gradiente Descendente con
Momento.
Se comparó el desempeño de ambos entrenamientos en base a la raíz del error
cuadrático medio normalizado y al número de iteraciones que le toma a la red ser
entrenada. Dichas comparaciones se hicieron variando el número de neuronas de la capa
oculta y la tasa de aprendizaje de los entrenamientos. Además, se han analizado los
mejores casos para cada tipo de entrenamiento al generar trayectorias de tipo circular y
rectangular con una orientación variable.
Los resultados nos muestran que cada entrenamiento posee ciertas ventajas con respecto
al otro. Ambos responden de forma aceptable tanto a un número bajo de neuronas en la
capa oculta como a una baja tasa de aprendizaje; pero en general, el entrenamiento
Gradiente Descendente con Momento posee mayores ventajas que el entrenamiento
Gradiente Descendente Simple al no divergir con el aumento de la tasa de aprendizaje y
el número de neuronas, y al realizar una mejor generación de trayectorias. This thesis aimed to compare the performance of two types of neural network training
by solving the inverse kinematics of a planar manipulator of three degrees of freedom.
The direct kinematics model of the manipulator was developed using homogeneous
transformation matrices and the Denavit-Hartenberg method. This model was used for
the generation of cartesian variable-joint variable pairs that were applied in the training
of the neural networks. These data were selected from a section of the manipulator's
workspace and went through a normalization process to adapt to the working range of
the activation function of the neural networks.
Neural networks were constructed of three inputs, one hidden layer of a variable number
of neurons and three outputs. The inputs related to the cartesian variables of position
and orientation and the outputs to the joint variables of the manipulator. For the types of
training of the neural networks, the learning rate was taken variable and a momentum of
0.9 for the Gradient Descent with Momentum training.
The performance of both trainings was compared based on the root of the normalized
mean square error and the number of epochs that takes for the network to be trained.
These comparisons were made by modifying the number of neurons in the hidden layer
and the learning rate of training. Also, the best cases for each type of training have been
analyzed by generating circular and rectangular trajectories with a variable orientation.
The results exhibit to us each training has some advantages over the other. They
respond acceptably to both a low number of neurons in the hidden layer and a low
learning rate; but in general, the Gradient Descent with Momentum training is more
advantageous than Simple Gradient Descent by not diverging with the increase in the
learning rate and the number of neurons, and by making a better generation of
trajectories.