bachelorThesis
Estudio comparativo sobre la generación de texto dentro del PLN usando redes neuronales recurrentes y transformers para la creación de informes relacionados con afecciones virales respiratorias asociadas con el Covid 19.
Fecha
2023-03Autor
Suárez Mora, Karen Elizabeth
Yivicura Olivo, Emilia Gabriela
Institución
Resumen
El Procesamiento del Lenguaje Natural (PLN) es una rama de la inteligencia artificial que se encarga del procesamiento y análisis de datos en formato de lenguaje natural, como el habla o la escritura. En este caso, se busca comparar dos enfoques en PLN, las redes neuronales recurrentes y los transformers, para generar texto relacionado con afecciones virales respiratorias asociadas con el COVID-19. En la actualidad los informes de texto generados por el procesamiento de lenguaje natural (PLN) usando redes neuronales recurrentes y Transformers, es una alternativa valiosa y eficiente al momento de optimizar tiempo y recursos en el diagnóstico de pacientes con COVID 19, con el PLN y con la ayuda de estas arquitecturas tipo LSTM en recurrentes y GPT2 en Transformers; se ha demostrado que son las más adecuadas para la correcta clasificación de datos estructurados. Su entrenamiento consiste en encajar los pesos de las entradas de todas las neuronas que forman parte de la red neuronal, para que las respuestas de salida encajen lo más posible a los datos que conocemos. Al adquirir los informes, se evaluaron modelos de redes neuronales, las cuales utilizaron el entorno de Google Colab para ser implementadas, usando lenguaje de programación Python y las librerías de machine Learning como Keras y Pytorch que recibieron datos de un Dataset para su entrenamiento, cuyo resultado es el aumento en la precisión de la Red con el conjunto de entrenamiento de informes generados. puede proporcionar información valiosa sobre el desempeño de cada enfoque en el procesamiento del lenguaje natural. Ambos enfoques tienen sus ventajas y desventajas, y es importante evaluarlos cuidadosamente para determinar el enfoque más adecuado para una tarea específica de PLN. El resultado de estos entrenamientos permitirá hacer una breve comparación entre cual arquitectura es la más apropiada para la generación de textos artificiales. Natural Language Processing (NLP) is a branch of artificial intelligence that is responsible for the processing and analysis of data in natural language format, such as speech or writing. In this case, we seek to compare two approaches in PLN, recurrent neural networks, and transformers, to generate text related to respiratory viral conditions associated with COVID-19. Currently, the text reports generated by natural language processing (NLP) using recurrent neural networks and Transformers, is a valuable and efficient alternative when optimizing time and resources in the diagnosis of patients with COVID 19, with the PLN and with the help of these LSTM type architectures in recursive and GPT2 in Transformers; it has been shown that they are the most suitable for the correct classification of structured data. Its training consists of fitting the weights of the inputs of all the neurons that are part of the neural network, so that the output responses fit as closely as possible to the data we know. When acquiring the reports, neural network models were evaluated, which used the Google Colab environment to be implemented, using the Python programming language and machine Learning libraries such as Keras and Pytorch that received data from a Dataset for training, who’s the result is the increase in the accuracy of the Network with the training set of generated reports. can provide valuable insight into the performance of each approach in natural language processing. Both approaches have their advantages and disadvantages, and it is important to carefully evaluate them to determine the most appropriate approach for a specific PLN task. The result of these trainings will allow a brief comparison between which architecture is the most appropriate for the generation of artificial texts.