bachelorThesis
Uso de redes neuronales convolucionales en Python para lectura de pruebas rápidas de Covid-19.
Fecha
2022-09Autor
Fondevila Ricardo, Kevin Daniel
Institución
Resumen
En la actualidad, las pruebas rápidas de COVID-19 son usadas como opción para la detección
rápida de infección en curso por COVID 19, puesto que, otros métodos de diagnóstico son más
complejos, y demandan de análisis, tiempo y recursos. En el área de la salud se ha optado por
utilizar herramientas de inteligencia artificial que ayuden a detectar pacientes sintomáticos y
asintomáticos, para evitar una futura propagación. Las redes neuronales convolucionales (CNN),
son las más convenientes dado que poseen la capacidad de aprender por sí mismas a identificar
características dentro de imágenes. No obstante, es necesario el entrenamiento de una red neuronal
convolucional mediante el uso de datasets; ¿De qué manera podemos obtener esta gran cantidad
de datos?, Se cuenta con un dataset reducido de apenas dos mil imágenes, debido a esto
utilizaremos una tecnica para aleatorizar y reescalar las imágenes con el fin de aumentar en gran
medida el dataset y utilizarlo como datos de entrenamiento en una CNN, logrando potenciar su
rendimiento. Al obtener las imágenes generadas, se creó un modelo de CNN, el cual se llevó a
cabo en el entorno Google Colab, usando el lenguaje de programación python y librerías de
machine learning como Keras, Tensorflow y OpenCV. Currently, COVID-19 rapid tests are used as an option for rapid detection of ongoing COVID-19
infection, since other diagnostic methods are more complex, and demand analysis, time, and
resources. In the healthcare field, it has been chosen to use artificial intelligence tools that help
detect symptomatic and asymptomatic patients, to avoid future spread. Convolutional Neural
Networks (CNN) are the most convenient since they have the ability to learn by themselves to
identify characteristics within images. However, it is necessary to train a convolutional neural
network using datasets. How can we obtain this large amount of data? We have a reduced dataset
of only two thousand images, because of this we will use a technique to randomize and rescale the
images in order to greatly increase the dataset and use it as training data in a CNN, achieving to
enhance its performance. After obtaining the generated images, a CNN model was created, which
was carried out in the Google Colab environment, using the Python programming language and
machine learning libraries such as Keras, Tensorflow and OpenCV.