Trabajo de grado - Maestría
Modelo de aprendizaje profundo para cuantificar el daño causado por el Glaucoma en el nervio óptico
Fecha
2023-04Registro en:
Universidad Nacional de Colombia
Repositorio Institucional Universidad Nacional de Colombia
Autor
Beltrán Barrera, Lillian Daniela
Institución
Resumen
El glaucoma es una de las enfermedades de mayor prevalencia y gravedad en el mundo, se caracteriza por provocar una pérdida gradual de la visión periférica, que si no se trata a tiempo, puede ser irreversible y conducir a la pérdida total de la visión. Con el objetivo de facilitar la detección temprana de esta enfermedad, se han propuesto diversos modelos basados en aprendizaje profundo y redes neuronales convolucionales que permiten un diagnóstico
automatizado. A pesar de su utilidad, estos modelos presentan algunas limitaciones, como la evaluación del ancho del borde neurorretiniano solamente de forma vertical y la asignación de una clasificación binaria para denotar la presencia o ausencia de la enfermedad, lo que dificulta la identificación de su estadio y del avance de la enfermedad en múltiples direcciones.
Por tal motivo, este trabajo presenta un enfoque basado en aprendizaje profundo que toma como referencia la escala DDLS (Disc Damage Likelihood Scale) para detectar y conocer el avance del glaucoma en los pacientes. Para ello, se utilizó como insumo el conjunto de imágenes REFUGE (Retinal Fundus Glaucoma Challenge), identificando la región de interés (ROI por sus siglas en inglés) mediante el algoritmo de detección de objetos YOLO (You Only Look Once).Después de esto, se procedió a realizar la medición del RDR (Rim-to-Disc
Ratio) en cada grado en las imágenes segmentadas utilizando dos modelos previamente entrenados: uno para el disco y otro para la copa ocular. De esta manera, se logró asignar nuevas etiquetas a las imágenes con base la escala DDLS. Luego, se entrenó un modelo base con las etiquetas originales, el cual se comparó con tres modelos entrenados mediante aprendizaje por transferencia con las etiquetas construidas. Estos modelos utilizaron diferentes técnicas para el procesamiento de las imágenes, incluyendo la conversión de coordenadas
cartesianas a polares y el recorte de las imágenes en estéreo centradas en el nervio óptico a una dimensión de 224 × 224 píxeles para contar con mayor información de la imagen. Los mejores resultados fueron obtenidos por el modelo entrenado con las imágenes convertidas a coordenadas polares. (Texto tomado de la fuente) Glaucoma is one of the most prevalent and severe diseases in the world, characterized by a gradual loss of peripheral vision that, if not treated in time, can be irreversible and lead to total vision loss. In order to facilitate early detection of this disease, various models based on deep learning and convolutional neural networks have been proposed, which allow for automated diagnosis. Despite their usefulness, these models present some limitations, such
as the evaluation of neuroretinal border width only vertically and the assignment of a binary classification to denote the presence or absence of the disease, which makes it difficult to identify its stage and the progression of the disease in multiple directions. For this reason, this work presents a deep learning-based approach that uses the DDLS (Disc Damage Likelihood Scale) scale to detect and understand the progression of glaucoma in patients. For
this purpose, the REFUGE (Retinal Fundus Glaucoma Challenge) image set was used as input, identifying the region of interest (ROI) using the YOLO (You Only Look Once) object detection algorithm. After this, the RDR (Rim-to-Disc Ratio) was measured at each degree in the segmented images using two previously trained models: one for the disc and one for the optic cup. In this way, new labels were assigned to the images based on the DDLS scale. Then, a baseline model was trained with the original labels, which was compared with three
models trained by transfer learning with the constructed labels. These models used different techniques for image processing, including the conversion of Cartesian coordinates to polar coordinates and the cropping of stereo images centered on the optic nerve to a dimension of 224 × 224 pixels to obtain more information from the image. The best results were obtained by the model trained with images converted to polar coordinates.