Revista Científica Ingeniería y Desarrollo, Vol 29, No 2 (2011)

Tamaño de la letra:  Pequeña  Mediana  Grande
Revista Ingeniería y Desarrollo

ISSN electrónico: 2145-9371
ISSN impreso:0122-3461
Vol. 29 Nº 2 julio-diciembre de 2011

Fecha de recepción: 14 de julio de 2011
Fecha de aceptación: 13 de septiembre de 2011


Detección y diferenciación de exudados en retinografías a color

Detection and differentiation of retinal exudates in color retinal images

 

Germán Sánchez Torres*, Jorge Rudas Castaño**, Ricardo Toscano Cuello***
Universidad del Magdalena (Colombia)

*Docente Universidad del Magdalena, Facultad de Ingeniería. Magis-ter en Ingeniería de Sistemas, Universidad Nacional de Colombia. gsanchez@unimagdalena.edu.co

** Ingeniero de Sistemas, Universidad del Magdalena (Colombia). jrudascas@gmail.com

*** Ingeniero de Sistemas, Universidad del Magdalena (Colombia). ritoscue@gmail.com

Correspondencia: Germán Sánchez Torres. Carrera 32 n°. 22- 08, Santa Marta (Colombia). Teléfono: 3016836593.


Resumen

La retinopatía diabética en etapas tempranas suele ser imperceptible para los pacientes diabéticos. Sus primeras manifestaciones, tal como los microaneurismas, suelen pasar desapercibidas en exámenes especializados por su difícil detección; además, su presencia única no implica necesariamente relación directa con la retinopatía diabética, puesto que existen otras patologías que también pueden producirlas. Solo hasta la detección de la presencia de exudados un especialista puede deducir la presencia de la retinopatía diabética. Este artículo presenta un método que permite asistir la identificación y diferenciación de exudados sobre retinografías mediante la utilización de una variedad de clasificadores de tipo k-nn. El método propuesto demostró ser un método sensible y específico en la detección de lesiones brillantes, capaz de determinar con certeza suficiente una posible lesión en una retinografía a color, con una especificidad de 99%.

Palabras clave: Exudados, k-ésimo vecino más cercano, retinografías, transformada circular de Hough.


Abstract

Diabetic retinopathy early is not usually perceivable in patients with diabetic. Their first signs, like micro-aneurysms, often are unnoticed in preliminary test due to its difficult detection by means specialists. In addition, its presence is necessarily not directly related to diabetic retinopathy, since there are others pathologies that may also cause those. Until the detection of the presence of exudates, a specialist can deduce the presence of diabetic retinopathy. This paper presents a method to assist the identification and differentiation of exudates on color retinal images based on a variety of k-nn filters. The proposed method proved to be a sensitive and specific detection of bright lesions, able to determine with sufficient certainty, a possible injury, with a specificity of 99%.

Keywords: Exudates, k-nearest neighbors, retinal, circular Hough transform.


1. INTRODUCCIÓN

Las retinografías son una de las técnicas médicas no invasivas más utilizadas en el análisis del sistema visual humano. Los procedimientos clínicos que utilizan estas imágenes suelen ser realizados por especialistas altamente calificados, entrenados para el análisis, cribado y diagnóstico de estas fotografías. El análisis automático de estas imágenes a través de ordenadores potencialmente permitiría la reducción de los tiempos necesarios para realizar los procedimientos médicos, proveería de mecanismos modernos para evaluaciones periódicas de la retina y podría convertirse en un método de evaluación retinal para determinar el instante óptimo de los tratamientos [1].

Los exudados en ocasiones son los primeros signos visibles de la presencia de la retinopatía diabética. Es por tal razón que su identificación es una tarea de gran relevancia en la prevención y diagnóstico médico relacionado con la RD. Los exudados son depósitos de lipoproteínas fagocitadas ubicadas en las capas externas de la retina. Suelen tener un aspecto céreo, de morfología variada, pequeña y a veces confluente, sus contornos pueden variar ampliamente desde bordes fuertemente delimitados (exudados duros) hasta bordes difuminados (exudados blandos). La figura 1 muestra una imagen de cada patrón.

La literatura ha demostrado que la implementación de metodologías computacionales aplicadas a la detección y clasificación de este tipo de patologías sobre retinografías pueden llegar a ser una herramienta de mucha relevancia en la nueva era de procedimientos médicos asistidos por sistemas tecnológicos [7].

Este artículo está direccionado hacia el diseño de un método que permite asistir la identificación y diferenciación de exudados sobre retinografías, mediante la utilización de una variedad de clasificadores de tipo k-nn y ha sido organizado de la siguiente manera: en la sección 2 se presentan algunos de los trabajos más relevantes en el área; la sección 3 describe el algoritmo básico utilizado para el análisis de imágenes; la sección 4 describe los métodos usados en el proceso de clasificación y detección de exudados; finalmente, las secciones 5 y 6 presentan los resultados y las conclusiones obtenidas de la aplicación de esta propuesta sobre un conjunto de imágenes de prueba obtenidos de repositorios públicos.

2. ESTADO DEL ARTE

Sánchez et al.[2] identificaron exudados duros sobre un banco de 58 imágenes retínales (22 imágenes de pacientes sanos y 36 de pacientes diabéticos con exudados duros) a través del análisis estadístico de la imagen, utilizando un discriminante lineal de Fisher's y la información proveniente del color para realizar la clasificación de los exudados. Los autores reportaron una sensibilidad media del 88%, con un número medio de ± 4.64 falsos positivos por imagen, usando un criterio de evaluación que denominaron basado en la lesión. Mediante un criterio que denominaron basado en la imagen reportaron una sensibilidad del 100% y una especificidad del 100%. Este algoritmo no requiere de inicializadores y es robusto a cambios en las tonalidades, contrastes y calidad de las imágenes, tal como se presenta en los ambientes clínicos. Por su parte, Saheb y Satya[3] utilizaron operadores morfológicos para realizar la segmentación de las zonas brillantes y lógica difusa para realizar la clasificación de los segmentos. Luego de la segmentación, cada zona se representa en sus correspondientes espacios de colores XYZ, YIQ, LUV, HSV y Lab. Sobre estos espacios se generó un conjunto de reglas difusas que permitieron la clasificación. Las pruebas de este algoritmo se realizaron sobre el repositorio DIARETDB0 [5] (Standard Diabetic Retinopathy dataset).

García et al. [4] reportaron a través de una validación basada en la lesión una sensibilidad media (SEi) de 88.14% y un valor de predictibilidad positiva medio (PPVi) del 80.72%, utilizando un perceptrón multicapas. Para la red neuronal con funciones de base radial obtuvieron una SEi= 88.49% y PPVi= 77.41%, mientras que utilizando un clasificador con máquina de soporte vectorial alcanzaron SEi = 87.61 y PPVi = 83.51%. Utilizando una validación basada en la imagen reportaron una SEi = 100%, una especificidad media (SPi) de 92.59% y una precisión media (ACi) 97,01% con un perceptrón multicapas. Usando una red neuronal con RBF obtuvieron una SEi = 100%, SPi = 81.48% y ACi = 92.54%. Con una máquina de soporte vectorial alcanzaron una SEi = 100%, SPi =77.78% y ACi = 91.04%.

3. ALGORITMO DE LOS K-VECINOS MÁS CERCANOS

El método de los k-vecinos es un método retardado y supervisado (pues su fase de entrenamiento se hace en un tiempo diferente del de la fase de prueba) cuyo argumento principal es la distancia entre instancias. Este método básicamente consiste en comparar la nueva instancia que se va a clasificar con los k datos más cercanos conocidos, y dependiendo del parecido entre los atributos, el nuevo caso se ubicará en la clase que más se acerque al valor de sus propios atributos.

La principal dificultad de este método consiste en determinar el valor de k, ya que si toma un valor grande se corre el riesgo de hacer la clasificación de acuerdo con la mayoría (y no al parecido), y si el valor es pequeño, puede haber imprecisión en la clasificación a causa de los pocos datos seleccionados como instancias de comparación.

Una característica importante e interesante de k-nn consiste en que el método puede cambiar radicalmente sus resultados de clasificación sin modificar su estructura, solamente cambiando la métrica utilizada para hallar la distancia. Por lo tanto, los resultados pueden variar tantas veces como métodos de estimación de distancia existan [12]. La métrica debe seleccionarse de acuerdo con el problema que se desee solucionar. La gran ventaja de poder variar métricas consiste en que para obtener diferentes resultados, el algoritmo general del método no cambia, únicamente el procedimiento de medida de distancias.

A continuación se exponen algunos modelos matemáticos para métricas de distancias:

La ecuación 1 es comúnmente conocida como distancia euclidiana, donde n es el número de dimensiones de los vectores i representa el valor de un atributo o dimensión de uno de los vectores.

La ecuación 2 es denominada dist ncia le Manhattan, donde n es el número de dimensiones de los vectores i representa el valor de un atributo o dimensión de uno de los vectores.

La ecuación 3 es comúnmente conocida como dist ncia de Mahalanobis; es una matriz de covarianza entre los vectores :

La ecuación 4 se conoce como distancia de Chi-cuadrado, donde n es el número de dimensiones de los vectores , i representa el valor de un atributo o dimensión de uno de los vectores, wk representa el peso de la característica o dimensión k.

La ecuación 5 se denomina distancia del coseno y denota una medida de similitud, mas no de distancia.

4. MÉTODO PROPUESTO

El proceso mediante el cual se genera un diagnóstico estimado está basado en el análisis de diferentes aspectos de las imágenes o retinografías. Dada una imagen, el primer paso es realizar operaciones de preprocesamiento, como el realce del contraste y la eliminación del área del disco óptico, para evitar que su alto nivel de blancos interfiera en etapas posteriores. Toda lesión del grupo de los exudados es clasificada como una "lesión brillante", por tal razón debe aplicarse una etapa de detección de las zonas brillantes. Sin embargo, pixeles con un alto índice de brillo no necesariamente indican una lesión. Para la correcta determinación de estas se aplica un par de etapas de Generación y Depuración de lesiones probables. Con base en los mapas depurados, la etapa de clasificación es realizada mediante la modificación de la técnica de agrupamiento k-nn. A continuación se describe cada una de las características de las etapas.

Selección de retinografías

El repositorio libre de imágenes de fondo de ojo denominado DIARETDB1 (Diabetic retinopathy database and evaluation protocol) [5] fue la base para las pruebas del método. El banco de imágenes contiene 89 retinografias; 84 de estas contienen por lo menos signos de retinopatía diabética no proliferativa y las 5 restantes son de pacientes sanos según conclusiones realizadas en consenso por tres especialistas. Las imágenes fueron tomadas en el Hospital Universitario de Kuopio, en Finlandia. Así mismo, fueron seleccionadas por médicos expertos y su distribución corresponde a una población típica, es decir, los datos son parciales y no hay información a priori que se puede deducir de ellas. Fueron adquiridas con el mismo campo de visión, a 50°.

Los datos corresponden a una situación práctica, en la que las imágenes son comparables y se pueden utilizar para evaluar el desempeño general del método propuesto. Un total de 20 imágenes del repositorio fueron seleccionadas de forma aleatoria. El 2% de los pixeles de dichas imágenes fue seleccionado al azar y utilizado para generar el conjunto de entrenamiento de un primer clasificador de pixeles. Se evitó la duplicación de puntos, así como el tratamiento de los pixeles que se encontraban dentro del área de interés. Se entiende por "área de interés" aquella zona que excluye a la sombra de la imagen y al disco óptico. Se seleccionó un grupo diferente constituido aleatoriamente por 20 imágenes, que fueron utilizadas para generar el conjunto de entrenamiento de dos clasificadores adicionales, los cuales se diferenciaban porque asignaban los valores de pertenencia a exudados duros y a exudados blandos. Un total de 274 exudados duros y 131 exudados blandos hicieron parte de estos conjuntos de entrenamiento respectivamente.

Realce del contraste

Antes de cualquier etapa del algoritmo propuesto se realizó un realce del contraste utilizando una distribución gaussiana en pequeñas ventanas de la imagen, tal como lo sugiere el trabajo de Osareh[6]. El objetivo de aplicar una transformación basada en ventanas estimadas sobre cada pixel consiste en que todos los valores se distribuyan alrededor de la media de la ventana, y de esta forma se aumente el contraste sobre todos los posibles valores de intensidad. Dado cada pixel p en la imagen original y una ventana de NxN que recorre toda la imagen, el algoritmo produce como salida un valor pn para cada p, dado por:

Max y Min, en la ecuación 6, son el máximo y el mínimo valor de intensidad dentro de la ventana w, mientras que son la media y la desviación estándar de la ventana, en la ecuación 7.

El tamaño de la ventana debe ser lo suficientemente grande como para contener una distribución estadísticamente representativa de la variación local de la imagen.

Detección y eliminación de Disco Óptico

Muchas de las características que describen a un exudado están basadas en información contenida en el color. El reflejo de la luz de las cámaras sobre la cabeza del nervio óptico suele tener propiedades similares a las que caracterizan a los exudados. Esta propiedad dificulta el objetivo del trabajo; es por tal razón que se hace necesaria la localización del disco óptico antes de cualquier etapa del algoritmo.

Usando el poder de la transformada de Hough para localizar formas preestablecidas se detectó la ubicación del Disco Óptico (DO) en las retinografías, aprovechando la similitud morfológica que existe entre este y una circunferencia. El radio del DO es aproximadamente constante para un conjunto de retinografías de la misma resolución, lo que facilita su ubicación. Se utilizó un algoritmo de Canny para detectar los bordes de las estructuras más relevantes en las imágenes (DO, red de vasos sanguíneos), y así aplicar el algoritmo que implemente la transformada circular de Hough.

Detección de lesiones brillantes

La estrategia que se propone en [7], [8] es realizar una clasificación pixel a pixel en imágenes retinales, en procura de detectar pixeles que potencialmente hagan parte de una lesión brillante. Estas regiones potencialmente podrían contener exudados. La detección y clasificación de lesiones brillantes, si hay, se realiza de la siguiente manera:

•Cada pixel fue clasificado, lo cual resultó en algo denominado "mapa de lesiones probables", que indica la probabilidad de que un pixel sea parte de una lesión brillante.

Pixeles con alta probabilidad fueron agrupados en cluster de pixeles, probablemente lesiones.

Se utilizó un algoritmo k-nn con distancia euclidiana y k = 3. La filosofía clásica de este algoritmo estipula que a una nueva instancia por clasificar debe asignársele el valor mediano entre las clases de las k instancias más similares a él. Nosotros utilizamos una variante de esta filosofía para distribuir los valores de probabilidad en un espacio continuo, asignándole como valor de pertenencia el valor medio entre las clases de las k instancias más cercanas. Las nuevas instancias clasificadas no se utilizaron como insumo de entrenamiento durante la clasificación.

Se usaron como descriptores de cada pixel las salidas de un filtro gaussiano:

Donde (x, y) son las coordenadas del pixel y o la escala.

Para esta función se utilizó las variantes obtenidas de las derivadas hasta el segundo orden tal que el conjunto de filtros se definió con las funciones en escalas o={1,2,3,4,8,16}, lo que genera 30 variantes del filtro.

La figura 3 muestra dos de estos filtros:

Además de las ya mencionadas salidas de los filtros se agregó come descriptor adicional el valor de intensidad del pixel en el canal verde para un total de 31 características para describir un pixel, con lo que obtendríamos nuestro espacio de aproximación.

Este clasificador se aceleró a través de la tecnología CUDA de Nvidia, utilizando una tarjeta gráfica GeForce GTS 450 de 196 núcleos y el framework de Jacket, que implementa esta tecnología sobre Matlab, con lo que se obtuvo una mejora de más 100x.

Sobre los mapas de lesiones probables (véase la figura 4) se aplicó un operador de apertura morfológica, es decir, un operador de erosión seguido de un operador de dilatación morfológica utilizando el mismo elemento estructural (una circunferencia de radio unitario). Las ecuaciones que siguen describen los operadores elementales del análisis morfológico:

La anterior operación se realiza con el objetivo último de eliminar el ruido resultante sobre los mapas de lesiones probables (ver figuras 4 y 5).

Clasificación de las lesiones brillantes

Un segundo y un tercero clasificador k-nn con distancia euclidiana y k=1 fueron utilizado para diferenciar a los exudados duros y exudados blandos de las zonas brillantes. Se utilizaron 65 descriptores de lesiones durante la clasificación (ver tabla 1).

Tabla 1

Los 65 descriptores utilizados y su descripción

5. RESULTADOS

El repositorio de prueba contiene las evaluaciones realizadas por tres especialistas en oftalmología, los cuales demarcaron las regiones que potencialmente contendrían exudados. Los diagnósticos fueron generados independientemente por cada experto. Con objeto de obtener un patrón para realizar comparaciones, en este trabajo se optó por unificar, en el caso particular de los exudados duros, los tres diagnósticos y luego tomar las zonas en las cuales los tres expertos coincidieron, es decir, las aéreas interceptadas. Posteriormente, estas aéreas fueron umbralizadas (ver figura 6), y a esto llamamos diagnóstico intercepto.

Con el objetivo de realizar un análisis de los resultados en unidades de sensibilidad (probabilidad de etiquetar un pixeles como parte de un exudado cuando este realmente lo es) y en unidades de especificidad (probabilidad de etiquetar un pixel como parte de algo diferente de un exudado cuando este realmente no pertenece a un exudado) se optó por comparar frente al diagnóstico intercepto.

La obtención del diagnóstico intercepto es gráficamente apreciable en la figura 6 y la secuencia para su obtención se describe a continuación:

Para un tipo de lesión en particular (exudados duros o blandos), las áreas de convergencia de los diagnósticos expuestos por los especialistas (véase figura 6c) fueron umbralizadas con un punto de corte calculado experimentalmente basado en un conjunto de imágenes de prueba que contenían grupos de exudados blandos y exudados duros. Se obtuvieron resultados como el que se aprecia en la figura 6d.


Para cada imagen se obtuvo un diagnóstico intercepto, que fue comparado con las regiones que generó el algoritmo propuesto. Esta comparación permitió medir una sensibilidad media del 73% y una especificidad media del 99% en la detección de exudados duros. Con los exudados blandos se alcanzó una sensibilidad media de 3.4% y una especificidad media del 99%. Diferentes resultados obtenidos se muestran en la figura 7.

CONCLUSIÓN

El algoritmo propuesto demostró ser un método sensible y específico en la detección de lesiones brillantes, capaz de determinar con certeza suficiente una posible lesión en una retinografía a color. La clasificación de lesiones alcanzó resultados satisfactorios en la diferenciación de los exudados duros; dichos resultados inclusive son comparables con los resultados reportados en trabajos similares [9], [10], [11]. Los resultados obtenidos para la diferenciación de los exudados blandos son aún débiles; dado el bajo nivel se sensibilidad obtenido, todavía falta mejorar estos resultados. Sin embargo, una limitación encontrada reside en la misma estructura del repositorio de prueba utilizado, debido a que este no suministra información precisa acerca del diagnóstico de estas lesiones, lo cual propició que pocos diagnósticos convergieran entre los diferentes diagnósticos de los expertos, lo cual asigna un valor de probabilidad bajo a dichas lesiones. Por ende, el clasificador de lesión que se basa en un umbral experimental descarta lesiones erróneamente por tener bajos valores medios.

En trabajos posteriores, los esfuerzos se inclinarán a mejorar los resultados fundamentalmente del clasificador de exudados blandos y en la mejora del rendimiento general del algoritmo.


REFERENCIAS

[1] M. García, C. Sánchez, M. López, D. Abásolo, and R. Hornero, "Neural Network Based Detection of Hard Exudates in Retinal Images", Computer Methods and Programs in Biomedicine, vol. 93, n°1, pp. 9-19, January 2009.

[2] C. Sánchez, R. Hornero, M. López, M. Aboy, J. Poza, and D. Abasolo, "A novel automatic image processing algorithm for detection of hard exudates based on retinal image analysis", Medical Engineering & Physics, vol. 30, p. 350-357, April 2008.

[3] S. Saheb Basha and K. Satya Prasad, "Automatic detection of hard exudates in diabetic retinopathy using morphological segmentation and fuzzy logic", IJCSNS, International Journal of Computer Science and Network Security, vol. 8, n°12, December 2008.

[4] M. García, C. Sánchez, J. Poza, M. López, and R. Hornero, «Detection of hard exudates in retinal images using a radial basis function classifier,» Annals of Biomedical Engineering, vol. 37, n°. 7, pp. 1448-1463, July 2009.

[5] DIARETDB -Standard Diabetic Retinopathy Database, {http://www.it.lut.fi/project/imageret/diaretdbl/}.

[6] A. Osareh, "Automated Identification of Diabetic Retinal Exudates and the Optic Disc". Ph.D. thesis, Department of Computer Science, University of Bristol, UK, January 2004.

[7] M. Niemeijer, Bram van Ginneken, Stephen R. Russell, Maria S. A. Suttorp-Schulten, and Michael D. Abramoff, "Automated Detection and Diffe-rentiation of Drusen, Exudates, and Cotton-Wool Spots in Digital Color Fundus Photographs for Diabetic Retinopathy Diagnosis", Investigative Ophthalmology and Visual Science, vol. 48, pp. 2260-2267, March 2007.

[8 M. Niemeijer, M.D. Abramoff, and B. van Ginneken, "Automatic detection of the presence of bright lesions in color fundus photographs", The 3rd European Medical and Biological Engineering Conference, Prague, Czech Republic, vol. 11, n°1, pp. 1832-1838, 2005.

[9] A. Sopharak, B. Uyyanonvara, and S. Barman, "Automatic Exudate Detection from Non-dilated Diabetic Retinopathy Retinal Images Using Fuzzy C-means Clustering", Sensors, vol. 9, n° 3, pp. 2148-2161, 2009.

[10] H. Li and O. Chutatape, "Automated feature extraction in color retinal images by a model based approach", IEEE Trans. Biomed. Eng, vol. 51, n°2, pp. 246 - 254, 2004.

[11] C. Sinthanayothin, J. Boyce, T. Williamson, H. Cook, E. Mensah, L. Lal, and D. Usher, "Automated detection of diabetic retinopathy on digital fundus images", Diabet. Med., vol. 19, n°2, pp. 105-112, February 2002.


Revista Ingeniería y Desarrollo
Revista de la División de Ingenierías de la Universidad del Norte
http://rcientificas.uninorte.edu.co/index.php/ingenieria/index
ingydes@uninorte.edu.co

Universidad del Norte
Barranquilla (Colombia)
2013
©

Refbacks

  • No hay Refbacks actualmente.


Creative Commons License
This work is licensed under a Creative Commons Attribution 3.0 License.