PROYECTO DE GRADO PARA OPTAR AL TITULO DE INGENIERO...
Transcript of PROYECTO DE GRADO PARA OPTAR AL TITULO DE INGENIERO...
PROYECTO DE GRADO PARA OPTAR AL TITULO DE INGENIERO
CATASTRAL Y GEODESTA
EXTRACCIÓN DE OBJETOS GEOGRÁFICOS MEDIANTE MORFOLOGÍA
MATEMÁTICA A PARTIR DE TRANSFORMADAS WAVELET
AUTOR
GISELLE HELENA TORO GARAY
DIRECTOR
PhD. RUBEN JAVIER MEDINA DAZA
UNIVERSIDAD DISTRITAL FRANCISCO JOSE DE CLADAS
FACULTAD DE INGENIERÍA
2015
EXTRACCIÓN DE OBJETOS GEOGRÁFICOS MEDIANTE MORFOLOGÍA
MATEMÁTICA A PARTIR DE TRANSFORMADAS WAVELET
AUTOR
GISELLE HELENA TORO GARAY
DIRECTOR
PhD. RUBEN JAVIER MEDINA DAZA
UNIVERSIDAD DISTRITAL FRANCISCO JOSE DE CLADAS
PROYECTO CURRICULAR DE INGENIERÍA CATASTRAL Y GEODESIA
2015
A Mauricio y Elena que me dieron las alas para llegar
aquí, sin soltar mi mano ni por un segundo
AGRADECIMIENTOS
A mi familia que siempre ha creído en mí y por quienes he llegado hasta aquí, quienes me
enseñaron el valor de la perseverancia, la disciplina y el esfuerzo, a mi hermano Mauricio
que siempre ha sido mi ejemplo
Agradezco a la Universidad Distrital Francisco José de Caldas por ser la cuna de mis
sueños y brindarme la oportunidad de crecer como profesional y como persona, todo el
tiempo que estuve en ella.
Al respetado PhD. Rubén Javier Medina Daza, por dirigir este proyecto, y no solo ser un
gran maestro sino un gran amigo también, quien me enseñó acerca del proyecto y de la vida
Y a todas las personas que se interesaron en este proceso, me brindaron su apoyo en las
situaciones difíciles, y me mostraron que la felicidad se construye con pequeños momentos
I
TABLA DE CONTENIDO
1. INTRODUCCIÓN ......................................................................................................................... 1
2. PROBLEMA .................................................................................................................................. 4
3. JUSTIFICACIÓN........................................................................................................................... 6
4. OBJETIVOS .................................................................................................................................. 8
Objetivo general ..................................................................................................................................... 8
Objetivos específicos ............................................................................................................................. 8
5. MARCO TEÓRICO ....................................................................................................................... 9
5.1. Fusión de imágenes satelitales ...................................................................................................... 9
5.1.1. Cambio de espacio de color HSI ...................................................................................... 10
5.1.2. Falsa pancromática ........................................................................................................... 11
5.1.3. Pancromática ajustada ...................................................................................................... 13
5.1.4. Índice de factor optimo .................................................................................................... 16
5.2. La transformada Wavelet ............................................................................................................ 17
5.2.1. Wavelet Symlet 5 ............................................................................................................. 18
5.3. La transformada Contourlet ......................................................................................................... 18
5.3.1. Bancos de filtros direccionales ......................................................................................... 21
5.4. La transformada de Ridgelet ....................................................................................................... 23
5.5. La transformada Curvelet ............................................................................................................ 24
5.6. Criterio estadístico de selección .................................................................................................. 31
5.7. Criterio teórico de selección ........................................................................................................ 35
5.8. Criterio Visual de evaluación ...................................................................................................... 35
5.9. Objeto geográfico ........................................................................................................................ 37
5.10. Umbralización ............................................................................................................................. 39
5.10.1. Método Otsu ..................................................................................................................... 41
5.10.2. Método Kittler e Illingworth ............................................................................................ 44
5.10.3. Coeficiente kappa ............................................................................................................. 46
5.11. Morfología Matemática ............................................................................................................... 47
5.11.1. La erosión y dilatación ..................................................................................................... 48
5.11.2. Transformación acierto o error ........................................................................................ 50
5.11.3. Algoritmos morfológicos ................................................................................................. 51
II
5.12. Clasificación supervisada ............................................................................................................ 54
5.12.1. Evaluación ........................................................................................................................ 56
6. METODOLOGÍA ........................................................................................................................ 58
7. RESULTADOS ............................................................................................................................ 64
7.1. Preliminares ................................................................................................................................. 67
7.2. Aplicación Wavelet ..................................................................................................................... 70
7.3. Análisis y selección de Wavelet .................................................................................................. 70
7.3.1. Criterio Estadístico .......................................................................................................... 70
7.3.2. Criterio Teórico................................................................................................................ 72
7.3.3. Criterio Visual .................................................................................................................. 73
7.4. Generación de imágenes a partir del OIF, el ajuste de histogramas y composición ‘falsa
pancromática’ .............................................................................................................................. 75
7.5. Transformada Contourlet ............................................................................................................ 78
7.6. Transformadas Curvelet y Ridgilet ............................................................................................. 82
7.7. Evaluación de las imágenes fusionadas ....................................................................................... 89
7.8. Umbralización ............................................................................................................................. 91
7.8.1. Método Otsu ..................................................................................................................... 94
7.8.2. Método Kittler e Illingworth .......................................................................................... 100
7.8.3. Coeficiente Kappa .......................................................................................................... 101
7.9. Morfología matemática. ............................................................................................................ 103
7.9.1. Aplicación de algoritmos de morfología matemática ..................................................... 103
7.9.2. Evaluación ...................................................................................................................... 108
7.10. Validación de los resultados obtenidos ..................................................................................... 109
7.10.1. Imagen IKONOS ............................................................................................................ 110
7.10.2. Imagen Landsat 8 (OLI) ................................................................................................. 122
7.11. Generación de mapas de clasificación de uso y cobertura de la tierra. ..................................... 135
8. DISCUSIÓN DE RESULTADOS ............................................................................................. 140
9. CONCLUSIONES ..................................................................................................................... 143
10. TRABAJOS FUTUROS Y RECOMENDACIONES ................................................................ 146
BIBLIOGRAFÍA .................................................................................................................................... 148
11. ANEXOS .................................................................................................................................... 157
III
ÍNDICE DE FIGURAS
Figura 1. Longitud espectral de las bandas del sensor del satélite World View 2. .................................. 12
Figura 2. Proceso de igualación de histogramas. ..................................................................................... 14
Figura 3. Izquierda, Wavelets de soporte cuadrado sobre el contorno. Derecha, Contourlet soportes
alargados para capturar mejor las discontinuidades ................................................................................. 19
Figura 4.Piramide Laplaciana. ................................................................................................................. 20
Figura 5. Formación de la pirámide Laplaciana, línea inferior, a partir de la pirámide Gaussiana,
imagen superior. Imagen “Lady”. ............................................................................................................ 20
Figura 6. a) Pirámide Laplaciana. b) Pirámide Wavelet. ...................................................................... 21
Figura 7. De izquierda a derecha. Primer nivel de filtros, Ventilador. Segundo nivel de filtros,
Cuadrados. Combinación de dos niveles de filtros. Partición de frecuencias con n=3 ............................ 22
Figura 8. Izquierda. Diagrama de bloques. Derecha. Combinación multiescala y multiresolución......... 23
Figura 9. Implementación general de la transformada Curvelet. ............................................................. 26
Figura 10. Descomposición espacial de una sola banda .......................................................................... 29
Figura 11. Análisis ridgelet de un fragmento de ridge ............................................................................. 30
Figura 12. Ordenamiento primario de elementos fundamentales de imagen para proceso de análisis. .. 36
Figura 13 . Campo de búsqueda de la formulación alternativa del método Otsu ..................................... 43
Figura 14. Diagrama de procesos. ............................................................................................................ 58
Figura 15. A) Localización general zona de estudio. b) Localización especifica zona de estudio.
Worldview-2. c) Imagen de trabajo principal. d) Zona de estudio. Worldview-2. .................................. 65
Figura 16. Imagen principal de trabajo. RGB (5,3,2) Tamaño de 4096x4096 píxeles ........................... 67
Figura 17. a) Transformación HSV, b) Componente Value extraído. .................................................... 69
Figura 18. Imagen pancromática de la zona de estudio. .......................................................................... 69
Figura 19. Referencia de la zona escogida para análisis visual ................................................................ 74
Figura 20. Niveles de descomposición 1-5 Wavelet Symlet 5, acercamiento a objetos espaciales de
la imagen de estudio. ................................................................................................................................ 75
Figura 21. Imagen ‘falsa pancromática’, combinación RGB 851 ............................................................ 77
Figura 22. Histogramas. Izquierda, comportamiento histograma del Value. Derecha, histograma de
la Pancromática. ....................................................................................................................................... 77
Figura 23. A), b), c), d) 4 niveles de descomposición de la pirámide Gaussiana. c) Reconstrucción
para la imagen a partir de pirámides Laplacianas. ................................................................................... 79
Figura 24. Coeficientes Contourlet de la imagen fusionada. ................................................................... 80
Figura 25. Mapa. Nueva imagen RGB, fusionada a partir de los coeficientes Contourlet ....................... 82
Figura 26. Esquema de desarrollo de la Curvelet. a) Aplicación de la Ridgelet. B) Uso de los
coeficientes en la Curvelet ....................................................................................................................... 86
Figura 27. Desarrollo Curvelet, usando Ridgelet local. a) . Imagen original, después de aplicada
Wavelet Symlet 5 nivel 5. b) Imagen con estimación de ruido. c) Reconstrucción Curvelet ................ 86
Figura 28.Desarrollo Curvelet, usando Ridgelet local. a) . Imagen original, rgb. b) Imagen con
estimación de ruido. c) Reconstrucción Curvelet. ................................................................................... 87
Figura 29. Mapa. Nueva imagen RGB, fusionada a partir de la transformada Ridgelet y Curvelet ........ 88
IV
Figura 30. Objetos geográficos para el proceso de umbralización dentro de las imágenes de trabajo.
a) Avión. b) Cuerpo de agua. c) Estructura. d) Cubierta. e) Pista aérea. f) Cancha deportiva.
Objetos tomados de la imagen Symlet 5 nivel 5. .................................................................................... 92
Figura 31. Ubicación de los diferentes objetos espaciales referidos dentro de la imagen. ...................... 93
Figura 32.Imagen umbralizada con el algoritmo propuesto y el algoritmo del software Matlab ............. 94
Figura 33. Umbralización avión. a) imagen pancromática original. b) Imagen umbralizada .............. 95
Figura 34. Umbralización cuerpo de agua imagen Wavelet symelt 5 nivel 5. a) original. b)
Binarizada ................................................................................................................................................ 95
Figura 35. Umbralización estructura imagen Falsa pancromática. Izquierda original. Derecha
Binarizada ................................................................................................................................................ 96
Figura 36. Umbralización cancha deportiva imagen original RGB y ajustada a la Pancromática. a)
original RGB. b) BinarizadaRGB.d) Pancromática ajustada. b) Pancromática ajustada binarizada. ...... 97
Figura 37. Umbralización Pista aérea imagen Contourlet, Curvelet y Ridgelet. Izquierda original.
Derecha Binarizada .................................................................................................................................. 98
Figura 38. Umbralización Avión Contourlet, Curvelet y Ridgelet. Izquierda original. Derecha
Binarizada ................................................................................................................................................ 99
Figura 39. a) Umbral calculado con el método Kittler e Illingworth. b) Umbral calculado con el
método Otsu. .......................................................................................................................................... 100
Figura 40. Algoritmo de extracción de borde. a) Imagen Curvelet y Ridgilet. b) Imagen Contourlet.
c) Imagen Curvelet y Ridgilet. .............................................................................................................. 104
Figura 41. Rellenado de región a) Imagen Curvelet. b) imagen Contourlet. C) Imagen Curvelet ...... 105
Figura 42. Algoritmo de adelgazamiento. a) y b) Imagen Contourlet. c) Imagen Curvelet y
Ridgilet ................................................................................................................................................... 106
Figura 43. Algoritmo engrosamiento. a) y b) Imagen Curvelet. c) Imagen Contourlet. ..................... 106
Figura 44. Aplicación algoritmo de esqueleto. a) Esqueleto avión, imagen pancromática. b)
Esqueleto pista área, imagen Curvelet y Ridgilet. c) Esqueleto cuerpo de agua, imagen Contourlet ... 107
Figura 45. Zona de estudio orginial. Composición a color RGB 321. Imagen IKONOS ...................... 112
Figura 46. a) Imagen HSV. b) Imagen componente Value .................................................................. 113
Figura 47. Imagen Value nuevo, aplicando la Wavelet Symlet 5 en el nivel de descomposición 5. ..... 114
Figura 48. Coeficientes Contourlet de la imagen IKONOS ................................................................... 116
Figura 49.Imágenes resultantes de las transformadas. a) Contourlet. b) Curvelet y Ridgilet .............. 117
Figura 50. Objetos umbralizados por el método Otsu. Imagen IKONOS. a) Lago, Imagen
Contourlet, b) Estructura, Imagen Curvelet y Ridgilet ......................................................................... 118
Figura 51. Algoritmo extracción de bordes. a) Contourlet, lago b) Curvelet y Ridgilet, Vías. ............ 119
Figura 52. Algoritmo rellenado de región . a) Contourlet, Lago b) Curvelet y Ridgilet, Vías. .......... 120
Figura 53. Algoritmo adelgazamiento. a) Contourlet, lago. b) Curvelet y Ridgilet, vías ................... 121
Figura 54. Algoritmo espesamiento. a) Contourlet, lago b) Curvelet y Ridgilet, vías ......................... 121
Figura 55. Algoritmo esqueleto. a) Contourlet, vías, b) Curvelet y Ridgilet, lago. ............................. 122
Figura 56. Zona de estudio, imagen Landsat 8...................................................................................... 124
Figura 57. a) Transformación al espacio HSV. b) Extracción componente Value .............................. 125
Figura 58. Imagen Value nuevo, aplicando la Wavelet Symlet 5 en el nivel de descomposición 5. ..... 126
Figura 59. Coeficiente Contourlet, imagen Landsat 8 ............................................................................ 128
V
Figura 60. Imágenes resultantes de las transformadas. a) Contourlet. b) Curvelet y Ridgilet ............. 128
Figura 61. Objetos umbralizados por el método Otsu. Imagen Landsat 8. a) Lago, Imagen
Contourlet, b) Estructura, Imagen Curvelet y Ridgilet ......................................................................... 130
Figura 62. Algoritmo extracción de bordes. a) Contourlet, b) Curvelet y Ridgilet .............................. 131
Figura 63. Algoritmo rellenado de región. a) Contourlet, b) Curvelet y Ridgilet ................................ 132
Figura 64. Algoritmo adelgazamiento. a) Contourlet, estructura b) Curvelet y Ridgilet, Lago .......... 133
Figura 65. Algoritmo espesamiento. a) Contourlet, lago b) Curvelet y Ridgilet, Estructura ............... 134
Figura 66. Algoritmo esqueleto. a) Contourlet, lago b) Curvelet y Ridgilet, estuctura ....................... 135
Figura 67. Zona utilizada para la clasificación. Imagen transformadas Curvelet y Ridgilet.................. 137
Figura 68. Diagrama de flujo creación de nuevas imágenes RGB. ........................................................ 165
Figura 69. Proceso realizado para la obtención de la imagen fusionada a partir de la Contourlet. ........ 166
VI
ÍNDICE DE TABLAS
Tabla 1. Criterio de clasificación del índice kappa ................................................................................. 47
Tabla 2. Valoración para el coeficiente kappa. ....................................................................................... 57
Tabla 3. Datos de captura de la imagen Worldview-2. ........................................................................... 65
Tabla 4.Longitudes de onda para la imagen worldview 2. ...................................................................... 66
Tabla 5. Resultados Wavelet Symlet 5-5 a partir de los estadísticos. ..................................................... 71
Tabla 6. Resultados cinco Wavelets a partir de los estadísticos............................................................. 72
Tabla 15. Evaluación de la aplicación de morfología matemática sobre los objetos ............................ 109
Tabla 16. Especificación satélite IKONOS. .......................................................................................... 111
Tabla 17. Estadístico imagen fusionada con las diferentes Wavelet IKONOS ..................................... 115
Tabla 18. Resultados de la evaluación de la umbralización con el coeficiente Kappa. Imagen
IKONOS ................................................................................................................................................. 118
Tabla 19.Especificaciones satélite Landsat 8. ....................................................................................... 123
Tabla 7. Correlación entre las ocho bandas que representan la imagen original..................................... 76
Tabla 8. Mejores combinaciones RGB para la imagen objeto de estudio. .............................................. 76
Tabla 9. Tamaño de las matrices de cinco niveles de descomposición para la imagen objeto de
estudio. ..................................................................................................................................................... 80
Tabla 10. Definición de sub bandas de la Curvelet en la imagen objeto de estudio. .............................. 83
Tabla 11.Definición de cuadricula y soporte de la imagen objeto de estudio en la Curvelet .................. 84
Tabla 12. Evaluación de las imágenes fusionadas .................................................................................. 89
Tabla 13. Información de los objetos espaciales a Umbralización. ........................................................ 93
Tabla 14. Resultados de la evaluación del coeficiente kappa sobre la imagen Curvelet y Ridgilet ...... 102
Tabla 20. Estadístico imagen fusionada con las diferentes Wavelet, Landsat 8. .................................. 126
Tabla 21. Resultados de la evaluación de la umbralización con el coeficiente Kappa. Imagen
Landsat 8 ................................................................................................................................................ 130
Tabla 22. Especificación de niveles de clasificación, metodología Corine Land Cover. Escala
1:10000. .................................................................................................................................................. 136
Tabla 23. Resultados de la evaluación de la clasificación. ................................................................... 138
VII
ÍNDICE DE SÍMBOLOS Y ABREVIATURAS
ω Frecuencia angular
f (t) Fase del contenido frecuencial
X(ω) Número complejo que da el modulo
ɛ, Є Valores pequeños aplicados a la localización en frecuencia
transformada Wavelet
|𝑇|,|𝛺| Límites de los intervalos en donde está definida la Wavelet en el
tiempo y la frecuencia respectivamente.
HSI Transformada de espacio de color Matiz, Saturación, Intensidad
HSV Transformada de espacio de color Matiz, Saturación, Value
𝜓 (𝑥) < ɛ para |𝑥|>T Localización en tiempo transformada Wavelet
MM Morfología matemática
CC Coeficiente de correlación
Qu Índice de calidad universal
Po Porcentaje de aciertos
Pe Factor de corrección
ÉTxn Error estándar de kappa
I.C. [ Límite inferior del intervalo de confianza
I.C.] Límite superior del intervalo de confianza
Z Cota z
P Probabilidad
Donc Conclusión estadística
wi,l Son Wavelets periódicas para [𝜋, 𝜋)
i Escala angular Ridgilet
l ∈ [0, 2i−1 − 1] Localización angular Ridgilet
𝜓𝑗,𝑘 Wavelets Meyer para ℜ
j Escala Ridgilet
k Localización Ridgilet
ERGAS Erreur Relative Globale Adimensionalle de Synthèse
RASE Relative Average Spectral Error
DIV Divergencia
BM Bias de Media
E Entropía
RMSE Error medio cuadrático
VIII
GLOSARIO DE TÉRMINOS
Análisis espectral: Tiene por objeto la descomposición de la señal en sus diversas
componentes dentro del dominio frecuencial.
Análisis multitemporal: Análisis que se realiza mediante la comparación de las coberturas
interpretadas en dos imágenes de satélite o mapas de un mismo lugar en diferentes fechas y
permite evaluar los cambios en la situación de las coberturas que han sido clasificadas.
Cobertura del suelo: Hace referencia al aspecto morfológico y tangible del suelo, comprende
todos los aspectos que hacen parte del recubrimiento de la superficie terrestre,que sean
observados y permitan ser medidos con sensores remotos.
Diádico: Una diada (a dyad) consiste en la yuxtaposición de dos vectores, dígase AB. La
diada AB se lee «vector A veces el vector B» y es, a su vez, una suerte de producto externo
denominado producto diádico. El resultado de este producto, que es la misma diada.
Exactitud de medida: se define como la proximidad existente entre un valor medido y un
valor verdadero de un mensurando. Así pues, una medición es más exacta cuanto más pequeño
es el error de medida.
Función continúa a trozos: f es continua a trozos en [a,b] si es continua en [a,b] excepto
posiblemente en un numero finito de puntos en los cuales existen límites por la derecha y por la
izquierda.
Función suave a trozos: f, es suave a trozos en [a,b] si es continua a trozos en [a,b], existe f’ y
también es continua a trozos en [a,b].
Fusión de imágenes:
La fusión de imágenes es un proceso digital que permite reunir en una sola imagen el
detalle espacial de una imagen pancromática y la riqueza espectral de una imagen multiespe
IX
ctral.
Indempotente: Es la propiedad para realizar una acción determinada varias veces y aun así
conseguir el mismo resultado que se obtendría si se realizase una sola vez. Un elemento que
cumple esta propiedad es un elemento idempotente, o un idempotente
Morfología matemática: Es una técnica de procesado no lineal de la imagen, interesada
en la geometría de los objetos.
Píxel: Es la menor unidad homogénea en color que forma parte de una imagen digital, ya
sea esta una fotografía, un fotograma de vídeo un gráfico.
Precisión de medida: como la proximidad existente entre las indicaciones o los valores
medidos obtenidos en mediciones repetidas de un mismo objeto, o de objetos similares, bajo
condiciones específicas.
Umbral: Los métodos del valor umbral son un grupo de algoritmos cuya finalidad es
segmentar gráficos rasterizados, es decir separar los objetos de una imagen que nos
interesen del resto.
Resolución espacial: Este concepto designa al objeto más pequeño que se puede distinguir
en la imagen.
Resolución espectral: Consiste en el número de canales espectrales (y su ancho de banda)
que es capaz de captar un sensor.
Resolución radiométrica: Se la llama a veces también resolución dinámica, y se refiere a
la cantidad de niveles de gris en que se divide la radiación recibida para ser almacenada y
procesada posteriormente. Esto depende del conversor analógico digital usado.
X
Resolución temporal: Es la frecuencia de paso del satélite por un mismo punto de la
superficie terrestre. Es decir cada cuanto tiempo pasa el satélite por la misma zona de la
Tierra. Este tipo de resolución depende básicamente de las características de la órbita.
Segmentación de imágenes: Se ocupa de descomponer una imagen en sus partes
constituyentes, es decir, los objetos de interés y el fondo, basándose en ciertas
características locales que nos permiten distinguir un objeto del fondo y objetos entre sí.
Uso del suelo: hace referencia a las funciones que se desarrollan sobre aquellas cubiertas, es la
calificación de todas las actividades realizadas por el hombre sobre la cobertura del suelo, de
forma parcial o permanente, con la intención de cambiarla o preservarla.
1
1. INTRODUCCIÓN
La resolución espacial de las imágenes satelitales es una de las características más
importantes para la realización de diferentes aplicaciones sobre las mismas, como la
clasificación de coberturas de uso de la tierra, los estudios multitemporales, la generación
de cartografía temática, (Lencinas & Siebert, 2009) y la morfología matemática entre
otros.
Por lo que se convierte en un problema cuando las imágenes no cumplen con la resolución
necesaria para los estudios que se desean realizar, y no es posible obtener otras imágenes
algunas veces por características propias de la zona, como la humedad, vegetación densa o
el difícil acceso (Lencinas & Siebert, 2009).
Para solucionarlo, se han encontrado diferentes tratamientos para el mejoramiento de esta
resolución en las imágenes, uno de ellos es la fusión que busca realizar la combinación de
componentes de diferentes resoluciones de un sensor o incluso de varios para lograr el
mejoramiento (Medina, Joyanes, & Pinilla, 2013) . Algunos métodos de fusión conocidos
actualmente son: transformada de Brovey, análisis de componentes principales,
transformación IHS, HSV y las Wavelet (Benzenati, Smara, & Massout, 2009) .
El presente trabajo toma como insumo una imagen del sensor del satélite WorldView 2,
determinando una zona de estudio sobre el Noroccidente de la ciudad de Bogotá D.C., con
el objetivo, de mejorar la resolución espacial de la imagen para aplicar la morfología
matemática, dado que no se encontraron estudios de aplicación de fusión con las
transformadas de mejoramiento de bordes, que serán nombradas en el trabajo de esta
2
manera dado que es su resultado más notable, y uso de morfología matemática sobre este
tipo de imágenes satelitales, ni sobre la zona de estudio.
Para lograrlo se realizaron sobre el área de estudio, una serie de procesamientos digitales
para mejorar su resolución a partir de varias familias de Wavelets estándar: Symlet,
Daubechies, Haar, Biortogonal, Biortogonal inversa, Coiflet y Dmeyer, para su elaboración
se utilizó el método RGB-HSV, integrando la imagen pancromática, componente value con
la intención de crear una nueva componente así generar una nueva imagen de composición
a color RGB para aplicar la descomposición Wavelet.
Todo este proceso fue evaluado con diferentes índices estadísticos matemáticos,
ampliamente utilizados por varios autores para determinar la imagen fusionada con mejor
calidad espacial, espectral y correlacionada con la original, estos estadísticos fueron
ERGAS, RASE, Coeficiente de correlación (CC) , Calidad universal (Qu) , Entropía,
Divergencia y Bias. (Vaiopoulos, 2011) .
Se determinó que la imagen que cumplía con el mayor índice de conservación de calidad
espacial fue la tratada con la Wavelet Symlet 5 y el nivel de descomposición 5, se ajustaron
las transformadas de mejoramiento de bordes Contourlet, Curvelet y Ridgilet con la
intención de determinar con cual se obtienen resultados de más alto grado de diferenciación
de bordes, evaluando nuevamente con los estadísticos mencionados anteriormente, en
donde se encontró que la mejor era la Curvelet que requirió de la aplicación de Ridgilet
previamente (Candµes & Donoho, 1999) .
Se escogieron varios objetos geográficos de tipo urbano presentes en el área de estudio y se
aplicó la morfología matemática, sobre la imagen obtenida de las diferentes fusiones y
3
procesamientos anteriores, estos fueron sometidos primero a la umbralizacion, la cual se
realizó con el método Otsu (Otsu, 1975) y se evaluaron con el coeficiente Kappa.
Terminado el proceso de Umbralización se aplicaron siete algoritmos de morfología
matemática: extracción de bordes, componentes conectados, rellenado de región, cubierta
convexa, esqueletos, adelgazamiento y engrosamiento, con el objeto de mostrar el
comportamiento de estos sobre una imagen fusionada y mejorada.
Como último se generó como producto un mapa de clasificación de uso y cobertura del
suelo con el sistema de clasificación Corine Land Cover adaptado a escala 1:10.000 para
demostrar la exactitud de la clasificación con una imagen sometida a las transformadas de
mejoramiento de bordes y la imagen original.
Finalmente se validaron los resultados obtenidos sobre dos imágenes de diferentes sensores
y resoluciones con el fin de probar su precisión en la respuesta a diferentes escalas y
resoluciones, estas imágenes fueron, LANDSAT 8 (OLI) e IKONOS, en las cuales se
escogió una nueva zona de estudio común entre ambas y con objetos similares a la imagen
Worldview 2 y se aplicó nuevamente toda la metodología a excepción de la generación de
productos.
Con esto se demostró que las transformadas Curvelet y Ridgilet mejoran los bordes con
mejores resultados para una imagen tratada previamente, y Contourlet para una sin
tratamiento, además se comprobó que el resultado de la fusión con Wavelets, tanto en la
familia como en el nivel de descomposición difiere según el sensor utilizado.
4
2. PROBLEMA
La morfología matemática (MM) se considera una herramienta útil para el procesamiento
digital de imágenes; en especial cuando se tienen cierto grado de ambigüedad o borrosidad
en las formas y sus características (Poon, Chau, & Ghadiali, 1997) . Se han realizado
estudios usando la morfología como herramienta para la extracción de formas como
edificios (Acar & Bayram, 2009) y clasificación con imágenes de alta resolución
(Palsson, Sveinsson, Benediktsson, & Aanaes, 2010) . “La idea central de MM es el
proceso de examinar la estructura geométrica de una imagen, haciendo coincidir con pocos
patrones en varios lugares de la imagen” (Acar & Bayram, 2009) , lo que convierte la
adquisición y tratamiento de la imagen previa un factor importante, para que el proceso
morfológico tenga éxito, en la búsqueda de formas.
La adquisición de imágenes satelitales tiene un inconveniente, la resolución del píxel puede
aumentar o disminuir la zona estudiada (Akoguz et al., 2013) . Esta situación puede
dificultar trabajos aplicativos como la generación de mapas temáticos, de uso y cobertura
del suelo, procesamiento digital de imágenes y morfología matemática entre otros.
Las escenas Multiespectrales incluyen numerosas bandas del espectro de ondas
electromagnéticas, provocando una resolución espectral más alta. Así mismo una alta
resolución espacial es incluida en la imagen pancromática. Con el fin de tener una imagen
con una mayor resolución espacial y espectral, es aplicado el proceso llamado fusión.
(Akoguz et al., 2013) . En esl presente trabajo se busca obtener una mayor resolución
espectral sobre las imágenes, para aplicar la morfología matemática.
Dentro de los métodos de fusión se encuentran: la transformada de Brovey, la
transformada de espacio de color IHS estas aumentan la resolución espacial , sin embargo
estudios realizados muestran que las Wavelet tienen resultados de alta calidad en la
5
resolución espectral (Choi, Kim, Nam, & Kim, 2005) ; para obtener resultados de mayores
resoluciones espaciales; en la fusión se puede utilizar el análisis de las transformadas
Contourlet, Curvelet y Ridgilet, estas representan los bordes mejor que las Waveletes, dado
que “el mejoramiento de bordes es un medio eficaz para aumentar la resolución espacial.”
(Choi et al., 2005)
Una vez se tiene una imagen tratada que conserve en el más alto grado posible la resolución
espacial, es viable realizar la aplicación de la MM para obtener resultados más exactos, este
estudio se inicia con el ánimo de aplicar la teoría matemática y estadística para producir
una avance en la detección de formas para estudios de diversos tipos como agrícola,
urbano, ecológico entre otros.
6
3. JUSTIFICACIÓN
La morfología matemática (MM) es una rama del procesamiento digital de imágenes,
creada por Jean Serra y George Matheron (Serra, 1982) , (Matheron, 1975) . Se ha
considerado como “un método de gran alcance para el procesamiento de imagen; con
aplicaciones en la ciencia de materiales, imágenes microscópicas, reconocimiento de
patrones, imágenes médicas, e incluso visión por computador (Acar & Bayram, 2009) .
Se basa en la teoría de conjuntos y los umbrales en las imágenes, entendidos como el valor
de referencia para realizar la sustitución de los niveles de gris por un valor que significa
blanco o negro (Marques, 2011) ; además de implementar conceptos de otras áreas de
conocimiento como la ingeniería, las matemáticas en las que intervienen la teoría de
retículos, los espacios continuos, discretos, los modelos estocásticos, topológicos, el
análisis y procesamiento de señales y la física (Serra, 2007) .
En el ámbito de las imágenes satelitales la aplicación de algoritmos de MM, entre ellos la
extracción de objetos realizado sobre objetos de tipo geográfico y urbano en el presente
trabajo; permite hacer análisis multitemporales con imágenes de zonas específicas para
encontrar diferencias entre dos momentos, por ejemplo la construcción de nuevas
edificaciones, la desaparición de algunas de ellas, o la identificación de estas (Acar &
Bayram, 2009) . También permite a partir de las características de las formas extraídas
medir áreas para conocer el crecimiento o decrecimiento de cuerpos de aguas, de ciudades,
densidad de bosques, entre otros.
La MM, requiere una resolución espacial que evite en el más alto grado posible las
confusiones o ambigüedad en las formas que se requiera estudiar, para el uso de las
7
operaciones como la dilatación o la erosión, y la aplicación de los algoritmos como la
extracción de bordes o los esqueletos, es por esto que el presente trabajo presenta métodos
de fusión con diferentes transformadas, Wavelet, Contourlet, Curvelet y Ridgilet,que han
sido previamente estudiadas (Pazmiño, 2012) y permiten conservar la mayor resolución
espectral y espacial (Palsson et al., 2010) ; dado que no se encontraron estudios sobre el
tipo de datos, ni implementaciones sobre la zona de estudio escogida.
Los resultados permiten entregar un punto de partida para la realización de diversas
aplicaciones ya mencionadas a partir de la fusión y la aplicación de algoritmos de la
morfología matemática.
8
4. OBJETIVOS
Se presentan a continuación los objetivos planteados que muestran el alcance del presente
trabajo.
Objetivo general
Extraer objetos geográficos, sobre imágenes satelitales fusionadas con diferentes
transformadas Wavelet, Contourlet, Curvelet y Ridgilet
Objetivos específicos
Evaluar las imágenes resultantes de la fusión por medio de los estadísticos
matemáticos ERGAS, RASE, ENTROPIA, Coeficiente de Correlación (CC) ,
Calidad Universal (Qu) , Bias y Divergencia.
Usar los algoritmos de morfología matemática: extracción de bordes,
esqueletización, componentes conectados, espesamiento, adelgazamiento, cubierta
convexa y rellenado de región para extraer objetos.
Realizar validación de los resultados usando imágenes satelitales de los programas
IKONOS y LANDSAT 8
Generar un mapa de clasificación de uso y cobertura de la tierra que permita
identificar y comparar las zonas y sus respectivas coberturas de la imagen original
y la imagen tratada digitalmente.
9
5. MARCO TEÓRICO
Para realizar la evaluación de las diferentes imágenes fusionadas se siguieron una serie de
procedimientos previos, y varios criterios de selección una vez aplicadas las transformadas
Wavelet, Contourlet, Curvelet y Ridgilet, por lo que se hace necesario presentar el sustento
teórico de este proceso.
5.1. Fusión de imágenes satelitales
“Hace referencia al proceso de combinación de imágenes de una escena desde diferentes
sensores para descubrir información que no se desprende de cualquier imagen por sí sola.
Los métodos convencionales usados para este problema incluye la transformada de Brovey
(Gillespie, Kahle, & Walker, 1987) , transformada IHS (Tu, Su, Shyu, & Huang, 2001) ,
Análisis de los componentes Principales (PCA) (Chavez, Sides, & Anderson, 1991) y los
métodos basados en Wavelet (H. Li, Manjunath, & Mitra, 1995) . Las imágenes fusionadas
deben coincidir con la imagen pancromática en detalle espacial y las propiedades de las
bandas de baja resolución espectral. Los métodos PCA y la transformada Brovey, muestran
alta distorsión espectral.” (Divekar & Ersoy, 2009) .
La fusión de imágenes satelitales desempeña un papel importante en muchas aplicaciones
tales como detección remota, visión por ordenador y las imágenes médicas. Basado en el
conjunto de datos disponible se utiliza en muchas otras (Anita & Moses, 2013) .
La fusión de imágenes se subdivide en nivel de píxel, nivel de funciones y nivel de
decisión. La fusión a nivel de píxel; se hace píxel por píxel a partir de la forma y se usa
para fusionar los parámetros físicos, uso medio o nivel de funciones, para reconocer el
objeto a partir de varias fuentes de datos y en el nivel de decisión se extrae de cada entrada
10
por separado y se toma la decisión basada en imágenes de entrada posteriormente de que es
hecha la fusión. (Anita & Moses, 2013).
5.1.1. Cambio de espacio de color HSI
Se usó en los procesos preliminares, la razón para utilizar este método es que “las
operaciones de la transformada HSI tienen la capacidad de variar cada componente HSI de
manera independiente, sin afectar a los demás. Esta propiedad puede ser utilizada para la
fusión de imágenes de sensores múltiples. Los pasos básicos de la fusión HSI son:
1. Registrar la entrada de la imagen multiespectral a la imagen pancromática si es
necesario y posteriormente volver a muestrear a la misma resolución espacial que la de la
imagen pancromática.
2. Transformar la imagen multiespectral de entrada de RGB a espacio de color HSI.
3. Relacionar la intensidad, mientras que las variables, H y S representan matiz y
saturación respectivamente, reemplazar el componente de intensidad por una imagen
pancromática con una resolución espacial superior;
4. Transformar el componente de intensidad sustituido, junto con componentes las de
matiz y saturación originales, de nuevo a el espacio de color RGB para crear la imagen
fusionada” (Anita & Moses, 2013) .
Los espacios HSV y HSI están hechos bajo una transformación de coordenadas del RGB,
dado que no son perceptibles para el ojo humano se denominan espacios intuitivos, u
orientados al usuario y se codifican con los atributos de matiz, saturación y una
componente acromática, llamada intensidad o valor (según el caso) .
11
El algoritmo del HSV según (Ortiz , 2002) está definido en la ecuación 2.
𝐻 = cos−1 [
12
[(𝑅 − 𝐺) + (𝑅 − 𝐵)]
√(𝑅 − 𝐺)2 + (𝑅 − 𝐵) (𝐺 − 𝐵) ]
Ecuación 1
Donde sí B>G, entonces H=360-H. El valor del matiz es un número entero en rango
[0,360].
𝑠𝑖 max(𝑅, 𝐺, 𝐵) ≠ 0 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑆 =max(𝑅, 𝐺, 𝐵) − min (𝑅, 𝐺, 𝐵)
max(𝑅, 𝐺, 𝐵), 𝑠𝑖 𝑛𝑜 𝑆 = 0
Ecuación 2
La componente acromática se calcula como se describe en la ecuación 4.
𝐕 = 𝐦𝐚𝐱 (𝐑, 𝐆, 𝐁)
Ecuación 3
5.1.2. Falsa pancromática
“Desde la pantalla del analizador no siempre se proporciona una óptima vista previa para
ciertas clases de objetivos / objetos, un método realce visual es obligatorio. Esto permitirá
visualizar características de los objetos invisibles para el ojo humano.
La percepción del color es un elemento importante de la conciencia del medio ambiente.
Diferentes objetos reflejan, emiten y transmiten diferentes cantidades y longitudes de onda
de la energía que se registra en el sensor como tonalidades de color o variaciones densidad.
Las imágenes de color verdadero a menudo facilitan la interpretación proporcionando una
percepción familiar de los objetos, pero para muchos casos, la pantalla del analizador deja
de proporcionar a los usuarios el contraste necesario para descubrir y analizar las clases
12
bajo investigación. En estos casos, el 'falso color' se utiliza con éxito para mejorar la
interpretabilidad mejorando el contraste a fondo de objeto a objeto” (Bratasanu, Nedelcu,
& Datcu, 2012)
“en la mayoría de los casos, es la diferencia en el tono o color entre objetos, o entre y un
fondo muy importante” (Colwell, Ulaby, Simonett, Estes, & Thorley, 1983) .
Se crearon dos nuevas imágenes para validar la información de la Wavelet y la
implementación de la morfología matemática.
La “falsa pancromática” (Divekar & Ersoy, 2009) (Medina Daza, Joyanes, Pinilla, Ardila,
& Pineda, 2013) y la ajustada pancromática.
La generación de la falsa pancromática se realizó teniendo en cuenta el rango espectral del
satélite que tomó la imagen de estudio, como lo muestra la siguiente Figura 1.
Figura 1. Longitud espectral de las bandas del sensor del satélite World View 2.
(Taherzadeh, Shafri, Mansor, & Ashurov, 2012)
Se realizó la imagen con las bandas: Azul, Verde, Amarillo, Rojo y Rojo frontera; “Se
seleccionaron estas bandas debido a que aproximadamente coincide con la ventana
espectral de la cámara pancromática” (Divekar & Ersoy, 2009) .
13
Para la concatenación se utilizó la ecuación 5.
𝐵 + 𝐺 + 𝑌 + 𝑅 + 𝐸𝑅
6
Ecuación 4
Donde, B, banda Azul,G, Banda verde, R, Banda Roja y ER, banda rojo frontera.
5.1.3. Pancromática ajustada
Se hizo mediante el método de realce igualación de histogramas que “es el proceso de
determinar una Tabla de búsqueda que convierte el histograma de una imagen que se
asemeja el histograma de otro. Es útil para hacer coincidir los datos de las mismas o
adyacentes escenas que fueron escaneadas por separado en días, o son un poco diferentes
debido a ángulo de sol o los efectos atmosféricos. Esto es especialmente útil para mosaicos
o detección de cambios.
Para lograr buenos resultados con ajuste de histograma, las dos imágenes de entrada deben
tener características similares:
• La forma general de las curvas de histograma debe ser similar.
• Características oscuras y claras relativas en la imagen deben ser las mismas.
• Para algunas aplicaciones, la resolución espacial de los datos debe ser el mismo.
• Las distribuciones relativas de cubiertas de tierra deben ser de la misma, incluso cuando
hay búsqueda de escenas que no son de la misma zona.
Además matemáticamente “es un tramo lineal que redistribuye los valores de píxeles de
manera que hay aproximadamente el mismo número de píxeles con cada valor dentro de un
14
rango. El resultado se aproxima a un histograma plano. Por lo tanto, el contraste se
incrementa en los picos del histograma y disminuye en las colas”. (E. F. Guide, 1999) . La
Figura 2, muestra el proceso descrito gráficamente.
Figura 2. Proceso de igualación de histogramas.
(E. F. Guide, 1999)
La igualación de histograma se implementó en el software ERDAS IMAGINE (E. F.
Guide, 1999) y se basa en la ecuación 6.
𝐴 =𝑇
𝑁
Ecuación 5
Donde
N= El número de contenedores
T= El número total de píxeles en la imagen
A=El número de píxeles por contenedor igualados
Para la realización es necesario reasignar la cantidad de píxeles en contenedores, que los
enumera en conjuntos y les da valor según el contenedor en el que se encuentren, algunos
15
de los contenedores pueden estar vacíos, en el caso que existan muchos contenedores o
muchos valores de píxel iguales (E. F. Guide, 1999) .
Para asignar los píxeles a los contenedores se utiliza la ecuación 7:
𝐵𝑗 = 𝑖𝑛𝑡 [(∑ 𝐻𝑘
𝑖−1𝑘=1 ) +
𝐻𝑗
2𝐴
]
Ecuación 6
Donde
A= Número de píxeles por contenedor a igualar
𝐻𝑗 = Número de valores con el valor i
Int= Entero de la función, busca truncar los valores a enteros para el cálculo
𝐵𝑗= Número de contenedores por píxel con valor i
Se debe tener en cuenta que:
“El contraste entre los píxeles de la cola, que generalmente componen las regiones
más oscuras y más brillantes de la imagen de entrada, se pierde.
El histograma resultante no es exactamente plano, ya que los píxeles rara vez se
pueden agrupar juntos en contenedores con un número igual de píxeles.
Conjuntos de píxeles con el mismo valor nunca se separan para formar la igualdad
de contenedores” ( Guide, 1999) .
16
5.1.4. Índice de factor optimo
Se realizaron combinaciones RGB, escogiendo la composición optima mediante el método
Índice de Factor óptimo OIF por sus siglas en inglés, el cual, “es un valor estadístico que se
puede utilizar para seleccionarla combinación óptima de tres bandas de una imagen de
satélite para crear una composición de color. La combinación óptima de bandas fuera de
todas las posibles combinaciones de 3 bandas es la que tiene mayor cantidad de
información (la más alta suma de desviaciones estándar) , con la menor cantidad dela
duplicación (correlación baja entre pares de bandas ) ” (Li, Chen, &Sun, 2013) .
Se calcula en dos pasos:
El primero es hallar la cantidad de bandas que se pueden combinar mediante la
ecuación 8.
𝑁3 =𝑁!
3! ∗ (𝑁 − 3)
Ecuación 7
Donde N es el total de bandas en la imagen
La segunda es el cálculo del índice OIF usando la ecuación 9.
𝑂𝐼𝐹 =𝑆𝑡𝑑𝑖 + 𝑆𝑡𝑑𝑗 + 𝑆𝑡𝑑𝑘
|𝐶𝑜𝑟𝑟𝑖,𝑗| + |𝐶𝑜𝑟𝑟𝑗.𝑘| + |𝐶𝑜𝑟𝑟𝑖,𝑘|
Ecuación 8
Donde 𝑆𝑡𝑑𝑖, es la desviación estándar de la Banda I;
𝑆𝑡𝑑𝑗 , es la desviación estándar de Bandj;
𝑆𝑡𝑑𝑘, es la desviación estándar de Band k;
𝐶𝑜𝑟𝑟𝑖,𝑗, es el coeficiente de correlación de Banda i y Bandaj;
17
𝐶𝑜𝑟𝑟𝑖,𝑘, es el coeficiente de correlación de Banda i,Banda k;
𝐶𝑜𝑟𝑟𝑗.𝑘, es el coeficiente de correlación de Banda j, k
5.2. La transformada Wavelet
Consiste en descomponer la señal por medio de ciertas funciones Wavelet, las cuales se
obtienen a partir de una función Wavelet madre. La descomposición permite obtener unos
coeficientes que son susceptibles de interpretación y posterior manipulación (Balbuena,
2007) . Formalmente según (Victorino, 2011) la transformada Wavelet es una
descomposición multi-escala, desarrollada para analizar funciones o señales de una
dimensión y ha demostrado que es la representación óptima en señales suaves a trozos, con
un número finito de discontinuidades. Las bases Wavelet son funciones 𝜓 Є 𝐿2 (R) que
cumplen con dos condiciones: están localizadas en tiempo y frecuencia, es decir 𝜓 (𝑥) < ɛ
para |𝑥|>T, con T<∞ y su transformada de Fourier 𝜓 (𝜉) < ɛ con |𝜉|>Ω, con Ω<∞, aquí ɛ,
Є son valores muy pequeños y |𝑇|,|𝛺| marcan los límites de los intervalos en donde está
definida la Wavelet en el tiempo y la frecuencia respectivamente. La segunda es la
condición de admisibilibilidad dada por:
𝟐𝝅 ∫|𝝍(𝝃)|𝟐 ∗ |𝝃|−𝟏𝒅𝝃 < ∞. Se asume que ‖𝝍‖ = 𝟏 y que ∫ 𝝍(𝒙)𝒅𝒙 = 𝟎∞
−∞
Ecuación 9
Se aplicaron las Wavelet Haar, Daubechies, Symlet, Coiflet, Biortogonal, Biortogonal
inversa y Dmeyer estas son “familias Wavelet estándar, incluyendo filtros Wavelet
Daubechies, Morlet complejo y Gauss, biortogonal inversa real y discreta Meyer” (M. U.
Guide, 1998)
Para la ejecución de las rutinas de programación se usó el software Matlab, en la
herramienta Wavelet Toolbox, y la utilización de código en la determinación de
18
coeficientes “para el análisis, la codificación, la compresión, la reconstrucción y el
modelado de (…) imágenes” ( Guide, 1998) .
5.2.1. Wavelet Symlet 5
Pertenece a una familia Wavelets derivadas del nombre “symmetrical Wavelets”, se crearon
con el objetivo fundamental de obtener la mayor simetría posible en las funciones a aplicar
(Sarría, 2007) .
No son perfectamente simétricas, pero se diseñaron con la intención de conseguir un
soporte relativamente compacto y el mayor número de momentos nulos (Sarría, 2007) .
Las Wavelet pueden clasificarse en tres grandes grupos según su simetría: Simétricas, casi
simétricas y asimétricas, (Pazmiño Altamirano, 2012) . “Las funciones Wavelet casi
simétricas, como las Coiflet o las Symlet, siguen teniendo un soporte mínimo en el
intervalo [-p+1, p] con p momentos nulos, pero tienen filtros asociados más simétricos
respecto del centro de su soporte y por ello no se concentra la energía de la imagen en uno
u otro extremo sino que se concentra en la parte central” (Sarría, 2007) . Por esto sus raíces
se seleccionan “de otro conjunto que tengan simetría más cerca, pero con fase lineal
compleja” (Chun-Lin, 2010) .
A partir de la Wavelet existen generalizaciones y extensiones como es el caso de las
transformadas de Contourlet, Curvelet y Ridgilet («Curvelet Home», 2015)
5.3. La transformada Contourlet
El propósito principal de la elaboración de la Contourlet es “realizar una expansión
dispersa de las imágenes típicas que son suaves por partes pero que están lejos de ser contornos
totalmente suaves” (Daza, Pinilla, & Joyanes, 2011) . Se tienen para la Contourlet
19
características de direccionalidad y captura de contornos, así mismo posee particularidades
de las Wavelet entre ellas la multiescala, tiempo frecuencia y localización (Vitousek,
1994) , adicionalmente gozan de alto grado de direccionalidad y anisotropía (Daza et al.,
2011) .
La mayor ventaja de estas transformada de Contourlet es la posibilidad de mejorar los
contornos, o representar contornos suaves con menos coeficientes de los proporcionados
por las Wavelet, sus funciones base, están orientadas en potencias de dos, con respecto al
número de direcciones y permiten relaciones de aspecto flexible (Minh N. Do & Vetterli,
2003) . Los soportes de las Wavelet son cuadrados, lo que solo permite capturar
discontinuidades puntuales, por el contrario las Contourlet, tiene soportes alargados que
capturan con más suavidad los contornos, en la Figura 3 se describe esta situación, en
donde se encuentra a la izquierda el soporte de las Wavelets y a la derecha el de las
Contourlet.
Figura 3. Izquierda, Wavelets de soporte cuadrado sobre el contorno. Derecha, Contourlet soportes alargados para
capturar mejor las discontinuidades
(Minh N. Do & Vetterli, 2003)
Para realizar la construcción de la Contourlet primero se debe realizar la pirámide
laplaciana; este, es uno de los métodos para obtener la descomposición multiescala, por sus
20
siglas en inglés (LP) . En la Figura 4, se observa la descomposición en 5 niveles de la
pirámide Gaussiana, la cual es necesaria para producir la pirámide Laplaciana.
Figura 4.Piramide Laplaciana.
Descrita en (Burt& Adelson, 1983)
El propósito general de este proceso de codificación en encontrar valores dentro de G1 que
sirvan como predicción para G0, donde la función Laplaciana se forma de la resta de dos
funciones Gaussianas provenientes de la ampliación de G1 y la resta de G0, y por esta
razón la imagen que contiene el error se convierte en el nivel inferior de la pirámide
proceso sucesivo para los demás niveles de la misma (Balbuena, 2007) . Finalmente se
puede decir que la pirámide Laplaciana se genera de la sucesión de errores, formándose de
la diferencia entre los errores de la pirámide Gaussiana. La Figura 5 describe la formación
de la pirámide Laplaciana a partir de la pirámide Gaussiana.
Figura 5. Formación de la pirámide Laplaciana, línea inferior, a partir de la pirámide Gaussiana, imagen superior.
Imagen “Lady”.
(Burt & Adelson, 1983)
21
La Figura 6a) , representa la descomposición de la pirámide Laplaciana, generada partir de
la disminución en tamaño en factor de 2, mientras que la la Figura 6a) , muestra que la
Wavelet es dividida entre 6 por los filtros y toma una parte de los factores (aproximación) ,
para el siguiente nivel de descomposición.
a) b)
Figura 6. a) Pirámide Laplaciana. b) Pirámide Wavelet.
(Balbuena, 2007)
Dado que el análisis de la transformada Contourlet se hace también de forma direccional es
necesario aplicar el concepto de bancos de filtros direccionales.
5.3.1. Bancos de filtros direccionales
La descomposición direccional se introdujo con el concepto de bancos de filtros
direccionales DBF de sus siglas en inglés, fueron diseñados para capturar componentes a
altas frecuencias, por lo que las bajas frecuencias no pueden ser tratadas por los DBF, este
es el motivo por el cual se hizo necesario combinar el analisis con los esquemas de
multiresolución (Daza, Aguilar, Ruiz, Ardila, & Pineda, s. f.) . Con este fin los DBF se
pueden decimar al maximo para lograr una reconstruccion perfecta, las operaciones de
muestreo son definidas por medio de enrejados (Balbuena, 2007) , estos pueden ser de
diferentes tipos de filtros, el de ventilado, de rombo y cuadrados son tratados en (M.N. Do
22
& Vetterli, 2005) tal y como se observa en la Figura 7, en donde se encuentran los
diferentes tipos de filtros aplicados, en donde se encuentran, ventilador, cuadrados y la
combinación del mismo, con frecuencia de uso igual a 3.
Figura 7. De izquierda a derecha. Primer nivel de filtros, Ventilador. Segundo nivel de filtros, Cuadrados.
Combinación de dos niveles de filtros. Partición de frecuencias con n=3
(Balbuena, 2007)
Por otro lado la descomposición multiescala busca la aplicación de la piramide laplaciana al
banco filtros direccionales piramidales, estos ortogonales y submuestreados de orden dos
para cada dimensión (Balbuena, 2007) . Para esto se genera una secuencia de espacios
jerarquizados que son invariantes al corrrimiento y a la escala, dado que el subespacio
creado esta definido sobre una repartición uniforme de intervalos, que caracteriza la
aproximación de la imagen a la resolución; y los detalles para incrementar la resolución
estan guardados en las imágenes de la piramide Laplaciana (Minh N. Do & Vetterli, 2003)
. Finalmente con las LP (Piramides Laplacianas) , es posible utilizar los DBF, a traves de
las pasabandas, lleva a la captura eficiente en altas frecuencias de información direccional
(Daza et al., s. f.) , sin embargo como las frecuencias bajas no son tenidas en cuenta en este
proceso es necesario eliminarlas antes del filtrado; la repetición del procesamiento genera
una estructura doble iterada de filtros (M.N. Do & Vetterli, 2005) ; lo que se conoce como
Banco de filtros direccional piramidal (Balbuena, 2007) .
23
Esta porporciona una dirección diferente en cada escala y el anáisis se hace mas flexible y
preciso. En la Figura 8 se muestra graficamente la descomposicion multiescala y direcional
aplicadas, y asi mismo la descomposición multiresolución que resulta ser la combinación
de las primeras.
Figura 8. Izquierda. Diagrama de bloques. Derecha. Combinación multiescala y multiresolución.
(Daza et al., s. f.)
5.4. La transformada de Ridgelet
Propuesta en la tesis doctoral de Emmanuel Càndes (Candes, 1998) , se especifica así
(Candès & Donoho, 1999) :
En 𝑅2 se define una función suave univariante 𝜓: 𝑅 → 𝑅 con suficiente decadencia y fuga
media ∫ 𝜓(𝑡)𝑑𝑡 = 0. Para cada a>0, cada b Є R y cada 𝜃 Є [0, 2𝜋), se define la función
bivariante de 𝜓𝑎,𝑏,𝜃: 𝑅2 → 𝑅2 por la ecuación 11.
𝝍𝒂,𝒃,𝜽(𝒙) = 𝒂−𝟏/𝟐. 𝝍 ( (𝐜𝐨𝐬 ( 𝜽) 𝒙𝟏 + 𝐬𝐢𝐧(𝜽)𝒙𝟐 − 𝒃) /𝒂) )
Ecuación 10
Esta función es constante a lo largo de las “ridges o crestas”
cos ( 𝜃) 𝑥1 + sin(𝜃)𝑥2 = 𝑐𝑜𝑛𝑠𝑡.
Ecuación 11
24
Transversa a estas ridges es una Wavelet, de allí el nombre de Ridgelet. Dada una función
integrable bivariante f (x) se definen los coeficientes de Ridgelet. Su dimensión según
(Balbuena, 2007) está dada por la ecuación 12.
𝝎 ∈ |𝟐𝒔, 𝟐𝒔+𝟏|
Ecuación 12
Ya que es una función Wavelet a una escala a lo largo de la dirección ortogonal.
5.5. La transformada Curvelet
Fue propuesta por (Candµes&Donoho, 1999) , dadas las continuas necesidades de análisis
de imágenes que ya no eran cubiertas por las transformadas Wavelet o Fourier, se
desarrolló principalmente en el contexto de los objetos y formas, para representar bordes de
discontinuidades a lo largo de curvas, mucho mejor que las transformadas Wavelet.
Mediante la Curvelet existe la posibilidad de realizar una reconstrucción con buena
precisión mediante una cantidad mucho menor de coeficientes en el proceso (Donoho&
Duncan, 2000) .
En términos generales según (Donoho& Duncan, 2000) con una reconstrucción a partir de
la Wavelet se obtiene un error al representar un borde de 1/N; mientras que con las Curvelet
se obtiene únicamente un error de 1/√𝑁 coeficientes.
Entonces la transformada de Curvelet “es una transformada multiescala, con elementos de
marco indexados por parámetros de escala y ubicación, además de un alto grado de
especificidad en su pirámide de construcción. Se basa además en un principio escalar
anisotrópico que las Wavelet no tienen dado que para sus ondas es únicamente isotrópico”
(Donoho& Duncan, 2000) .
25
También comparten unas características de escalamiento especial, donde la longitud de
apoyo de los elementos y la anchura están vinculados mediante 𝑎𝑛𝑐ℎ𝑜 ≈ 𝑙𝑜𝑔𝑖𝑡𝑢𝑑2
Se hace uso de unos cuadros ajustados para el espacio 𝐿2(𝑅2) conformados por un conjunto
de análisis de elementos indexados en tuplas (Donoho& Duncan, 2000) (Emmanuel
&Donoho, 2000) que cumple con las siguientes propiedades principales:
Definición de la transformación
∝𝜇= ⟨𝑓, 𝛾𝜇⟩, 𝑑𝑜𝑛𝑑𝑒 𝜇 𝜖 𝑀′
Ecuación 13
Relación de Parseval
‖𝑓‖22 = ∑ |∝𝜇|
2
𝜇 𝜖 𝑀′
Ecuación 14
Formula de reconstrucción de 𝐿2
𝑓 = ∑ ⟨𝑓, 𝛾𝜇⟩𝛾𝜇
𝜇 𝜖 𝑀′
Ecuación 15
Estas propiedades son equivalentes a una base ortonormal y permiten una estabilidad de la
representación (Donoho& Duncan, 2000) .
En la Figura 9, se muestra el proceso de la construcción de la Curvelet que requiere de la
aplicación de bancos de filtros, la escala de la cuadricula a utilizar, el análisis Ridgilet, y su
inversa para recuperar las condiciones iniciales de la imagen.
26
Figura 9. Implementación general de la transformada Curvelet.
(Donoho& Duncan, 2000)
Estos pasos necesarios en la construcción y mejoramiento de la imagen son:
Descomposición sub-banda: La imagen es dividida en bandas de resolución, definiendo un
banco de filtros de la subbanda P0, (∆𝑠, 𝑠 ≥ 0). El objeto 𝑓 es filtrado en sub bandas como
muestra la ecuación 16.
𝑓 → (P0𝑓, ∆1𝑓, ∆2𝑓, … )
Ecuación 16
Cada banda contiene detalles de diferentes frecuencias
P0 Contiene el filtro paso- bajo
∆1, ∆2, … Contiene el filtro pasa banda y los detalles 2−2𝑠 del ancho (Devir & Shpinner,
2006) (Emmanuel & Donoho, 2000)
Partición de superficies suaves: Se definen una colección de ventanas lisas 𝑤𝑄(𝑥1, 𝑥2)
localizadas a lrededor de la cuadricula diádica usando la ecuación 18.
27
𝑄 = [𝑘1
2𝑠, (
𝑘1 + 1
2𝑠)] 𝑋 [
𝑘2
2𝑠 , (
𝑘2 + 1
2𝑠)]
Ecuación 17
En esta etapa del procedimiento, se aplica esta disección de ventanas a cada una de las sub-
bandas aisladas en la etapa anterior del algoritmo” (Donoho& Duncan, 2000) .
En este procedimiento se deben considerar varios asuntos importantes, buscando la
reconstrucción exacta de la imagen, se construyó la función de ventana, es una función w
lisa no negativa que proporciona una partición de la energía dada por la ecuación 19.
∑ 𝐰𝟐 (𝐱𝟏 − 𝐤𝟏, 𝐱𝟐 − 𝐤𝟐)
𝐤𝟏𝐤𝟐
≡ 𝟏, ∀ (𝐱𝟏, 𝐱𝟐)
Ecuación 18
También la fórmula de reconstrucción dada por la ecuación 20.
∑ 𝑤𝑄 . ℎ𝑄
𝑄∈ ℌ𝑠
= ∑ 𝑤𝑄2. ℎ = ℎ,
𝑄∈ ℌ𝑠
Ecuación 19
Y finalmente la propiedad de conservación de la energía, presentada en la ecuación 21
(Donoho& Duncan, 2000)
∑ ‖ℎ𝑄‖2
2
𝑄∈ ℌ𝑠
= ∑ ∫ 𝑤𝑄2ℎ2 =
𝑄∈ ℌ𝑠
∫ ∑ 𝑤𝑄2ℎ2
𝑄∈ ℌ𝑠
= ∫ ℎ2 = ‖ℎ𝑄‖2
2
Ecuación 20
Renormalización: Para el cuadro Q, se tiene la ecuación 22, aplicada así:
(𝑇𝑄𝑓)(𝑥1, 𝑥2) = 2𝑠𝑓(2𝑠𝑥1 − 𝑘1, 2𝑠𝑥2 − 𝑘2)
Ecuación 21
28
“Denota el operador que transporta y normaliza f de manera que la parte de la entrada
apoyado cerca de Q se convierte en la parte de la salida apoyada cerca de [0,1]2.
En esta etapa del procedimiento, cada “cuadrícula” resultante en la etapa anterior se
renormalizado a escala de unidades” (Donoho& Duncan, 2000) .
𝑔𝑄 = (𝑇𝑄)−1
(𝑤𝑄∆𝑠𝑓), 𝑄 ∈ ℌ𝑠
Ecuación 22
Es decir centra cada cuadro diádico a las unidad cuadrada [0,1]X[0,1] (Devir & Shpinner,
2006)
Análisis Ridgelet: Cada cuadricula es analizada en el sistema ridgelet ortonormal. Este es
un sistema de elementos de la base 𝜌𝜆 que produce una ortobase para 𝐿2(𝑅2)
∝𝜇= ⟨𝑔𝑄 , 𝜌𝜆⟩, 𝜇 = (𝑄, 𝜆)
Ecuación 23
Es decir si se tiene un objeto f, que representa el borde, una vez se realiza el filtrado por
sub-banda, cada proceso da como resultado la producción de una sub banda de escala fina,
que contendrá un mapa de los bordes engrosados en un factor 2−2𝑠 de acuerdo al operador
de filtro de sub banda. Esto provee a la sub banda una colección de crestas lisas (ridges) .
Cuando se divide, entonces cada sub banda en “cuadriculas”, si existe un cuadro vacío, es
decir, el cuadro no tiene cruces con el borde; o un fragmento de cresta. Las ridges son casi
rectas a escalas finas, debido a que el borde es casi una recta, y estos fragmentos son los
datos de entrada ideales para la transformada Ridgelet.
29
El proceso anterior se puede evidenciar en la Figura 10, en la cual se observa el proceso de
entrada del objeto f, del que es producida la cuadricula, separados los bordes a lo largo de
la cuadricula y el aislamiento de cada cuadro donde únicamente se toman los que tienen
coincidencia con los bordes.
Figura 10. Descomposición espacial de una sola banda
(Donoho& Duncan, 2000)
Las ridgelet divide el dominio de la frecuencia en coronas diádicas |𝜉|𝜖 [2𝑠, 2𝑠+1], en su
dirección angular, el muestreo de las s coronas se hace al menos 2s veces.
Mientras que en la dirección radial se usan Wavelets locales.
La fórmula en el dominio de la frecuencia de la Ridgelet está dada por la ecuación 25.
𝜌�̂�(𝜉) =1
2|𝜉|−
12(𝜓𝑗,𝑘 (̂|𝜉|). 𝑤𝑖,𝑙(𝜃) + 𝜓𝑗,�̂�(−|𝜉|). 𝑤𝑖,𝑙(𝜃 + 𝜋))
Ecuación 24
30
Donde,
𝑤𝑖,𝑙 Son Wavelets periódicas para [𝜋, 𝜋)
i es la escala angular y 𝑙 ∈ [0, 2𝑖−1 − 1] es la localización angular
𝜓𝑗,𝑘 Son las Wavelets Meyer para ℜ
j es la escala ridgelet y k es la localización ridgelet (Devir & Shpinner, 2006)
Estos procedimientos se pueden observar gráficamente en la Figura 11, en la misma se
encuentra el análisis a realizar sobre un fragmento de ridge, encontrando los cuadros de
importancia, aplicando la transformada de Fourier, posterior se define la cuadricula, se
aplican las ridgilets a cada segmento y se aplica a transformada inversa bajo divisiones
angulares.
Figura 11. Análisis ridgelet de un fragmento de ridge
(Donoho& Duncan, 2000)
Esto significa entonces que cuando se encuentra un objeto con una transformada de Fourier,
que parece un fragmento de dicha ridge, se puede representar con muy pocos coeficientes.
El fragmento ridge se apoya en una banda de resolución angular de 2s, de tal manera que
tiene un orden de 2s coeficientes para representar un fragmento individual, únicamente la
base ridgelet tiene la localización angular capaz de imitar el fragmento ridge
31
Una vez se obtiene los coeficientes Ridgilet se puede realizar una reconstrucción que
también requiere varios pasos los cuales comprenden
La síntesis ridgelet: Cada cuadro es reconstruido desde un sistema ortonormal ridgelet
𝑔𝑄 = ∑ 𝛼 (𝜆, 𝑄) 𝜌𝜆
𝜆
Ecuación 25
Renormalización: Cada cuadro resultante en el paso anterior es renormalizado a su propio
cuadro adecuado
ℎ𝑄 = (𝑇𝑄)𝑔𝑄, 𝑄 ∈ ℌ𝑠
Ecuación 26
Integración de bordes: Inversa de la disección de ventanas a cada una de las ventanas
reconstruidas en el paso anterior
∆𝑠𝑓 = ∑ 𝑤𝑄 . ℎ𝑄
𝑄∈ ℌ𝑠
Ecuación 27
Recomposición sub banda: Finalmente se deshacen los bancos de filtros de sub banda
P0(P0𝑓) + ∑ ∆𝑠 (∆𝑠𝑓)
𝑠>0
Ecuación 28
5.6. Criterio estadístico de selección
El criterio estadístico matemático está compuesto por la creación de varios índices
calculados para evaluar las fusiones y su capacidad de conservar la calidad espectral y
espacial de las imágenes resultantes. Fue propuesto por (Wald, 2002) .
32
Para esta evaluación se aplicaron los estadísticos Entropía, Calidad Universal, Divergencia,
Bias, Coeficiente de correlación, RASE, RMSE, ERGAS, RASE, explicados en el marco
teórico; estos algoritmos fueron implementados mediante el código “Hyperspectral Image
Index Analysis” (Vaiopoulos, 2011) .
El índice ERGAS espectral (del francés Erreur Relative Globale Adimensionalle de
Synthèse) (Medina et al., 2013) viene dada por la ecuación 29.
𝑬𝑹𝑮𝑨𝑺𝑬𝒔𝒑𝒆𝒄𝒕𝒓𝒂𝒍 = 𝟏𝟎𝟎𝒉
𝒍√
𝟏
𝑵𝒃𝒂𝒏𝒅𝒂𝒔∑ [
(𝑹𝑴𝑺𝑬𝑬𝒔𝒑𝒆𝒄𝒕𝒓𝒂𝒍(𝑩𝒂𝒏𝒅𝒂𝒊))𝟐
(𝑴𝑼𝑳𝑻𝑰𝒊)𝟐]
𝑵𝑩𝒂𝒏𝒅𝒂𝒔
𝒊=𝟏
Ecuación 29
Donde h y l representan la resolución espacial de las imágenes pancromáticas ( PAN ) y
multiespectrales (MULTI ) ; NBands es el número de bandas de la imagen fusionada;
MULTI i es el valor de la radiancia e la banda i − ésima de imagen (Wald, 2000) y RMSE
será definida en la ecuación 30 (Medina et al., 2013) .
𝑅𝑀𝑆𝐸𝐸𝑠𝑝𝑒𝑐𝑡𝑟𝑎𝑙 (𝐵𝑎𝑛𝑑𝑎𝑖) =1
𝑁𝑃√∑ (𝑀𝑈𝐿𝑇𝐼𝑖(𝑗) − 𝐹𝑈𝑆𝑖 (𝑗) ) 2
𝑁𝑃
𝑖=1
Ecuación 30
También existe un ERGAS espacial y su respectivo error el cual evalúa la calidad espacial
de las imágenes y está basado en el anterior.
El índice RASE se expresa como un porcentaje bajo la ecuación 31.
33
𝑹𝑨𝑺𝑬 = 𝟏𝟎𝟎𝒉
𝒍√
𝟏
𝑵∑ [
(𝑹𝑴𝑺𝑬(𝑩𝒊)𝟐)
𝑴𝒊𝟐 ]
𝒏
𝒊=𝟏
Ecuación 31
Donde h es la alta resolución espacial (imagen pancromática) y l es la baja resolución
espectral (imagen multiespectral) (Wald, 2000) . Los mejores resultados se obtienen
cuanto el porcentaje está más cerca a cero (Medina et al., 2013) .
La calidad universal proporciona un modelo de índice de calidad identifica cualquier
distorsión como una combinación de tres factores: pérdida de correlación, distorsión de
luminancia y contraste de distorsión (Medina et al., 2013) . Los mejores valores de este
índice se obtienen cuando el valor es más cercano a uno.
𝑸 =𝝈𝒙𝒚
𝝈𝒙𝝈𝒚 .
𝟐�̅��̅�
(�̅�)𝟐(�̅�)𝟐 .
𝟐𝝈𝒙𝝈𝒚
𝝈𝒙𝟐 + 𝝈𝒙
𝟐
Ecuación 32
Así mismo el coeficiente de correlación, donde la correlación entre las diferentes bandas
de las imágenes fusionadas y las bandas de la imagen original se pueden calcular así:
𝒄𝒐𝒓𝒓 (𝑨/𝑩) =∑ (𝑨𝒋 − �̅�) (𝑩𝒋 − �̅�)
𝒏𝒑𝒊𝒙𝒋=𝟏
√∑ (𝑨𝒋 − �̅�) ∑ (𝑩𝒋 − �̅�) 𝒏𝒑𝒊𝒙𝒋=𝟏
𝒏𝒑𝒊𝒙𝒋=𝟏
Ecuación 33
Donde A y B son los valores media de las imágenes correspondientes, corr (A/ B) se llama
coeficiente de correlación y varía entre –1 y +1. Se usan los signos + y – para las
correlaciones positivas y negativas, respectivamente. Nótese que corr (A/ B) es una
cantidad adimensional. Se espera que el valor de la correlación sea 1. (Medina et al., 2013)
. Tambien se utilizaron los índices:
34
BIAS, “el principio básico de la fidelidad espectral es que la información de baja frecuencia
espacial en la imagen de alta resolución no debe ser absorbido a la imagen de fusión, a fin
de preservar el contenido espectral de la imagen original de multiresolución” (Morales &
Azuela, 2011) .
Bias de media es la diferencia entre las medias de la imagen original multiespectral y de la
imagen fusionada, su valor se da en relación a la imagen original y el valor ideal debe ser
cero (Morales & Azuela, 2011) . Esta dado por la ecuación 30.
𝑩𝑴 = 𝟏 −𝑴𝒆𝒅𝒊𝒂 (𝑰𝒎𝒂𝒈𝒆𝒏 𝒇𝒖𝒔𝒊𝒐𝒏𝒂𝒅𝒂)
𝑴𝒆𝒅𝒊𝒂 (𝑰𝒎𝒂𝒈𝒆𝒏 𝒐𝒓𝒊𝒈𝒊𝒏𝒂𝒍)
Ecuación 34
ENTROPIA, puede mostrar la información de media incluida en la imagen y reflejar la
información de detalle de la imagen fusionada; comúnmente la mayor es la entropía de la
imagen fusionada, la información más abundante está incluida en ella y mayor será la
calidad de la fusión. A mayor entropía se presentara más desorden en los niveles de gris
(Morales & Azuela, 2011) . Esta dada por la ecuación 35.
𝑬 = − ∑ 𝑷𝒊 𝐥𝐨𝐠𝟐 𝑷𝒊
𝟐𝟓𝟓
𝒊=𝟎
Ecuación 35
DIVERGENCIA: Es la diferencia entre las varianzas de la imagen original y la imagen
fusionada, su valor ideal es 0. Está dada por la ecuación 36.
𝑫𝒊𝒗 = 𝟏 −𝑽𝒂𝒓𝒊𝒂𝒏𝒛𝒂 (𝑰𝒎𝒂𝒈𝒆𝒏 𝒇𝒖𝒔𝒊𝒐𝒏𝒂𝒅𝒂)
𝑽𝒂𝒓𝒊𝒂𝒏𝒛𝒂 (𝑰𝒎𝒂𝒈𝒆𝒏 𝒐𝒓𝒊𝒈𝒊𝒏𝒂𝒍)
Ecuación 36
35
Se tomó como criterio de decisión el estadístico de calidad Universal (Q), porque este
evalúa la distorsión en tres factores: perdida de correlación, distorsión de luminancia y
contraste; y para la aplicación de la MM se busca la menor distorsión posible. En caso de
existir valores iguales o muy cercanos se decide tomar como segundo criterio de decisión el
valor del índice de correlación (CC) , porque este permite evaluar la relación de pérdida de
información entre la imagen original y la fusionada.
5.7. Criterio teórico de selección
Este criterio se usó basado en (Medina & Lizarazo, 2004) , donde se determina la elección
del nivel de descomposición adecuado, se calcula con la ecuación 37
B
A= k = 2n, donde n ∈ Z
Ecuación 37
El nivel de descomposición adecuado es cercano a 2n
B, equivale a la imagen multiespectral en metros.
A, corresponde a la imagen pancromática en metros.
5.8. Criterio Visual de evaluación
El propósito principal de las imágenes de satélite es describir, evaluar y representar
visualmente las características físicas y las actividades en la Tierra. La visualización directa
de los objetos y las clases potenciales de interés llevan al descubrimiento de información a
través de análisis e interpretación para diversas tareas (Bratasanu et al., 2012)
La visualización tiene que ser eficaz y eficiente (van Wijk, 2006) .
36
La cantidad de ganancia de conocimiento es una función de la imagen, del conocimiento a
priori del usuario y las propiedades particulares de las capacidades perceptivas y cognitivas
del usuario. El objetivo de métodos de visualización, ya sea por técnicas de procesamiento
de imagen eso mediante la selección de bandas espectrales específicas, es maximizar la
respuesta en el sistema visual humano y aumentar la prominencia del objeto / área de
interés (Bratasanu et al., 2012) .
Los elementos dentro de una imagen que proporcionan acceso directo a tareas de detección,
identificación y medición de análisis avanzado de imágenes incluyen: tono / color, tamaño,
forma, textura, patrón, matiz, sombra y asociación Figura 12 muestra los elementos
relacionadas con la que proceso de interpretación de imágenes, como una función de su
grado de complejidad (Bratasanu et al., 2012) .
Figura 12. Ordenamiento primario de elementos fundamentales de imagen para proceso de análisis.
Elaboración propia.
El primer paso en todas las tareas de interpretación imagen es para detectar e identificar
fenómenos importantes (Bratasanu et al., 2012) .
Una vez se aplican las diferentes transformadas y se realiza la respectiva evaluación con los
índices matemáticos explicados es posible realizar otros procesos aplicativos, en el presente
37
trabajo es el uso de algoritmos definidos posteriormente de morfología matemática, sobre
objetos geográficos
Para la aplicación de los algoritmos de morfología matemática, se hizo necesario, escoger
los objetos geográficos de estudio, aplicar el proceso previo de umbralización y
posteriormente los diferentes algoritmos, además se realizaron varias evaluaciones en el
proceso, a continuación se presentan la contextualización de los diferentes procesos.
5.9. Objeto geográfico
Se define como una serie de “abstracciones de elementos del mundo real que están
asociadas a una posición geográfica y temporal definida, respectivamente, en un sistema de
referencia espacial y temporal. Estos objetos presentes en el mundo real tienen dos tipos
básicos de abstracción: ocurrencias y tipos («ICDE -Objetos Geográficos», 2014) .
Ocurrencia o instancia: Es cualquier objeto que es diferenciado de los demás teniendo en
cuenta sus características propias, es decir, se particulariza o se vuelve único.
Tipo: Cuando un conjunto de elementos posee características similares y éstos son
abstraídos como una clase de elemento, se les llama tipos. Esta forma de abstracción es
comúnmente utilizada para la definición de catálogos
Los objetos geográficos tienen características que aseguran la posibilidad de cumplir con su
uso como información geográfica. Entre las principales características se encuentran:
Ubicación absoluta en el espacio
38
Su carácter geográfico exige que siempre estén relacionados a un sistema de
coordenadas referido a la superficie terrestre. Por tanto, siempre tendrán una
posición absoluta al origen de coordenadas para su ubicación.
Ubicación relativa en el espacio
Los objetos también pueden ser ubicados con base en la posición de otros objetos,
de manera que tanto distancia como orientación son fácilmente precisadas por el
carácter geográfico de otro objeto.
Posee como mínimo una característica (atributo) que lo describe o define
Además de poder ser ubicados, los objetos geográficos deben estar definidos por
uno o más atributos que capturan información para el análisis en aplicaciones y
particularizan elementos (instanciación) .
Son objetos que puede ser representados a través de una primitiva geométrica
Vector (punto, línea, polígono) , Ráster (píxel, voxel)
Un objeto tiene una serie de componentes cuya función es lograr una documentación
precisa y completa del mismo. Un objeto geográfico debe simular características y
comportamientos de su realidad por tanto se deben mostrar y definir dichos
comportamientos y para lograrlo un objeto se compone de los siguientes ítems:
Atributos: Los atributos documentan los objetos geográficos, buscan describirlos
tomando valores propios en cada instancia del objeto.
Relaciones: Son unas correspondencias o interacciones entre dos o más objetos.
Operaciones: Son funciones realizadas a nivel de instancia de un objeto” («ICDE -
Objetos Geográficos», 2014) .
39
Los objetos geográficos elegidos en el trabajo fueron sometidos al proceso de
umbralización para usar posteriormente la morfología matemática dado que se trató sobre
imágenes binarias.
5.10. Umbralización
En (Marques, 2011) se describe el proceso de Umbralización como “El problema básico
es la conversión de una imagen con muchos niveles de gris en otra imagen con un menor
número de niveles de gris , por lo general sólo dos. Esta conversión se realiza generalmente
mediante la comparación de cada intensidad de píxel con un valor de referencia (umbral,
de ahí el nombre) y su sustitución por el píxel con un valor que significa " blanco " o"
Negro " en función del resultado de la comparación”.
Lo que busca es separar características de un objeto dentro de una imagen de su fondo, para
de esta manera binarizarlos.
Es una técnica muy utilizada en el procesamiento en las imágenes ya que posee propiedades
intuitivas, es simple y fácil de implementar (Marques, 2011) .
El primero es aplicar un umbral T, la imagen en escala de grises 𝑓 (𝑥, 𝑦) , quedará
binarizada; etiquetando los píxeles correspondientes a la forma con 1, y los del fondo con
0.
Existen dos formas principales para aplicar el proceso:
Si los objetos son claros con respecto al fondo entonces se podría aplicar la ecuación 38.
𝑔(𝑥, 𝑦) = {1 ⇔ 𝑓(𝑥, 𝑦) > 𝑇
0 ⇔ 𝑓(𝑥, 𝑦) ≤ 𝑇}
Ecuación 38
40
Si los objetos son oscuros respecto al fondo, entonces se invierte la formula anterior a la
ecuación 39.
𝑔(𝑥, 𝑦) = {1 ⇔ 𝑓(𝑥, 𝑦) < 𝑇
0 ⇔ 𝑓(𝑥, 𝑦) ≥ 𝑇}
Ecuación 39
El umbral puede tener varias características según su dependencia:
𝑇 = 𝑇 (𝑓(𝑥, 𝑦), 𝑝(𝑥, 𝑦), 𝑥, y)
Ecuación 40
Si depende de la función 𝑓 (𝑥, 𝑦) , se denomina umbral global.
Si por otro lado, depende de las propiedades locales del píxel, se denomina local.
Y si además depende también de su propia posición, entonces, se denomina
dinámico.
Así mismo, el histograma unidimensional de la imagen es un factor importante en las
técnicas de umbralización, la mayoría dependen de este (Cattaneo, Larcher, Ruggeri,
Herrera, & Biasoni, 2011) . Existen además otros métodos basados en la matriz de co-
ocurrencia.
Para la determinación de del umbral se pueden usar métodos paramétricos y no para
métricos; en los primeros la distribución de niveles de gris del objeto halla el umbral;
mientras que en los segundos, los umbrales se obtienen óptimamente mediante un criterio.
A pesar de los distintos métodos se dificulta el proceso dado que la mayoría de imágenes
reales presenta ruido, histogramas planos («Segmentación por Umbralización», 2005) , en
los que no se pueden diferenciar correctamente los valles en busca de un umbral optimo
41
(Otsu, 1975) una mala iluminación, o inadecuada para encontrar un buen valor del umbral.
Es por esto que se ha evaluado el Método otsu (Otsu, 1975) que es uno de los más
utilizados, y se ha hecho una comprobación con el Método de Kittler e Illingworth (Kittler &
Illingworth, 1986) que usa otra técnica para encontrar el error y resulta interesante
implementar en busca de diferencias o conveniencia en la búsqueda del umbral correcto.
5.10.1. Método Otsu
fue implementado por Noboyuki Otsu, en 1979 (Otsu, 1975) , este utiliza técnicas estadísticas,
para resolver el problema del umbral. Específicamente usa una medida de dispersión valores
(varianza) , que para el caso son los niveles de gris. Busca entonces, que la dispersión sea lo
más pequeña posible en cada clase, y al mismo tiempo sea lo más alta posible entre diferentes
clases («Tema 5: SEGMENTACIÓN», 2013)
Matemáticamente (Otsu, 1975) , define su técnica como: “Una imagen es una función
bidimensional de la intensidad de nivel de gris, contiene N píxeles cuyos niveles de gris se
encuentran entre 1 y L. El número de píxeles con nivel de gris i se denota como fi, y la
probabilidad de ocurrencia del nivel de gris i en la imagen está dada por la ecuación 41.
𝑃𝑖 =𝑓𝑖
𝑁
Ecuación 41
En el caso de la umbralización en dos niveles de una imagen (a veces llamada binarización) ,
Los píxeles son divididos en dos clases: C1, con niveles de gris [1, ...., t]; y C2, con niveles de
gris [t+1, ...., L]. Entonces, la distribución de probabilidad de los niveles de gris para las dos
clases (Cattaneo et al., 2011) es:
𝐶1 : 𝑃1
𝜔1 (𝑡) , … ,
𝑃𝑡
𝜔1 (𝑡)
42
Ecuación 42
𝐶2 : 𝑃𝑡+1
𝜔2 (𝑡) , … ,
𝑃𝑡+2
𝜔2 (𝑡) , … ,
𝑃𝐿
𝜔2 (𝑡)
Ecuación 43
En donde
𝜔1(𝑡) = ∑ 𝑃𝑖
𝑡
𝑖=1
Ecuación 44
𝜔2(𝑡) = ∑ 𝑃𝑖
𝐿
𝑖=𝑡+1
Ecuación 45
También, la media para la clase C1 y la clase C2 es
𝜇1 (𝑡) = ∑𝑖𝑃𝑖
𝜔1(𝑡)
𝑡
𝑖=1
Ecuación 46
𝜇2(𝑡) = ∑𝑖𝑃𝑖
𝜔2(𝑡)
𝐿
𝑖=𝑡+1
Ecuación 47
A partir de esto se definió la varianza de la imagen umbralizada
𝜎𝐵2 = 𝜔1 ∙ (𝜇1 − 𝜇𝑇)2 + 𝜔2 ∙ (𝜇2 − 𝜇𝑇)2
Ecuación 48
Finalmente (Otsu, 1975) verificó que el umbral óptimo t* se obtenía cuando 𝜎𝐵2 era máxima
(«Segmentación por Umbralización», 2005) , es decir:
43
𝑡∗ = 𝑀𝑎𝑥𝑡{𝜎𝐵2 (𝑡) } 1 ≤ 𝑡 ≤ 𝐿
Ecuación 49
El método puede extenderse a múltiples umbrales y múltiples niveles, incluso es posible
escribir su formulación de manera alternativa basado en las funciones de probabilidad
acumulada y la sumas de las clases ponderadas, lo que optimiza el proceso M. (L-M+1) M-1
En la Figura 13 se presenta el campo de búsqueda de la formulación alternativa del método
Otsu.
Figura 13 . Campo de búsqueda de la formulación alternativa del método Otsu
(«Segmentación por Umbralización», 2005)
Finalmente se puede resumir el proceso en siete pasos
Computar el histograma normalizado de la imagen.
Computar las sumas acumulativas.
Computar las medias acumulativas.
Computar la media global.
Computar la varianza entre clases.
Maximizar la varianza anterior.
Obtener la medida de separabilidad. («Tema 5: SEGMENTACIÓN», 2013)
44
5.10.2. Método Kittler e Illingworth
Existen múltiples métodos para la realización de la umbralización, en especial según la
información que emplean, tal y como señalan (Sezgin, 2004) por ejemplo, la forma del
histograma, la clusterización, la entropía o los atributos de la imagen.
Entre los más conocidos se encuentran los basados en la entropía como el Método de Pun y el
Método Kapur. O basados en la Clusterización como Kittler e Illingworth, en este grupo
también se encuentra el método Otsu (Cattaneo et al., 2011) .
Se decidió usar como método alternativo a Otsu el método de búsqueda del umbral propuesto
por Kittler eIllingworth (Kittler & Illingworth, 1986) “en donde se busca optimizar la función
criterio relacionada con el mínimo error promedio referido a la clasificación de los píxeles”
(Cattaneo et al., 2011) .
“Se considera al histograma como una estimación de una función de densidad de probabilidad
que es una mezcla de dos distribuciones correspondientes al foreground y background. Se
supone, además, que estas distribuciones (foreground y background) 1 tienen una distribución
normal con media y desviación estándar.” (Kittler & Illingworth, 1986)
Las funciones de densidad de probabilidad
𝑝𝑓(𝑡) =1
𝜎𝑓√2𝜋𝑒
−(𝑡−𝜇𝑓)
2
2𝜎𝑓2
Ecuación 50
1“En el contexto de procesamiento de imágenes, el foreground es el conjunto de píxeles con luminancia menor a un cierto
valor T, mientras que el background es el conjunto de píxeles con luminancias por encima de este T” (Cattaneo, Larcher,
Ruggeri, Herrera, &Biasoni, 2011)
45
𝑝𝑏(𝑡) =1
𝜎𝑏√2𝜋𝑒
−(𝑡−𝜇𝑏)2
2𝜎𝑏2
Ecuación 51
La función densidad de probabilidad del histograma
𝑝(𝑡) = 𝑃𝑓(𝑡) ∙ 𝑝𝑓(𝑡) + 𝑃𝑏(𝑡) ∙ 𝑝𝑏(𝑡)
Ecuación 52
El error mínimo se alcanza cuando seleccionamos como umbral al valor para el cual
𝑃𝑓(𝑡) ∙ 𝑝𝑓(𝑡) = 𝑃𝑏(𝑡) ∙ 𝑝𝑏(𝑡)
Ecuación 53
Aplicando logaritmo en ambos miembros, resolviendo las ecuaciones y sustituyendo los valores
de 𝜇𝑓, 𝜇𝑏, 𝜎𝑓2, 𝜎𝑏
2,con valores estimados
𝜇𝑓 (𝑡) = ∑ 𝑔𝑝 (𝑔)
𝑃𝑓(𝑇)
𝑡
𝑔=1
Ecuación 54
𝜇𝑏 (𝑡) = ∑ 𝑔𝑝 (𝑔)
𝑃𝑏(𝑇)
255
𝑔=𝑡+1
Ecuación 55
𝜎𝑓2 (𝑡) = ∑ (𝑔 − 𝜇𝑓) 2 ∙ 𝑝 (𝑔)
𝑡
𝑔=1
Ecuación 56
𝜎𝑏2 (𝑡) = ∑ (𝑔 − 𝜇𝑏) 2 ∙ 𝑝 (𝑔)
𝑡
𝑔=1
Ecuación 57
46
Se define una función criterio con la cual se busca un valor mínimo
𝐽(𝑡) = 1 + 2 (𝑃𝑓(𝑡) log 𝜎𝑓 (𝑡) + 𝑃𝑏(𝑡) log 𝜎𝑏 (𝑡)) − 2 (𝑃𝑓(𝑡) log 𝜎𝑓 (𝑡) + 𝑃𝑏(𝑡) log 𝜎𝑏 (𝑡))
Ecuación 58
𝑇∗ = 𝑀𝑖𝑛{𝐽(𝑡)}
Ecuación 59
5.10.3. Coeficiente kappa
Es un indicador de concordancia definido como el “reflejo de la concordancia inter-observador
y puede ser calculado en Tabla s de cualquier dimensión, siempre y cuando se contrasten dos
observadores (para la evaluación de concordancia de tres o más observadores, se utiliza el
coeficiente kappa de Fleiss, (…) . El coeficiente kappa puede tomar valores entre -1 y +1.
Mientras más cercano a +1, mayor es el grado de concordancia inter-observador, por el
contrario, mientras más cercano a -1, mayor es el grado de discordancia inter-observador. Un
valor de κ = 0 refleja que la concordancia observada es precisamente la que se espera a causa
exclusivamente del azar” (Cerda & VILLARROEL DEL, 2008) (de Ullibarri Galparsoro &
Pita Fernández, 1999)
Como condición se debe definir para cada celda de la diagonal principal, la cantidad teórica de
observaciones atribuibles al azar; el índice, entonces se construye como un cociente, que
incluye la diferencia entre las sumatorias de las concordancias observadas y as atribuibles al
azar, y el denominador la diferencia entre la sumatoria total de concordancias observadas y
atribuibles al azar. (Cerda & VILLARROEL DEL, 2008) Matemáticamente esto se expresa
como:
𝑘 =∑ 𝐶𝑜𝑛𝑐𝑜𝑟𝑑𝑎𝑛𝑐𝑖𝑎𝑠 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑑𝑎𝑠 − ∑ 𝐶𝑜𝑛𝑐𝑜𝑟𝑑𝑎𝑛𝑐𝑖𝑎𝑠 𝐴𝑡𝑟𝑖𝑏𝑢𝑖𝑏𝑙𝑒𝑠 𝑎𝑙 𝑎𝑧𝑎𝑟
𝑇𝑜𝑡𝑎𝑙 𝑑𝑒 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑐𝑖𝑜𝑛𝑒𝑠 − ∑ 𝐶𝑜𝑛𝑐𝑜𝑟𝑑𝑎𝑛𝑐𝑖𝑎𝑠 𝐴𝑡𝑟𝑖𝑏𝑢𝑖𝑏𝑙𝑒𝑠 𝑎𝑙 𝑎𝑧𝑎𝑟
Ecuación 60
47
Se obtuvo entonces para los objetos los resultados mostrados en la Tabla 1 del coeficiente
kappa de concordancia basada en la matriz
Tabla 1. Criterio de clasificación del índice kappa
Elaboración propia. CRITERIO OBJETO NO OBJETO
OBJETO Píxeles objeto clasificados
como objeto
Píxeles objeto clasificados
como no objeto
NO OBJETO Píxeles no objeto clasificados
como objeto
Píxeles no objeto clasificados
como no objeto
Para la implementación se eligieron cuatro criterios, estos fueron:
Cantidad de objetos clasificados como objeto
Cantidad de objetos clasificados como no objeto
Cantidad de no objetos clasificados como no objetos
Cantidad de no objetos clasificados como objetos
5.11. Morfología Matemática
Fue desarrollada por Jean Serra en 1964. Según (Serra, 2007) “La morfología matemática
se refiere a ciertas operaciones donde, para estudiar la forma y estructura de un objeto, éste se
hace interaccionar con un elemento estructural, el cual es definido de acuerdo con el tipo de
información que se desea obtener. Un elemento estructural es un conjunto empleado para
sondear la imagen bajo estudio. Cuando la imagen es binaria, el elemento estructural es un
conjunto definido en un plano, cuando la imagen es de niveles de gris, el elemento estructural
es un conjunto tridimensional. El elemento estructural debe tener la misma dimensión y escala
que la imagen bajo estudio. Todo elemento estructural tiene asociado un origen que es un punto
de referencia empleado en la operación con la imagen” (Lira Chávez, 2010) .
(Comer & Delp, 1999) señalan que es una condición considerar los objetos como conjuntos, al
igual que el elemento estructurante.
48
Entonces la morfología matemática podría definirse según (Lira Chávez, 2010) como un
conjunto de modelos, métodos y procedimientos que permiten cuantitativamente describir la
distribución espacial de los objetos presentes en la imagen; por lo tanto es posible definir la
estructura o distribución espacial de los objetos mediante las relaciones que existen entre estos,
las herramientas de la morfología permiten estudiar las estructura del objeto, a partir de la
prueba de cada una de las posibles relaciones y si cumple o no un criterio.
El concepto de transformación se hace fundamental para la implementación tanto de las
operaciones básicas como de los algoritmos de morfología matemática, por tanto se refieren
brevemente algunos apartados en esta sección para la correcta interpretación de resultados.
“Se considera una imagen 𝑓 (𝑥, 𝑦) como una correspondencia entre un subconjunto rectangular
finito 𝐷𝑓 en el plano discreto 𝑍2y un conjunto discreto {0,1,2, … , 𝐿 − 1} de niveles de gris,
siendo 1, un entero positivo” (Morales & Azuela, 2011) .
Las transformaciones pueden ser, extensivas cuando para todo x que es parte del conjunto, cada
elemento de x también es parte de la transformación; antiextensivas cuando para todo x que es
parte del conjunto, cada elemento de la transformación también es parte de x, crecientes; si y
solo si preserva las relaciones de los elementos de 𝑍2 sobre los cuales actúa;indempotentes,
cuando al aplicarse varias veces mantiene el mismo resultado como si se hiciera 1 vez; o duales
si cuando existen dos transformaciones, al aplicar una de ellas al conjunto x equivale a ejecutar
la segunda al complemento de x (Morales & Azuela, 2011) .
5.11.1. La erosión y dilatación
Estas son dos operaciones fundamentales en la aplicación de la morfología matemática, la
mayoría de los algoritmos están definidos sobre ellas (González, Woods, Rodríguez, & Rosso,
1996) . Son transformaciones crecientes y duales (Morales & Azuela, 2011)
49
Dilatación: La ecuación 62 “se basa en la obtención de la reflexión de B sobre su origen y
cambiando esta reflexión por z. La dilatación de A por B a continuación, es el conjunto de
todos los desplazamientos, z, de tal manera que b y una superposición de al último elemento”
(González, Woods, Rodríguez, & Rosso, 1996) .
𝐴⨁𝐵 = {𝑧 |[(�̂�)𝑧
∩ 𝐴] ⊆ 𝐴}
Ecuación 61
B, se refiere al elemento estructurante, entre sus aplicaciones se encuentra el relleno de cuerpos
de agua (González et al., 1996) , razón por la cual fue aplicado a este objeto espacial escogido
dentro de la imagen.
Erosión: para los conjuntos A y B in 𝒁𝟐, la erosión de A por B, se define con la ecuación 62.
𝐴 ⊖ 𝐵 = {𝑧| (�̂�)𝑧
⊆ 𝐴}
Ecuación 62
En palabras, esta ecuación indica que la erosión de A por B es el conjunto de todos los puntos z
tales que b, traducido por z, está contenido en A (González et al., 1996) .
La dilatación y la erosión son duales en diferencia con respecto al conjunto de
complementación y la reflexión. Esto es
(𝐴 ⊖ 𝐵)𝐶 = 𝐴𝐶⨁ �̂�
Ecuación 63
Una de las aplicaciones más simples, la cual se aplicó en los objetos espaciales escogidos y que
sugiere (González et al., 1996) , es la eliminación de detalles irrelevantes en términos de
tamaño, de imágenes binarias.
50
Apertura: generalmente suaviza el contorno de un objeto, rompe istmos estrechos, y elimina
protuberancias finas (González et al., 1996)
Matemáticamente está definida de la siguiente manera:
𝑨 ∘ 𝑩 = (𝑨 ⊖ 𝑩) ⊕ 𝑩
Ecuación 64
Cierre: también tiende a suavizar los contornos de las secciones pero, a diferencia de apertura,
por lo general se rompe fusiona zonas estrechas y golfos largos y delgados, elimina los
pequeños agujeros, y llena las lagunas en el contorno (González et al., 1996)
Matemáticamente se define como
𝑨 ∙ 𝑩 = (𝑨 ⊕ 𝑩) ⊝ 𝑩
Ecuación 65
5.11.2. Transformación acierto o error
Esta es una de las herramientas básicas para detección de forma y sus principales características
según (Morales & Azuela, 2011) son:
Se define cuando “un elemento de estructura B compuesto de dos partes disjuntas 𝐵1 y
𝐵2 las cuales tienen el mismo origen”
Se denota con el símbolo ⨂
Es más general que la operación de erosión y dilatación
Se usa principalmente en reconocimiento de objetos dado que:
51
∨ 𝑓 ∈ 𝑧2, 𝑓⨂𝐵 = (𝑓 ⊝ 𝐵1̃) ⋂ (𝑓𝑐 ⊝ 𝐵2̃)
Ecuación 66
No es creciente, indempotente ni extensiva
Es la base de las definiciones de adelgazamiento y engrosamiento morfológico
5.11.3. Algoritmos morfológicos
Con las operaciones básicas, se realizan la mayoría de los algoritmos morfológicos, a
continuación se presentan algunos implementados sobre las imágenes objeto de estudio,
explicados en (González et al., 1996) (Serra, 1982) .
Extracción de bordes
El límite de un conjunto A, denotado por 𝛽 (𝐴) , se puede obtener por primera erosión A por B
y posteriormente de realizar la diferencia de conjuntos entre A y su erosión. (González et al.,
1996) (Serra, 1982)
𝛽(𝐴) = 𝐴 − (𝐴 ⊖ 𝐵)
Ecuación 67
Donde B es un elemento estructurarte adecuado
Rellenado de región
El algoritmo es simple para relleno; está basado en un conjunto de dilatación, complementación
e intersección. A partir de un punto p dentro de los límites, el objetivo es llenar toda la región
con el 1.
𝑋𝑘 = (𝑋𝑘−1⨁ 𝐵) ∩ 𝐴𝐶 𝑘 = 1,2,3, …
Ecuación 68
52
Donde 𝑋0 = 𝑝, y B es el elemento estructurante simétrico. El algoritmo termina en el paso de
iteración k si 𝑋𝑘 = 𝑋𝑘−1. El conjunto unión de 𝑋𝑘 y A contiene el conjunto lleno y su límite.
“El proceso de dilatación de la ecuación; llenaría toda la zona si no se controla. Sin embargo,
la intersección en cada paso con 𝐴𝐶 limita el resultado al interior de la región de interés IOF.
Este es nuestro primer ejemplo de cómo un proceso morfológico puede ser condicionado a
cumplir con una propiedad deseada” (González et al., 1996) .
Adelgazamiento
El adelgazamiento de un conjunto a por un elemento estructurante B, se define en términos de
la transformada “hit or miss” (acierto o error) así:
𝐴⨂𝐵 = 𝐴 − (𝐴 ⊛ 𝐵)
= 𝐴 ∩ (𝐴 ⊛ 𝐵) 𝐶
Ecuación 69
Esto se puede ver mediante una expresión más eficiente basada en una secuencia de elementos
estructurantes, esto es según (González et al., 1996) :
{𝐵} = {𝐵1, 𝐵2, 𝐵3, … , 𝐵𝑛}
Ecuación 70
Donde 𝐵𝑖es una versión rotada de 𝐵𝑖−1 . Usando este concepto entonces se puede definir el
adelgazamiento a partir de una secuencia de elementos estructurantes como:
𝐀⨂{𝐁} = ( (… ((𝐀⨂𝐁𝟏)⨂𝐁𝟐) … ) ⨂𝐁𝐧)
Ecuación 71
53
Espesamiento
El espesamiento es el dual morfológico del adelgazamiento, se define como:
𝐴 ⊙ 𝐵 = 𝐴 ∪ (𝐴 ⊛ 𝐵)
Ecuación 72
Donde B es un elemento estructurante adecuado por espesamiento tiene los mismas formas que
el de adelgazamiento pero con los 1’s y 0’s intercambiados. Es decir para espesar un conjunto
A, se forma 𝐶 = 𝐴𝐶, C delgado y de la forma 𝐶𝐶 .
Es usado usualmente como un paso de post proceso para remover puntos discontinuos
(González et al., 1996) .
Esqueletos
El esqueleto de A, puede ser expresado en términos de erosión y apertura según (Serra, 1982) .
S(A) = ⋃ Sk (A)
K
k=0
Ecuación 73
Con
𝑆𝑘(𝐴) = (𝐴 ⊖ 𝑘𝐵) − (𝐴 ⊖ 𝑘𝐵) ∘ 𝐵
Ecuación 74
Donde B es un elemento estructural, y (𝐴 ⊖ 𝑘𝐵) indica k erosiones sucesivas de A
(𝐴 ⊖ 𝑘𝐵) = (… (𝐴 ⊖ 𝐵) ⊖ 𝐵) ⊖ … ) ⊖ 𝐵
Ecuación 75
K veces, y K es el primer paso iterativo antes de A erosionada a un conjunto vacío, es decir
54
𝐾 = 𝑚𝑎𝑥{𝑘|(𝐴 ⊖ 𝑘𝐵) ≠ ∅}
Ecuación 76
Además los esqueletos pueden ser reconstruidos a partir de subconjuntos usando la ecuación
𝐀 = ⋃ (𝐒𝐤 (𝐀) ⨁𝐤𝐁)
𝐊
𝐤=𝟎
Ecuación 77
Donde (𝑆𝑘 (𝐴) ⨁𝑘𝐵) denota k dilataciones sucesivas de 𝑆𝑘 (𝐴) , es decir
(𝑆𝑘(𝐴)⨁𝑘𝐵) = ((… (𝑆𝑘(𝐴)⨁𝐵)⨁𝐵)⨁ … ) ⨁𝐵
Ecuación 78
Como producto final se entregó un mapa de clasificación, realizado por el método
supervisado, este producto fue evaluado y sometido a análisis, por tanto se hace necesario
presentar la base teórica usada para su realización.
5.12. Clasificación supervisada
“La clasificación digital comprende el proceso de conversión de una imagen continua a otra
categorizada temáticamente, a partir de agrupación de los niveles digitales espectralmente
similares. Existen dos métodos de clasificación: supervisado y no supervisado” (Posada,
2008).
Para realizar una clasificación supervisada es necesario tener un conocimiento previo del
terreno y de los tipos de cobertura presentes, esto se puede realizar con trabajo en campo,
análisis fotografías aéreas e imágenes satelitales (Posada, 2008).
55
Una vez realizado esto se procede a definir y delimitar las áreas de entrenamiento, de las
cuales serán tomados los valores de niveles digitales (ND) , para entrenar el algoritmo de
clasificación, el cual calcula varios parámetros estadísticas de las bandas presentes en las
áreas de entrenamiento y posteriormente evalúa cada nivel digital de la imagen y los asigna
a cada clase, por tanto “la clasificación supervisada intenta definir las clases temáticas que
no tengan claro significado espectral, razón por la que es considerada un método artificial”
(Posada, 2008) .
Respecto al procedimiento que se debe seguir en la generación del mapa de cobertura se
tiene
Previo análisis visual y elaboración de la leyenda del mapa
Determinación de las muestras de entrenamiento
Elección y aplicación del algoritmo de clasificación
Reajuste de las clases y nueva clasificación
Evaluación y presentación del mapa de clasificación («Procesamiento Digital de
Imágenes PDI- Semana 1», 2011)
El algoritmo de máxima probabilidad realiza la agrupación de píxeles se realiza a partir
de la función de probabilidad. Garantiza mejores resultados, dado que estima la
probabilidad de pertenecer o no a cada clase de los píxeles de toda la imagen a partir de la
medial las matrices de varianza y co-varianza y la desviación estándar, para todas las
bandas en la imagen a clasificar («Procesamiento Digital de Imágenes PDI- Semana 1»,
2011) .
“El píxel se asigna a una clase específica si su probabilidad es mayor que las probabilidades
de las otras categorías. Los límites de las clases temáticas se representan en forma de
56
elipses, encargados de definir el nivel de probabilidad de cada área. Al mayor traslape entre
ellas, mayor riesgo de confusión espectral” (Posada, 2008) .
5.12.1. Evaluación
Realizada mediante “La matriz de confusión (C) o contingencia, que permite comparar
dos clasificaciones: una definida por el usuario como base y la otra, la que se desea evaluar.
Se construye una comparación matricial de clases realizadas de la clasificación, ubicada
generalmente en diferentes sectores o en la totalidad del mapa, confrontando las clases de
cada clasificación” (Rodríguez Vásquez, 2011) .
Con la matriz de confusión se producen tres tipos de exactitud: exactitud global que indica
la exactitud del conjunto de las clases del método a evaluar, exactitud del productor que es
el acertamiento de una clase en particular, respecto a la clasificación a evaluar y exactitud
del usuario que es la acertamiento de una clase en particular, respecto a toda la clasificación
(Rodríguez Vásquez, 2011) .
Estos tipos de exactitud pueden incurrir sesgos de interpretación porque toman resultados
aleatorios y se basan en resultados parciales de la matriz de confusión por tanto no se hace
uso de la totalidad de los datos, la forma de corregir esta exactitud es por medio del
coeficiente kappa (Dou et al., 2007) (Rodríguez Vásquez, 2011) .
Los resultados de la concordancia entre las clases se puede clasificar en 6 clases según (Cerda
& VILLARROEL DEL, 2008) . La Tabla 2 describe estas categorías las cuales pueden estar
entre fuerza de concordancia pobre hasta casi perfecta.
57
Tabla 2. Valoración para el coeficiente kappa.
Elaboración propia sugerida de (Cerda & VILLARROEL DEL, 2008)
Coeficiente Kappa Fuerza de la concordancia
0,00 Pobre
0,01-0,20 Leve
0,21-0,40 Aceptable
0,41-0,60 Moderada
0,61-0,80 Considerable
0,81-1,00 Casi Perfecta
58
6. METODOLOGÍA
La metodología presenta de forma general los procesos seguidos durante el desarrollo del trabajo.
Figura 14. Diagrama de procesos.
59
En la Figura 14, se muestra el flujo de los procesos considerados en el presente trabajo.
Para la realización del primer proceso que consiste en la evaluación de las imágenes
fusionadas a partir de diferentes estadísticos se tuvieron en cuenta una serie de
procedimientos preliminares entre los cuales se definió la zona de estudio en la cual se basa
el trabajo, los criterios de selección para esta, fueron la ubicación sobre zonas urbanas de la
ciudad de Bogotá D.C, porque hasta el momento no fueron encontrados estudios recientes
con imágenes de alta resolución sobre este lugar, además de considerar los objetos urbanos
diversos que se encuentran en la misma, entre ellos cuerpos de agua, territorios
artificializados (Zonas Urbanas) , Vías etc.
Bajo estos criterios se determinó el área de estudio sobre la parte Noroccidental de la
ciudad de Bogotá D.C., en donde se observa parte del Aeropuerto Internacional
“ElDorado”, con fragmentos de las pistas aéreas y zonas de hangares con aviones a la vista;
zonas urbanas de la localidad de Engativá en donde se distinguen vías, manzanas catastrales
y cuerpos de agua.
Posteriormente se realizó la adquisición de las imágenes, el cual tuvo como factor principal
la resolución de las mismas, por tanto se adquirió la imagen Worldview 2 de la ciudad de
Bogotá D.C.; propiedad de (Osorio, 2012) , quien realizó estudios previos con Wavelets
sobre esta, y se consideró la imagen de trabajo principal.
También las imágenes LANSAT 8 (OLIS) e IKONOS, las cuales se adquirieron del
servicio Geológico de los Estados Unidos de América y de estudios previos de (Medina
et al., 2013) respectivamente. Estas imágenes se consideraron las de validación de
resultados.
60
Se realizó la delimitación final del área de estudio a tamaño de 4096* 4096 píxeles, estas
dimensiones se eligieron dado que; una de las condiciones para la aplicación de las
diferentes transformadas es que la imagen sea cuadrada, además de esto, el área de la zona
permite analizar una mayor cantidad de objetos geográficos y respuesta al tratamiento.
El software utilizado como herramienta para el procesamiento fue Matlab, una vez obtenido
el recorte sobre la imagen base, se procedió a realizar la fusión de las imágenes por medio
de Wavelets, estas fueron elegidas por ser las estándar ya tratadas en diferentes estudios
que serán referidos posteriormente; se aplicaron diferentes filtros los cuales difieren según
la Wavelet, pero en general se encuentran entre un rango de 1.1 y 6.8, a excepción de la
Wavelet Haar la cual no aplica ninguno porque, es la Wavelet más simple y al aplicar un
filtro se convierte en la Daubechies 2. Los filtros permiten realizar la reconstrucción de la
señal y tener diferentes funciones de escala, tal y como se menciona en los resultados
obtenidos. Adicionalmente se trataron cinco niveles de descomposición de las Wavelet, ya
que estos determinan la cantidad de veces que se filtra la señal, para obtener los
coeficientes de aproximación y detalle necesarios. (Larrotta, 2003)
Seguidamente se le realizan los procedimientos de mejoramiento de bordes, mediante la
aplicación de las transformadas Contourlet, Curvelet y Rigilet.
Tal y como se mencionó en el Capítulo 5 (Marco Teórico) , la transformada Curvelet
requiere aplicar la transformada de Ridgilet local, por tanto se consideró un solo algoritmo
para emplear ambas transformadas, por consiguiente se obtuvieron dos imágenes una con la
aplicación de la Contourlet y la otra con la de Curvelet y Ridgilet.
61
Una vez obtenidas las nuevas imágenes producto de la fusión se realizó la evaluación de las
mismas, mediante el método estadístico matemático, referido por (Daza et al., s. f.) , como
una forma de evaluar las fusiones porque estos tienen en cuenta las resoluciones espaciales
y espectrales de las imágenes originales y fusionadas.
La evaluación se desarrolló utilizando los cálculos de los estadísticos ERGAS, RASE,
Calidad Universal (Qu) , Entropía, Coeficiente de Correlación (CC) , Bias y Divergencia,
los criterios de análisis fueron expuestos en la etapa de resultados, en la cual se determinó
como conveniente elegir uno de estos como el de mayor importancia para la selección , por
sus características.
Después se realizó una segunda etapa la cual consiste en la aplicación de los algoritmos de
morfología matemática, para esto fue necesario determinar los objetos geográficos, para su
elección se tuvieron en cuenta las características de forma, tamaño y respuesta al color con
la intención de mostrar la aplicación de los algoritmos. De esta forma se eligieron los
objetos geográficos: Avión, estructura circular, cubierta de edificación, cuerpo de agua y
cancha deportiva.
Posteriormente se aplicó el procedimiento de Umbralización que permite binarizar las
imágenes dado que el proceso de morfología posterior se empleó sobre imágenes a color
umbralizadas, también existe su complemento en imágenes de escala de grises.
Para realizar el mismo se utilizaron dos métodos basados en clusterización, el Otsu, que
está referido como el más conveniente por varios autores citados más adelante y el método
Kittler e Illingworth con el fin de evaluar visualmente y con cálculos de la media del valor
del umbral; el que clasificara mejor como objeto y como no objeto.
62
Una vez encontrado el mejor método; se umbralizaron todos los objetos geográficos
anteriormente determinados y se evaluaron con el coeficiente kappa que calcula un valor
basado en clasificación por cuatro criterios: objetos como objetos, objetos como no objetos,
no objetos como objetos y no objetos como no objetos. Una explicación masa fondo se
ofrece en el siguiente Capítulo.
El último paso de esta etapa de procesamiento fue aplicar los algunos algoritmos de
morfología matemática, ellos son: la extracción de bordes, esqueletos, adelgazamiento,
espesamiento y rellenado de región, estas técnicas se han usado en diferentes estudios de
diferentes disciplinas como geología, espeleología y medicina también referidos en el
Capítulo Resultados, con base en esto decidieron aplicarse, sobre una imagen satelital para
mostrar cómo se comportan los objetos geográficos umbralizados escogidos, en relación a
su forma y conservación de información.
Los resultados se presentan aplicando a las imágenes principal (Worldview 2 original sin
tratamiento) , base (Wavelet Seleccionada) , Contourlet (Wavelet con mejoramiento de
bordes) , Curvelet y Ridgilet (Wavelet con mejoramiento de bordes)
Durante el presente trabajo, se presenta la etapa de validación de resultados en color violeta
en esta se buscó con las imágenes IKONOS y LANDSAT 8 (OLI) demostrar la
aplicabilidad de los resultados obtenidos a partir de la imagen World View 2; a imágenes
diferentes, en cuanto a resolución y escala, por lo que se repitió toda la etapa de
procesamiento sobre estas, tomando dos zonas en común con objetos geográficos similares
a los ya tratados, es, es decir, cuerpos de agua, zonas urbanas, cubiertas de edificaciones etc
63
Finalmente se procedió a la etapa de generación de producto, se observa en color naranja,
durante esta, se realizó un mapa de clasificación de uso y cobertura de la tierra sobre la
imagen principal y sobre la imagen Curvelet y Ridgilet, porque se comprobaron mejores
resultados con los procedimientos de evaluación previo sobre la última, la clasificación se
efectuó con el método supervisado y la evaluación con el coeficiente kappa, esto con la
intención de analizar el mejoramiento que se obtiene utilizando las transformadas de
mejoramiento de bordes en procesos propios de la Ingeniería Catastral y Geodesia.
.
64
7. RESULTADOS
Para realizar el proceso de evaluación de las imágenes fusionadas, que es uno de los
procesos contemplados en el presente trabajo, se siguieron una serie de procedimientos
preliminares, tal y como se describió en la metodología se presentan a continuación los
resultados de los métodos utilizados.
Como primer paso se realizó la delimitación de la zona de estudio se encuentra sobre el
costado Noroccidental de la ciudad de Bogotá D.C, sector catastral aeropuerto El Dorado,
sobre este no se encontraron estudios relacionados con la morfología matemática, y goza de
diferentes objetos espaciales de interés. La localización general y específica se muestra en
la Figura 15, así mismo se despliega sobre el software Matlab, la imagen obtenida del
satélite World view 2, con un acercamiento a la zona de estudio elegida.
(a)
(b)
65
(c)
(d)
Figura 15. A) Localización general zona de estudio. b) Localización especifica zona de estudio. Worldview-2. c)
Imagen de trabajo principal. d) Zona de estudio. Worldview-2.
Fuente: Datos IDECA. Satélite World-View 2 (J. Li et al., 2013)
Se hace relevante incluir los datos del sensor, dado que la respuesta tanto espectral como
espacial, dependerá de dichos datos, este sensor tiene potencialidades en distintos campos
como la agricultura de precisión (de la Fuente, Suarez, Yague, & Pedrazzani, 2013) y la
detección y el mapeo de la superficie impermeable (Taherzadeh et al., 2012) .
La Tabla 3 muestra los datos de captura de la imagen World view 2, en el que se especifica
el tipo de correcciones de la imaen, su tamaño y las resoluciones de la misma, utilizada para
el procesamiento en el presente trabajo.
Tabla 3. Datos de captura de la imagen Worldview-2.
(DigitalGlobe, 2014)
ASPECTO CARACTERÍSTICA
Tipo Multiespectral
Fecha de captura 2011-11-15T20:17:29.00
66
Numero de columnas 2502 píxeles
Numero de filas 2509 píxeles
Nivel radiométrico Correcciones Radiométricas y
geométricas
Asignada a una proyección cartográfica.
Resolución radiométrica 16 bits
Resolución espacial 0.46 m en Pancromática
1.85 m en multiespectral
Resolución espectral 8 bandas espectrales
Resolución temporal 1.1 Días
Así mismo se presenta en la Tabla 4 se muestra la distribución longitud de las bandas
espectrales del sensor dado que son importantes en la construcción de nuevas imágenes y
en las composiciones de color realizadas, las bandas espectrales coastal e infrarrojos 1 y 2
no fueron utilizadas.
Tabla 4. Longitudes de onda para la imagen worldview 2.
(DigitalGlobe, 2014)
Bandas del sensor, World View 2
Pancromática 400-800 nm
Coastal 400-450 nm
Azul 450-510 nm
Verde 510-580 nm
Amarillo 585-625 nm
Rojo 630-690 nm
Rojo Frontera 705- 745 nm
Infrarrojo Cercano 1 700-895 nm
Infrarrojo Cercano 2 860-1040
67
Para la creación de las diferentes imágenes satelitales por el método de fusión, se hizo
inicialmente una delimitación más precisa de la zona de estudio, y se generó la imagen de
composición a color RGB usada posteriormente para la evaluación siguiendo la
metodología mencionada, los resultados encontrados, considerados preliminares se
presentan a continuación.
7.1. Preliminares
Se delimitó la zona de estudio en un tamaño de 4096x4096 porque se obtuvo la
visualización de varios objetos geográficos de interés, como vías, cuerpos de agua, entre
otros; considerando la condición diádica, es decir, de igual tamaño en filas y columnas;
para la utilización de las transformadas Wavelet. En la Figura 16, se muestra la imagen que
de aquí en adelante se bautizó como imagen principal de trabajo, es una composición a
color RGB (5,3,2), color verdadero.
Figura 16. Imagen principal de trabajo. RGB (5,3,2) Tamaño de 4096x4096 píxeles
68
La imagen se sometió al proceso de cambio de espacio de color con la transformada HSV,
este espacio de color es el utilizado por Matlab, en el que se intercambia la componente
Intensidad con el componente Value. Originalmente se define la transformada como HSI.
La imagen fue sometida al procedimiento de fusión con las transformadas HSI y HSV, las
componentes Value e Intensidad fueron extraídas y correlacionadas entre sí, con lo que se
obtuvo un valor de 1, concluyendo que para esta imagen en particular es indiferente el uso
de cualquiera de los dos espacios de color; al estar incluido el espacio HSV dentro del
software utilizado como herramienta, se decidió tomar la imagen generada por esta
transformada para los procedimientos sucesivos, con el fin de que los resultados fueran
producidos por la misma herramienta y se evitara incurrir en errores.
Las imágenes producidas después de realizar la transformación HSV junto con la
extracción del value que se utilizará en los demás procesos se presentan en las Figuras 17a)
y 17b). En estas se puede observar que la componente Value es similar a la banda
pancromática de la imagen original, lo que permite adecuar las resoluciones de las mismas
para obtener resolución espacial mayor, así mismo en la imagen sometida a la
transformación HSV; se incluyen las componentes matiz y saturación, que como se
mencionó en el marco teórico permiten flexibilidad en el procesamiento dado que se puede
manipular cada una por separado sin afectar la composición original HSV.
69
a)
b)
Figura 17. a) Transformación HSV, b) Componente Value extraído.
Adicionalmente se presenta la imagen pancromática Figura 18. Útil para el reemplazo
dentro de la transformada HSV, y de los coeficientes producidos en el proceso de
mejoramiento.
Figura 18. Imagen pancromática de la zona de estudio.
70
7.2. Aplicación Wavelet
En esta etapa del procedimiento se aplicó la transformada Wavelet a la imagen original,
para esto se usaron las familias estándar que están incluidas en el software de trabajo, tal y
como se mencionó en el marco teórico, para esto se construyó un código de programación
el cual permitió obtener los coeficientes de aproximación y detalle, este codigo se puede
consultar en el Anexo 3, en el cual se encuentra el procedimiento para la Wavelet Symlet 5
nivel de descomposición 5. Los filtros se eligieron con la intención de reconstruir la señal
y tener diferentes funciones de escala e incluyendo cinco niveles de descomposición, para
de esta manera analizar el comportamiento de las diferentes Wavelet.
7.3. Análisis y selección de Wavelet
La fusión de imágenes se realizó, siempre utilizando el método de cambio de espacio de
color RGB-HSV y su inversa, extrayendo el value, aplicando la transformada
correspondiente a este, para el caso Wavelet, y de esta manera se obtuvieron las imágenes
nuevas de Value a partir de las Wavelet; estas fueron reemplazadas durante la fusión y se
creación de las nuevas imágenes de color. Este proceso se puede consultar en un diagrama
de flujo contenido en el Anexo 8. Para la selección de la Wavelet, se utilizaron tres criterios
diferentes siguiendo la metodología antes descrita, y su análisis se presenta a continuación:
7.3.1. Criterio Estadístico
Este criterio se realizó evaluando los estadísticos que permiten cuantificar la conservación
espacial y espectral entre la imagen original y la fusionada, mencionados en el marco
teórico. En el presente trabajo se buscó la conservación de la resolución espacial para la
aplicación posterior de los algoritmos de morfología matemática. Se determinó entonces
71
que la imagen generada a partir de la fusión con la Symlet 5, nivel de descomposición 5
conservo la mayor calidad espacial.
La Tabla 5, muestra los estadísticos obtenidos para la imagen con resultados cercanos a los
ideales, tal y como se mencionó en el marco teórico el estadístico de selección es calidad
universal (Qu), que como se observa se encuentra en un valor de 0.97 en el que se espera 1.
Tabla 5. Resultados Wavelet Symlet 5-5 a partir de los estadísticos.
Elaboración propia.
WAVELET ERGAS RASE RMSE Qu CC BIAS DIV ENTROPIA
Symlet 5- 5 5.68 23.00 6.77 0.93 0.97 0.003 0.25 5.68
Aun así se revisaron los demás estadísticos en donde los datos permiten según establecer
que, el estadístico ERGAS espectral tiene un valor de 5.68, el ideal del estadístico es que
este cercano a 0. Un valor menor a 3 indica que la calidad de la imagen es buena, por tanto
e valor es adecuado.
Así mismo la calidad universal que identifica la distorsión, tal y como se explicó en el
capítulo del marco teórico se espera que tome un valor de 1, para la Wavelet resultante es
de 0.93, situación que se repite para el coeficiente de correlación que permite ver la
relación que tiene la información espectral de la imagen original y la fusionada en un 0.97
sobre la imagen escogida.
Con relación a la divergencia dado que es una razón entre las varianzas se tiene como valor
ideal 0, para la investigación se encontró que se tiene un valor de 0.25, la entropía busca
reflejar la información de detalle de la imagen producida , se espera que el valor sea alto
dado que guardara la información más importante y aumentara la calidad de la fusión
72
(Morales & Azuela, 2011) para la Symlet 5 en el nivel de descomposición 5 se tiene un
valor de 5.68
Respecto a BIAS, este tiene como principio básico la fidelidad espectral donde se busca
que la información de baja frecuencia en la imagen de alta resolución no sea absorbida por
la imagen de la fusión (Morales & Azuela, 2011) , este índice se calcula, entre las medias
de las dos imágenes y se da en referencia a la original con un valor ideal de cero, toma para
el caso un valor 0.003,que no es el más cercano de la evaluación.
Esta evaluación incluyo cinco niveles de descomposición, tomados del 1 al 5.
La Tabla 6, presenta los resultados de las Wavelet con resultados más óptimos según la
interpretación descrita anteriormente.
Tabla 6. Resultados cinco Wavelets a partir de los estadísticos.
Elaboración propia.
WAVELET ERGAS RASE RMSE Q CC BIAS DIV ENTROPIA
Symlet 5-5 5.68 23.00 6.77 0.93 0.97 0.003 0.25 5.68
Bior 3.7 -5 5.82 23.2 6.85 0.93 0.94 0.007 0.27 5.66
Bior 2.6-5 6.55 23.3 6.87 0.93 0.94 -0.006 0.27 5.67
Db7-4 6.21 24.85 7.32 0.91 0.95 0.004 0.42 5.52
Bior 6.8-4 6.01 24.04 7.08 0.92 0.95 -0.001 0.39 5.55
7.3.2. Criterio Teórico
Para el análisis de este criterio se consideró que la resolución de la imagen trabajada fue de
2m para el rango multiespectral y de 0.5m para la imagen pancromática, aplicando la
Ecuación 38 dio como resultado que el nivel de descomposición óptimo es el nivel 2. El
cálculo del mismo se puede observar en el Anexo 7.
73
7.3.3. Criterio Visual
Para realizar el análisis por medio del criterio visual se eligieron una serie elementos
dentro de la imagen objeto de estudio los cuales son:
Arbustos: Solamente tienen una óptima diferenciación en los últimos dos niveles
estudiados, sin embargo en el nivel 4 se crean sombras en los bordes sobre los objetos.
Edificaciones: A partir del nivel tres de descomposición se evidencia una diferenciación de
los bordes para los tres edificios presentes, aun así las estructuras y las formas de las
cubiertas, incluso la vegetación alrededor de las mismas se alcanza de mejor manera en el
nivel de descomposición cinco.
Aviones: Este es el objeto espacial más visible dentro de la imagen de estudio, dado que
hay varios dentro de la zona, en todas las imágenes se pueden ver aviones, sin embargo en
los primeros dos niveles de descomposición se encuentra que es dificultoso diferenciar
correctamente, se aprecian sombras dentro de la imagen, los aviones más grandes se
diferencian, sin embargo se pierden sus borde con las texturas presentes. En la
descomposición de tercer nivel, se observa un efecto de duplicación de los elementos; para
los últimos dos niveles se aprecian las formas de los aviones más grandes; incluso las
turbinas, no obstante el nivel cinco elimina las sombras alrededor de los objetos.
Pistas aéreas y vías de acceso: La resolución visualmente es de mayor calidad visual a
medida que se aumenta el nivel de descomposición, en todas las vías de acceso, en el nivel
cinco se observa diferencia entre las vías y las diferentes coberturas, zonas áreas verdes y
arbustos, además se alcanza a visualizar en la parte inferior izquierda lo que podría ser un
cuerpo de agua por su estructura irregular.
74
Para este análisis se tomó como referencia la zona señalada en la Figura 19, en esta se
encuentran los objetos bajo análisis en este apartado
Figura 19. Referencia de la zona escogida para análisis visual
De la misma forma en la Figura 20, se muestran los cinco niveles de descomposición
utilizados sobre la imagen Symlet 5, dentro de cada nivel de descomposición se observan
los diferentes objetos: Aviones, construcciones, arbustos, vías entre otros.
75
NIVEL DE DESCOMPOSICIÓN
1 2 3
4 5
Figura 20. Niveles de descomposición 1-5 Wavelet Symlet 5, acercamiento a objetos espaciales de la imagen de
estudio.
De esta manera se concluyó que el nivel adecuado de descomposición es el cinco.
Estos criterios permitieron decidir que la imagen que fue producida a partir de la Wavelet
Symlet con el nivel como el 5 se tomaría para el resto de la investigación.
7.4. Generación de imágenes a partir del OIF, el ajuste de histogramas y
composición ‘falsa pancromática’
Para lograr el primer proceso ya mencionado también se generaron una serie de imágenes
nuevas.
Los autores (J. Li et al., 2013) ,combinando el OIF y la correlación, determinaron que las
mejores combinaciones de banda para el sensor son: RGB 864, RGB 821, RGB 468, RGB
76
368,RGB 678,RGB 348, RGB168, por esta razón se calcularon estas bandas para la imagen
añadiendo la RGB 851, la cual también proporcionada un OIF alto. Siguiendo los pasos
mencionados:
En la Tabla 7, se muestra el cálculo de las correlaciones entre las bandas
Tabla 7. Correlación entre las ocho bandas que representan la imagen original.
Elaboración propia.
EN la Tabla 8, se muestra el resultado de la aplicación del OIF con las
combinaciones RGB más altas.
Tabla 8. Mejores combinaciones RGB para la imagen objeto de estudio.
Elaboración propia.
COMBINACIÓN RGB OIF
468 59,833991
821 91,03946194
168 72,72272525
678 35,82739344
851 103,2748868
863 53,79712878
348 75,4006581
La combinación RGB optima se elige según el valor más alto calculado en el OIF, para el
caso es la composición a color RGB (851)
En la Figura 21, se muestra la imagen obtenida a partir de la aplicación de la Wavelet
Symlet 5-5 sobre la imagen con el mejor OIF.
BANDA 1 BANDA 2 BANDA 3 BANDA 4 BANDA 5 BANDA 6 BANDA 7 BANDA 8
BANDA 1 1 0,962862247 0,915605014 0,925328323 0,900661078 0,330667617 -0,161878066 -0,186452079
BANDA 2 0,962862247 1 0,96293816 0,929307985 0,945478166 0,372296227 -0,108123812 -0,143640611
BANDA 3 0,915605014 0,96293816 1 0,94967246 0,957696405 0,558124697 0,088558239 0,05048351
BANDA 4 0,925328323 0,929307985 0,94967246 1 0,96064966 0,52648019 -0,009086275 -0,028559675
BANDA 5 0,900661078 0,945478166 0,957696405 0,96064966 1 0,451619918 -0,061599578 -0,092654215
BANDA 6 0,330667617 0,372296227 0,558124697 0,52648019 0,451619918 1 0,800293365 0,790444154
BANDA 7 -0,161878066 -0,108123812 0,088558239 -0,009086275 -0,061599578 0,800293365 1 0,975594864
BANDA 8 -0,186452079 -0,143640611 0,05048351 -0,028559675 -0,092654215 0,790444154 0,975594864 1
77
Figura 21. Imagen ‘falsa pancromática’, combinación RGB 851
Posterior a esto se creó también la imagen “pancromática ajustada al Value”,
La imagen producida fue ajustada entre la pancromática y el value, dado que cumplen la
condición de similitud de características oscuras y claras.
La Figura 22 se muestra los histogramas tanto de la imagen pancromática, como del
componente value, en ellos se observa que poseen coberturas, amplitud y comportamiento
similar; lo cual permite realizar la igualación entre ellos.
Figura 22. Histogramas. Izquierda, comportamiento histograma del Value. Derecha, histograma de la
Pancromática.
Elaboración propia.
Se puede observar que el histograma está distribuido en su mayoría hacia la izquierda,
como esto significa que las imágenes son oscuras. Además los valores en la imagen
78
pancromática se ubican en un rango estrecho lo cual indica la existencia del mejor
contraste. ( Guide, 1999)
7.5. Transformada Contourlet
La transformada Contourlet, tiene como objetivo el mejoramiento de los bordes. Para
obtenerla es necesario generar las pirámides Gaussiana y Laplacina, fueron implementadas
para la imagen objeto de estudio, mediante el algoritmo realizado por Edward Wiggin
(Guide, 1998) ; usando una combinación de los píxeles de la imagen original y la imagen
Symlet 5, con lo que se obtuvo la imagen final de tamaño reducido de las matrices.
Se realizó exactamente a la mitad, combinando tanto el algoritmo, como funciones internas
de reducción y ampliación (M. U. Guide, 1998) . En la Figura 23a), 23 b) , 23c) y 23d) , se
puede observar la reducción, finalmente en la Figura 23 e) , puede notarse la reconstrucción
realizada de la misma, basada en los valores de los píxeles encontrados en la
descomposición y en la imagen original, a partir de la imagen error generada durante la
construcción de la pirámide Gaussiana.
79
a)
b)
c)
d)
e)
Figura 23. A), b), c), d) 4 niveles de descomposición de la pirámide Gaussiana. c) Reconstrucción para la imagen a
partir de pirámides Laplacianas.
La Tabla 9, muestra los valores de tamaño durante la descomposición para la pirámide
Laplaciana y Gaussiana realizada para 5 niveles. En ella se observa la reducción a la mitad
del tamaño original en la matriz Gaussiana sobre las tres bandas de la composición RGB, y
el aumento de tamaño de la matriz en la reconstrucción de la pirámide Laplaciana sobre las
mismas tres bandas
80
Tabla 9. Tamaño de las matrices de cinco niveles de descomposición para la imagen objeto de estudio.
Elaboración propia.
Nivel 1 2 3 4 5
Tamaño de la
matriz
reconstrucción
Laplaciana
4081*4081*3 2041*2041*3 1021*1021*3 511*511*3 256*256*3
Tamaño de la
matriz de la
pirámide
Gaussiana
4096*4096*3 2048*2048*3 1024*1024*3 512*512*3 256*256*3
Una vez realizado el filtrado por medio de la piramide Laplaciana, se usa esta, para realizar
la descomposición mutiescala y direccional.
La Figura 24, muestra la descomposición multiescala y direccional de la Contourlet,
aplicada a la imagen resultante de la elección de la Symlet 5, descrito en el capitulo
anterior; la imagen fue descompuesta en diferentes niveles en donde se pueden observar 2 y
8 niveles direccionales. Los valores de los coeficientes menores se visualizan en color
negro, mientras que los de mayor valor se visualizan en blanco.
Figura 24. Coeficientes Contourlet de la imagen fusionada.
81
Una vez obtenido este valor se implemento el algoritmo para el mejoramiento de la imagen
reemplazando los coeficientes (Ver Anexo 9).
Los coeficientes de la Contourlet, guardan al mayor parte de la información en las pasa-
bajas, por tanto se extrajeron los coeficientes de alli, desde la banda pancromatica, dado
que es la de mayor resolución y se reemplazaron en la banda del Value antes de realizar la
reconstruccion de la imagen.
Una vez obtenido el nuevo componente Value, se concatenaron las imágenes de saturación
y matiz provenientes de la transformación de espacio de color obtenida en el capítulo
preliminar y se realizó de nuevo este proceso pero esta vez al espacio de color RGB, con lo
que se obtuvo la imagen final como se muestra en las Figura 25.
El algoritmo utilizado fue modificado para aplicar la transformada Contourlet al
componente Value y a la imagen pancromática, realizar el reemplazo de coeficientes y la
transformada inversa, el código original y el modificado se puede revisar en (Ver Anexo 8)
82
Figura 25. Mapa. Nueva imagen RGB, fusionada a partir de los coeficientes Contourlet
7.6. Transformadas Curvelet y Ridgilet
Las transformadas Curvelet y Ridgilet fueron implementadas simultáneamente, dado que el
análisis Ridgilet es uno de los procedimientos para la obtención de la imagen a partir de la
transformada Curvelet.
Aplicando a la imagen trabajada donde n = 212 = 46 por su representación en potencias de
2; se definen las subbandas a trabajar de la siguiente manera:
83
Se dividió el dominio de la frecuencia en 5 subbandas, que tienen correspondencia
con la subbanda Wavelet usada, en este caso Symlet 5 (Donoho& Duncan, 2000)
𝑆𝑢𝑏𝑏𝑎𝑛𝑑𝑎𝑠 𝐶𝑢𝑟𝑣𝑒𝑙𝑒𝑡 ⟷ 𝑆𝑢𝑏𝑏𝑎𝑛𝑑𝑎𝑠 𝑊𝑎𝑣𝑒𝑙𝑒𝑡 𝑗 ∈ {2𝑠, 2𝑠 + 1}
Ecuación 79
En la Tabla 10 se muestra el cálculo obtenido para los 5 niveles de descomposición
usadas y su correspondencia en las subbandas Wavelet
Tabla 10. Definición de sub bandas de la Curvelet en la imagen objeto de estudio.
Elaboración propia.
Subbanda Curvelet Subbanda Wavelet
1 2,3
2 4,5
3 6,7
4 8,9
5 10,11
Este resultado será un arreglo de 4096*4096 llamado Ds̃, conocida como la sub banda
matriz.
Para la realización de las ventanas espaciales; se toma en cuenta la convención de píxeles
en un rango de 1 a 256 en cada coordenada, se relacionan a partir de la posición espacial
(𝑥1 , 𝑥2), que corresponde a la posición (𝑖1 , 𝑖2 ) , por medio de (𝑖ℓ − 1) /4096.
Para efectos del cálculo se tomaron en cuenta dos coordenadas y una sub banda con
s=5 y la posición espacial (𝑥1 , 𝑥2) en la imagen con los píxeles (4,6).
Q(5,4,6) = [4
25,
5
25] 𝑋 [
6
25,
7
25]
Ecuación 80
Estos corresponden al cuadro diádico de píxeles
84
Q(5,4,6,4096) = [4 ⋅ 25 + 1.5 ⋅ 25] 𝑋 [6 ⋅ 25 + 1.7 ⋅ 25]
La ventana es entonces soportada sobre el muestro (𝑖1 , 𝑖2 ) , en el cuadro para el
ejemplo así:
A partir de (Donoho & Duncan, 2000)
[𝐼𝑠,𝑘1−
𝑛
2𝑠+1, 𝐼𝑠,𝑘1+1 +
𝑛
2𝑠+1] 𝑋 [𝐼𝑠,𝑘2
−𝑛
2𝑠+1, 𝐼𝑠,𝑘2+1 +
𝑛
2𝑠+1]
Ecuación 81
[4 −4096
26, 5 +
4096
26] 𝑋 [6 −
4096
26, 7 +
4096
26]
[−60, 69]𝑋[−58,71]
Para este caso donde n=4096 las sub bandas se dividen en los siguientes cuadros
soportadas con los arreglos definidos a continuación
La Tabla 11, muestra la definición de la cuadricula por subbanda y el tamaño del
arreglo del soporte para la Curvelet.
Tabla 11.Definición de cuadricula y soporte de la imagen objeto de estudio en la Curvelet
Elaboración propia.
Sub banda s Cuadricula subdividida Soporte
1 4*4 2048*2048
2 8*8 1024*1024
3 16*16 512*512
4 32*32 256*256
5 64*64 128*128
Estas expansiones se obtienen a partir de las ventanas suaves y la transformada ridgelet:
85
Durante el proceso se realiza una gran expansión de los datos de entre 2 y 4 veces
(Candµes & Donoho, 1999) dados los pasos seguidos mencionados anteriormente; para la
imagen objeto de estudio se obtuvo respecto a este punto que:
Por ejemplo en el cálculo de la sub banda 4 se toma la matriz de tamaño 4096*4096
y se divide en una serie de cuadros de 32*32 con 16*16 superposiciones, los datos
de cada cuadro resultante de 32*32 se asocia a una entrada correspondiente en el
tamaño 16*16. Es decir cada cuadro de salida, tiene 4 veces más números que su
correspondiente de entrada. Por tanto se obtiene una expansión en factor 4
Así mismo en la transformada Ridgelet Digital se utilizó un arreglo de 4096*4096 y
fue devuelta una matriz de n*2n, 4096*8192 por tanto se expande en factor 2.
La implementación del algoritmo se realizó usando la toolbox de Matlab llamada “Curvelet
first generation” el cual fue modificado para aplicar la transformación a la imagen
pancromática y a la componente value, reemplazar los coeficientes encontrados y ejecutar
la transformada inversa, el código original y modificado se puede revisar (Ver Anexo 4),
basada en (Donoho & Duncan, 2000) .
Este proceso se muestra en la Figura 26; en esta se evidencia durante el proceso Figura 26a)
la aplicación de la transformada Ridgelet a cada sub banda dividida de la imagen original a
partir de la cuadricula definida con anterioridad, también se puede observar las
multidirección (muestreo anisotrópico), con el cual se realiza el análisis a cada Ridgelet.
En la Figura 26 b) , se ve además como los coeficientes del análisis Ridgilet entran dentro
de las ventanas espaciales creadas a la imagen original, y cómo estas en la primera sub
banda guardan las más altas frecuencias de los píxeles de la imagen.
86
a) b)
Figura 26. Esquema de desarrollo de la Curvelet. a) Aplicación de la Ridgelet. B) Uso de los coeficientes en la
Curvelet
(Starck, Candès, & Donoho, 2002)
Los coeficientes calculados al ser demasiado grandes requieren un recurso computacional
alto, sin embargo con intención de mostrar el proceso, en la Figura 27 se muestra un recorte
de la imagen original de 256*256, que permite visualizar los coeficientes en las diferentes
sub bandas para el componente rojo tanto de la imagen Wavelet escogida (Symlet 5), como
de la imagen original.
a)
b)
c)
Figura 27. Desarrollo Curvelet, usando Ridgelet local. a) . Imagen original, después de aplicada Wavelet Symlet 5
nivel 5. b) Imagen con estimación de ruido. c) Reconstrucción Curvelet
87
Se implementó tanto para la Figura 27 como para la Figura 28, una estimación del ruido
dentro de la imagen, propuesta por (Emmanuel & Donoho, 2000) que se puede observar en
el apartado b).
a)
b)
c)
Figura 28.Desarrollo Curvelet, usando Ridgelet local. a) . Imagen original, rgb. b) Imagen con estimación de ruido.
c) Reconstrucción Curvelet.
Se realizó con diferentes Wavelet para la definición de la cuadricula, se tomó la sugerida
por el autor del algoritmo, por el soporte compacto y la simetría, la Wavelet Daubechies 2.
Para la fusión fue utilizado el mismo esquema presentado para la Contourlet. El resultado
de la nueva imagen RGB fusionada se puede observar en la Figura 29.
88
Figura 29. Mapa. Nueva imagen RGB, fusionada a partir de la transformada Ridgelet y Curvelet
89
7.7. Evaluación de las imágenes fusionadas
Una vez se realizaron los diferentes procedimientos, se hizo una evaluación de las imágenes
obtenidas. Esta evaluación se realizó entre la imagen RGB original, la imagen Wavelet
Symlet 5-5, y las imágenes obtenidas después de las transformadas Contourlet, Curvelet y
Ridgelet.
Criterio Estadístico
Para el criterio estadístico se utilizó la herramienta “hyperspectral índex analysis”
proporcionada por (Vaiopoulos, 2011) . En la Tabla 12, se presentan los resultados
obtenidos. Es importante mencionar que los datos mostrados son el promedio de las tres
bandas RGB analizadas.
Tabla 12. Evaluación de las imágenes fusionadas
Elaboración propia. Imagen RGB resultante de
Estadístico
Contourlet Symlet 5 nivel 5 Curvelet y Ridgilet
Bias 0,000458 0,003122 0,001795
Divergencia 0,01809 0,25248 0,080712
Coeficiente de correlación
(CC)
0,958198 0,948456 0,953067
Entropía 5,842518 5,689215 5,807904
ERGAS 5,053043 5,752228 5,312716
Calidad Universal (Qu) 0,958156 0,938359 0,95221
RASE 20,21217 23,00891 21,25086
RMSE 5,947986678 6,77652903 6,255226613
90
En los resultados de la Tabla 12, Bias que presenta un resultado, en el que se espera que
las bajas frecuencias no sean tomadas por la imagen fusionada, y en el que el valor ideal
sería 0, la Contourlet ofrece un valor bajo de 0,000458.
Otros coeficientes en los cuales se espera un valor cercano a 0 y que se obtuvieron con la
imagen fusionada a través de la transformada Contourlet fueron:
Divergencia, basada en la división de las varianzas de las imágenes originales y
fusionadas
Ergas y RMSE relacionado a la imagen pancromática y la fusionada
RASE, que se basa en un porcentaje del RMSE
Algunos de los estadísticos muestran los mejores resultados con cercanía a 1, estos son, el
coeficiente de correlación y la calidad universal (Qu), que dentro del estudio también
revelaron efectos óptimos de conservación de información en la imagen fusionada con la
Contourlet.
Por otro lado la entropía busca un valor alto dado que comúnmente se guarda en la imagen
fusionada, dado que la información más abundantes estará allí contenida y mejorará la
calidad de la fusión, en este caso el valor más alto fue de 5,842518
Se encuentra como conclusión que la mejor calidad en fusión fue la obtenida por la imagen
tratada con la transformada Contourlet.
También es importante mencionar que después de la Contourlet con variaciones muy
pequeñas la mejor imagen es producida por las transformadas Ridgelet y Curvelet, lo que
permite afirmar que las 3 transformadas dan como resultado imágenes de calidad que
91
pueden ser utilizadas en los procesamientos con morfología matemática y tienen valores de
más alto grado de preservación de información y resolución que las Wavelet.
7.8. Umbralización
Para la realización del proceso de umbralización, proceso preliminar a la aplicación de
morfología matemática dentro de la imagen, se escogieron varios objetos espaciales, los cuales
se recortaron en diferentes dimensiones para tener menos clases y optimizar el proceso de
binarización de los mismos, dichos objetos se extrajeron de varias de las imágenes obtenidas en
los procesos anteriores en busca del mejor resultado por medio de comparación, los objetos
mostrados a continuación, entonces provienen de las imágenes, ajustada Pancromática,
pancromática, RGB original, Contourlet, Curvelet y Ridgilet y Symlet 5 nivel 5.
Se esperaría entonces que los resultados con un porcentaje mayor de clasificación correcta en la
Umbralización se encontraran en la imagen obtenida por medio de la transformada Contourlet,
ya que según las evaluaciones previas, conserva la mejor calidad espectral y espacial. La Figura
30 muestra los objetos escogidos sobre las imágenes resultantes, ellos son: avión, cuerpo de aga
con vegetación acuática y terrestre a su alrededor, un estructura, circular que hace parte del
aeropuerto, hangar, parte de una pista de aterrizaje en el aeropuerto, una cancha deportiva,
dentro de la zona urbana en la imagen.
92
a)
b)
c)
d)
e)
f)
Figura 30. Objetos geográficos para el proceso de umbralización dentro de las imágenes de trabajo. a) Avión. b)
Cuerpo de agua. c) Estructura. d) Cubierta. e) Pista aérea. f) Cancha deportiva. Objetos tomados de la imagen
Symlet 5 nivel 5.
La Figura 31, presenta la ubicación espacial relativa de los diferentes objetos geográficos
escogidos dentro de la imagen inicial Symlet 5 nivel 5.
93
Figura 31. Ubicación de los diferentes objetos espaciales referidos dentro de la imagen.
La Tabla 13 contiene las coordenadas sobre las imágenes y los tamaños, los objetos, se
escogieron buscando la mayor visibilidad de clases para una mejor extracción y conservando el
principio de dimensión diádica.
Tabla 13. Información de los objetos espaciales a Umbralización.
Elaboración propia. REFERENCIA OBJETO POSICIÓN (X, Y)
Sobre la imagen
TAMAÑO EN PÍXELES
A Avión 3890,13 100*100
B Cuerpo de agua 400,530 200*200
C Estructura circular 3900,1166 100*100
D Cubierta 1690,3100 300*300
E Pista de aterrizaje 2850,1622 400*400
F Cancha deportiva 3714,3326 75*75
B
C E
D
A
F
94
7.8.1. Método Otsu
Aunque para hallar el valor del umbral el software Matlab utilizado en este proyecto, posee un
comando propio basado en este se hicieron varias pruebas y con el implementado por la
Universidad de Quilmes (Ver Anexo 5) («Segmentación por Umbralización», 2005) una vez
realizados, se decidió utilizar el calculado por el software dentro de la
“ToolboxImageprocessing” se obtuvieron los siguientes resultados de la umbralización por el
método Otsu.
a)
b)
Figura 32.Imagen umbralizada con el algoritmo propuesto y el algoritmo del software Matlab
Se puede observar en la Figura 32 b, la umbralizacón generada a partir del software Matlab es
posible diferencia las partes del avión como las alas por ejemplo, aunque los resultados en las
imágenes son similares; se decide usar la herramienta del software ya que se es recomendada
por (Marques, 2011) . La Figura 33 muestra la umbralización realizada sobre el objeto avión,
en la que se observa una serie de divisiones del objeto por la presencia de luz en la parte
posterior y en las alas.
95
a)
b)
Figura 33. Umbralización avión. a) imagen pancromática original. b) Imagen umbralizada
En total se umbralizaron los 6 objetos mostrados en la Figura 30. En la Figura 34, se presentan
los resultados del proceso sobre el objeto cuerpo de agua, para su posterior evaluación mediante
el coeficiente Kappa.
a)
b)
Figura 34. Umbralización cuerpo de agua imagen Wavelet symelt 5 nivel 5. a) original. b) Binarizada
Se evidencia que algunas imágenes tienen varias zonas de binarización como el caso del cuerpo
de agua, incluso con la imagen ya mejorada de la Wavelet Symlet 5 (Figura 34), se genera la
vegetación sobre la superficie del agua, que provoca la diferenciación de varias clases en el
proceso.
96
a)
b)
Figura 35. Umbralización estructura imagen Falsa pancromática. Izquierda original. Derecha Binarizada
Una de las ventajas que presenta el método de Otsu, es que se comporta muy bien en imágenes,
reales en donde hay gran presencia de ruido sobre las mismas (Otsu, 1975) , la Figura 35,
muestra esta situación bajo la imagen “falsa pancromática”, creada con las longitudes de onda
de las bandas que estaban dentro del rango espectral de la banda pancromática, el resultado de
esta, se presenta en la estructura de la Figura 35 a) , los bordes y límites del objetos no están
bien diferenciados y además tiene alto detalle en la cubierta; sin embargo en la binarización
(Figura 35b) , se observa diferenciación objeto-fondo en la parte izquierda, en la zona similar a
al efecto diente de cierra (Daza et al., 2011) , se distinguen muy bien las clases, incluso las
zonas más oscura sobre a cubierta; aun así, evidencian inconvenientes en las zonas circulares de
la parte superior del objeto.
97
a)
b)
c)
d)
Figura 36. Umbralización cancha deportiva imagen original RGB y ajustada a la Pancromática. a) original RGB.
b) BinarizadaRGB.d) Pancromática ajustada. b) Pancromática ajustada binarizada.
Bajo condiciones de poca resolución espacial, el algoritmo presenta resultados como los
observados en la Figura 36 b) , a partir de la imagen original sin ningún tratamiento, los
bordes se toman como una geometría exacta, lo que sería un inconveniente dado que los objetos
como la vegetación o los cuerpos de agua que presentan formas irregulares, este contraste se
puede ver con el resultado de la imagen ajustada al value, allí se observa igualmente presencia
de ruido, que se evidencia en la Figura 36 d) , sin embargo la relación con la realidad es más
alta.
98
a)
c)
b)
d)
Figura 37. Umbralización Pista aérea imagen Contourlet, Curvelet y Ridgelet. Izquierda original. Derecha
Binarizada
En la Figura 37, se observa para las dos imágenes sobre el objeto pista de aterrizaje, con las
transformadas aplicadas, Contourlet, Curvelet y Ridgilet, una gran diferenciación incluso en el
tono de la vegetación, se esperaría más uniformidad para ambas imágenes, sin embargo en este
sentido la Contourlet resulta estar más detallada.
99
a)
b)
c)
d)
Figura 38. Umbralización Avión Contourlet, Curvelet y Ridgelet. Izquierda original. Derecha Binarizada
Respecto a los aviones, en ambas imágenes se presenta un ruido cercano a la estructura de los
mismos que se evidencia en ambas imágenes, al momento de umbralizar, la Contourlet, pierde
varias características de las formas en este lugar; a diferencia de la Curvlet.. En la Contourlet
parte superior Figura 38a) y Figura 38b), se observa que se tomó como una sola clase la zona
del ruido y se catalogó como objeto, por el contrario en la imagen Curvelet, parte inferior de la
Figura 38c) y Figura 38d), se separó como una zona clara, y se definió el borde de la estructura
del avión de forma más exacta.
Así las cosas, para realizar la evaluación con el coeficiente Kappa, basado en el análisis visual y
estadístico, se aplicaran únicamente a la imagen Contourlet y Curvelet-Ridgilet.
100
7.8.2. Método Kittler e Illingworth
Para la implementación de este método de umbralización, se utilizó el algoritmo desarrollado
sobre Matlab, llamado “kittler Minimim Error Thresholding”; se halló el mejor valor del
umbral y posteriormente se aplicó como un valor arbitrario al algoritmo desarrollado por
(«Segmentación por Umbralización», 2005) .
Como ejemplo se utilizó la imagen pancromática en la aplicación de este método de
Umbralización, esto con el fin de evaluar de manera visual que valor de umbral T, con lo que
se obtuvo que:
El umbral calculado por el algoritmo y que fue implementado como valor de entrada T para la
imagen fue de 64.5.
Figura 39. a) Umbral calculado con el método Kittler e Illingworth. b) Umbral calculado con el método Otsu.
La Figura 39, muestra el resultado de la umbralización por dos métodos, la parte a) fue
calculada con Kittler e Illingworth basándose en el error mínimo promedio bajo densidades de
probabilidad, mientras que la parte b) se hizo con Otsu, teniendo en cuenta las varianzas. Se
observa que el método de Kittler e Illingworth aumenta el tamaño del objeto pero clasifica más
exactamente las zonas con poca luz como es el caso del empenaje y las alas del avión. En
cuanto a la conservación de la forma y el tamaño, se concluye que tiene mejor resultado el
101
algoritmo de Otsu, en donde el cálculo de la métrica del nivel encontrado en 0.73 que indica
que la eficacia del valor del umbral, puede estar entre 0 y 1, siendo 1 el valor óptimo.
Este método ha sido ampliamente utilizado, como se puede verificar en los trabajos de (Zhang,
Xu, & Wu, 2011) (Tang & Wu, 2011) y (Lin, Zhong, & Zhong, 2009)
Se aplicó el valor del umbral óptimo encontrado por el método Otsu.
7.8.3. Coeficiente Kappa
El apartado anterior presentó un análisis visual de los resultados de la Umbralización, sin
embargo se hace necesario utilizar otros métodos, de tipo matemático para comprobar si se
realizó una binarización adecuada.
Se realizó un modelo que calculara este criterio sobre el software ERDAS (Ver Anexo 6) y
posterior se calculó el coeficiente, con (Kenny, Kashy, & Cook, 2006) .
En la Tabla 14 se pueden observar los resultados obtenidos de la aplicación del coeficiente
kappa, en estos se presenta el objeto, bajo la clasificación definida en el marco teórico. La
correspondencia de colores está definida de la siguiente forma:
Leyenda
Píxeles objeto clasificados como objeto
Píxeles objeto clasificados como no objeto
Píxeles no objeto clasificados no como objeto
Píxeles no objeto clasificados como objeto
Además de esto se presentan otros estadísticos relevantes asociados donde:
Po, Porcentaje de aciertos;
Pe, Factor de corrección;
ÉTxn, Error estándar de
kappa;
102
I.C.[,Límite inferior del
intervalo de confianza;
I.C.], Límite superior del
intervalo de confianza;
Z, Cota z;
P , Probabilidad;
Donc, Conclusión estadística;
Tabla 14. Resultados de la evaluación del coeficiente kappa sobre la imagen Curvelet y Ridgilet
Elaboración propia. Objeto Estadísticos de la
umbralización
Coeficiente kappa ()
Po 0,9796
Pe 0,8453
k 0,8682
ÉTkn 0,0099
I.C. [ 0,8487
I.C. ] 0,8876
Z 87,4637
p 0,0000
Donc p<0,05
0,86
Po
Pe
ÉTkn
0,9186 0,5891 0,0049
I.C.[ 0,7922
I.C.] 0,8114
Z 163,4472
P 0,0000
Donc p<0,05
0,8018
Po 0,9671
Pe 0,5000
ÉTkn 0,0132
I.C. [ 0,9084
I.C. ] 0,9600
Z 71,0092
p 0,0000
Donc p<0,05
0,9342
103
Po 0,9513
Pe 0,7212
ÉTkn 0,0033
I.C. [ 0,8188
I.C. ] 0,8317
Z 251,4114
p 0,0000
Donc p<0,05
0,8253
Po 0,8973
Pe 0,5014
ÉTkn 0,0099
I.C. [ 0,7746
I.C. ] 0,8134
Z 80,1925
p 0,0000
Donc p<0,05
0,7940
Un valor mayor al 75% en el coeficiente Kappa se considera aceptable durante la
Umbralización (Medina et al., 2013) , los objetos analizados corresponden a la imagen
Curvelet, se observan resultados admisibles en todos los objetos señalados, aun así cuando hay
sombras se confunden las formas y producen porcentajes menores; visualmente se puede
observaren el caso del objeto estructura, posición cuatro (Ver Tabla 14).
7.9. Morfología matemática.
La morfología matemática, hace parte del procesamiento digital de imágenes no lineal, tiene
sus orígenes teóricos y fundamentos matemáticos, en la teoría de conjuntos, el análisis de
conjuntos convexos y la geometría integral, la estereología y la probabilidad geométrica.
(Morales & Azuela, 2011) .
7.9.1. Aplicación de algoritmos de morfología matemática
Se realizó la implementación de cinco algoritmos de morfología matemática, sobre las
imágenes resultantes de la evaluación de las transformadas Contourlet y Curvelet-Ridgilet,
usando la herramienta Matlab.
104
Siguiendo con los procesos mencionados en la metodología, los resultados de este proceso se
presentan a continuación.
7.9.1.1. Extracción de bordes
La Figura 40 muestra los resultados de la aplicación del algoritmo sobre tres objetos a) Avión,
b)Cancha deportiva y c) Cuerpo de agua, como su nombre lo indica se conservan únicamente
los bordes del objeto, cambiando los valores de los píxeles que conforman el relleno de las
formas, en la Figura 40a) se observa que en la parte posterior del avión se forman dos bordes
diferentes, esto se debe a que en esta zona hay poca presencia de luz, lo que desde el proceso de
umbralizacón divide el objeto real, caso contrario a las Figuras 40b) y 40 c), en las cuales se
observa una gran diferenciación de los bordes de los objetos.
a) b) c)
Figura 40. Algoritmo de extracción de borde. a) Imagen Curvelet y Ridgilet. b) Imagen Contourlet. c) Imagen
Curvelet y Ridgilet.
7.9.1.2. Rellenado de región
Para este algoritmo se tuvieron en cuenta las imágenes creadas con las transformadas Curvelet-
Ridgilet y Contourlet, dado que mediante las primeras se obtuvo la más alta evaluación en la
umbralizacion, mientras que en la última se obtuvo más alta evaluación estadística, por lo que
se propuso la comparación de algoritmos morfológicos entre ambas. Los resultados se pueden
105
observar en la Figura 41, allí se utilizó el rellenado de región basado en cambiar el valor en
ciertas regiones contiguas a las ya conocidas, por 1, haciéndolas parte del objeto, el resultado
más relevante en cuento a perdida de forma se dio en la Figura 41b) , proveniente de la imagen
Contourlet, a pesar de que su evaluación de Umbralización fue alta, la mezcla de varios objetos
produjo que durante la ejecución del algoritmo fueran rellenadas regiones grandes de la imagen.
Además de esto en la Figura 41 a), se logra mejorar la división de los objetos en la parte
posterior del avión.
a) b) c)
Figura 41. Rellenado de región a) Imagen Curvelet. b) imagen Contourlet. C) Imagen Curvelet
7.9.1.3. Adelgazamiento
La implementación del algoritmo se puede observar en la Figura 42, donde se muestra el
estrechamiento de los objetos Figura 42b) y Figura 42c).
106
a) b) c)
Figura 42. Algoritmo de adelgazamiento. a) y b) Imagen Contourlet. c) Imagen Curvelet y Ridgilet
La Figura 42c) muestra un adelgazamiento que simplifica la Figura, dado que el objeto tiene
una umbralización de alto porcentaje, igual situación se evidencia en la Figura 44 b) este
objeto fue extraído de la imagen Contourlet; por otro lado el objeto extraído como pista de
aviación no arroja resultados precisos dada la cantidad de clases que no se umbralizaron
eficientemente.
7.9.1.4. Espesamiento
Para la aplicación del algoritmo de espesamiento se usaron cinco iteraciones sobre los objetos,
resultados que se pueden observar en la Figura 43.
a) b) c)
Figura 43. Algoritmo engrosamiento. a) y b) Imagen Curvelet. c) Imagen Contourlet.
107
La Figura 43, muestra el engrosamiento de los objetos, estructura, cuerpo de agua y cancha
deportiva, el resultado más óptimo se presenta en la Figura 45b) , el cuerpo de agua, el cual
puede ser útil en la detección de cambios. De hecho algunos de los algoritmos aquí
implementados permiten realizar procesos de cálculo posterior para determinar pérdida o
ganancia de estos objetos dentro del contexto de estudios multitemporales con imágenes
satelitales.
7.9.1.5. Esqueletos
En la Figura 44 se encuentra el proceso realizado sobre las imágenes objeto de estudio se
muestran el avión, la pista y el cuerpo de agua con y sus respectivos esqueletos.
Este algoritmo se logra de dos maneras, haciendo una serie de erosiones sobre el algoritmo de
adelgazamiento, o calculando las distancias entre el centro de la forma a analizar, se utilizó la
primera forma.
a) b) c)
Figura 44. Aplicación algoritmo de esqueleto. a) Esqueleto avión, imagen pancromática. b) Esqueleto pista área,
imagen Curvelet y Ridgilet. c) Esqueleto cuerpo de agua, imagen Contourlet
(González et al., 1996)
La Figura 44 muestra en la parte a) , como el esqueleto únicamente se desconecta, donde la
Umbralización no está ajustada, dado que se usaron para su consecución las erosiones
sucesivas, estas se detienen únicamente cuando ya no es posible aplicar más el algoritmo de
108
adelgazamiento porque existe una desconexión en las formas, caso contrario a la Figura 44 b) ,
en donde se toma como objeto varias partes que representan cultivos, y estas conservan la
continuidad que es uno de los beneficios del algoritmo de esqueletización, en ella incluso se
pueden hacer diferenciaciones de parcelas a partir de la umbralización lograda por los
diferentes tonos de la imagen, lo que podría generar estudios de detección de cambios potentes
(Ver Figura 44) . Así mismo en la Figura 44c) realizando un análisis sobre el cuerpo de agua; el
esqueleto no se generó sobre este, sino sobre la vegetación alrededor, dado que el tono y color
era uniforme se creó una única conexión alrededor y las demás están dadas por las erosiones
sucesivas de la vegetación presente.
7.9.2. Evaluación
Posterior a esto continuando con los procesos descritos en la metodología, se procedió a la
evaluación de resultados de los algoritmos de morfología matemática, este procedimiento se
realizó siguiendo el mismo desarrollo teórico mencionado anteriormente por medio del
coeficiente kappa, que busca determinar la clasificación del objeto, basado en la forma.
Por tanto se decidió realizar la evaluación agrupando los algoritmos según la operación de
morfología básica a la que están asociados; es decir erosión o dilatación, los algoritmos de
rellenado de región y espesamiento están relacionados a la dilatación, mientras que los
esqueletos, la extracción de bordes y el adelgazamiento a la erosión.
Al decidir usar el coeficiente kappa como método de evaluación es necesario que los objetos
estén completos en cuanto a forma y textura, por tanto el proceso fue realizado sobre los
algoritmos agrupados con la dilatación.
La Tabla 15 presenta el resultado de la evaluación del coeficiente kappa sobre cuatro objetos
geográficos: avión, cancha deportiva, cuerpo de agua y pista aérea, dos provenientes de la
109
imagen resultante de la transformada Contourlet y dos de la aplicación de las trasnformadas
Curvelet-Ridgilet
Tabla 15. Evaluación de la aplicación de morfología matemática sobre los objetos
ESPESAMIENTO
Imagen transformada Contourlet
Imagen transformada Contourlet
Imagen transformada Curvelet y Ridgilet
Imagen transformada Curvelet y Ridgilet
0,4602
0,5195
0,7504
0,5500
RELLENADO DE REGIÓN
0,9059
0,7109
0,8367
0,6352
Se observa que el algoritmo que define mejor la forma es el rellenado de región en el que todos
los objetos geográficos evaluados presentan un coeficiente kappa por encima del 60%, en
objetos con poco ruido alrededor como el avión se encuentra una relación del 90% con el objeto
original umbralizado.
7.10. Validación de los resultados obtenidos
110
Obtenidos y realizados los análisis correspondientes se tomó la decisión de validar los
resultados con dos imágenes de diferentes sensores con diferentes resoluciones esto con la
intención de revisar el comportamiento a los procesos en datos disimilares entre sí.
Las dos imágenes se ubican en una zona de estudio común, para mantener características de
forma y ubicación de la imagen original World-view2, se encuentra en Bogotá DC, en la
imagen IKONOS se elige el área del Parque Metropolitano Simón Bolívar y al rededores dado
la cantidad de geográficos que tienen relación con el estudio, es decir, cuerpos de agua,
vegetación, vías, etc. Por otro lado en la imagen Landsat8, es una imagen de baja resolución,
donde se distinguen pocos objetos espaciales de forma precisa, sin embargo se puede encontrar
la misma zona, pero con diferenciación de menos elementos y un área más grande.
Los procedimientos seguidos para estas imágenes en el procesos de validación fueron idénticos
respecto a la imagen base del presente trabajo se realizaron las Wavelet, y se ejecutaron las
diferentes transformadas de mejoramiento, se cambiaron únicamente los datos de resolución de
las mismas, además se utilizaron tamaños de imagen diferentes en comparación con la imagen
original, a continuación se describen los detalles de las imágenes utilizadas.
7.10.1. Imagen IKONOS
“El satélite IKONOS es el primer satélite comercial del mundo en obtener imágenes
pancromáticas (en blanco y negro) con una resolución de 0.80 m e imágenes
multiespectrales (en color) con una resolución de 3.2 m. Las imágenes de los sensores
pancromáticos y multiespectrales pueden fusionarse para crear imágenes en color de
0.80 m (fusionadas [pan-sharpened]) . Las imágenes de IKONOS son utilizadas para la
seguridad nacional, la cartografía militar y el transporte aéreo y marítimo, y son
empleadas por los gobiernos regionales y locales. Desde una órbita de 423 millas de
111
altura, IKONOS tiene un tiempo de revisita de una vez cada tres días y enlaces
descendentes directos con más de una docena de estaciones terrestres en todo el
mundo” (DigitalGlobe, 2014) .
En la Tabla 16 se muestran los datos de captura de la imagen IKONOS en donde se puede
observar el rango espectral de las bandas del sensor, con su respectiva resolución espacial.
Tabla 16. Especificación satélite IKONOS.
Elaboración propia
La imagen IKONOS cubre la Zona del “Parque Metropolitano Simón Bolívar", en la ciudad de
Bogotá D.C., Colombia; éste es el Parque más grande e importante de la capital de la república,
se encuentra en el centro geográfico de la ciudad y es considerado su pulmón, tiene entre sus
características una extensión total de 113 hectáreas, un lago con extensión de 11 hectáreas y
una red de caminos de 16 Kilómetros, entre otras áreas de servicio y escenarios especializados
para diferentes deportes. («Visitando Bogotá», 2004)
La Figura 45, muestra la zona de estudio tomada para la validación en el sensor IKONOS, en
donde se observa el “Parque Metropolitano Simón Bolívar”.
Satelite Sensor Bandas Rango Espectral
Tamaño Escena
Resolución de Píxel
IKONOS Multi-espectral
1=Blue 455 - 520 µm 11 X 11 km 4 metros
2=Green 510 - 600 µm
3=Red 630 - 700 µm
4=NIR 760 - 850 µm
Pancromático Pan 760 - 850 µm 1 metro
112
Figura 45. Zona de estudio orginial. Composición a color RGB 321. Imagen IKONOS
7.10.1.1. Procedimientos previos sobre la imagen
Se tomó un recorte de tamaño 2048*2048 píxeles en el cual se centraron objetos espaciales
como cuerpos de agua, canchas deportivas y vías dentro de la misma para su respectivo
análisis.
En las Figuras 46a) y 46b) se muestra la transformación de espacio de color RGB-HSV y la
componente Value extraída, como parte de los procedimientos preliminares realizados.
113
a)
b)
Figura 46. a) Imagen HSV. b) Imagen componente Value
7.10.1.2. Aplicación de las 5 Wavelet obtenidas en el estudio
Una vez realizado el proceso se decidió realizar la implementación de las 5 mejores
transformadas Wavelet con sus respectivos niveles obtenidos sobre la imagen Wolrd-View 2,
con la intención de corroborar que estas tuvieran valores altos y conservación de calidad
espectral y espacial, para de esta manera reafirmar la utilización de la Wavelet Symlet 5 en el
nivel 5 de descomposición.
114
Figura 47. Imagen Value nuevo, aplicando la Wavelet Symlet 5 en el nivel de descomposición 5.
Se puede observar en la Figura 47, la imagen resultante de aplicar la Wavelet de más alta
evaluación estadística encontrada en el presente trabajo, los detalles del lago del Parque son
mejorados notablemente al igual que las vías y algunos caminos cercanos, las cubiertas de las
estructuras también muestran gran definición sobre la imagen incluso las que están cerca del
ruido presente en la escena (nubes).
7.10.1.3. Resultados de la evaluación con los diferentes estadísticos
Los resultados difieren delos obtenidos sobre la imagen Worldview 2; sin embargo estos siguen
teniendo una tendencia aceptable y no difieren en gran medida los unos de los otros, por esta
razón se toma la decisión de implementar los algoritmos faltantes sobre la imagen, con la
Wavelet Symlet 5 nivel 5, y estudiar los resultados.
Se presentan en la Tabla 17 los resultados de la evaluación realizada sobre la imagen
IKONOS; aquí se evaluaron 5 niveles de las Wavelet Bior 6.8, Bior 2.6, Bior 3.7, Symlet 5 y
115
Daubechies 4 mostrando las mismas Wavelet obtenidas como las mejores sobre la imagen
objeto de estudio del presente trabajo.
Tabla 17. Estadístico imagen fusionada con las diferentes Wavelet IKONOS
Elaboración propia.
WAVELET ERGAS RASE RMSE Q CC BIAS DIV ENTROPIA
SYMLET 5-5 12,00 24,01 12,04 0,753 0,759 -0,075 0,18 5,83
BIOR 3.7 -5 12,13 24,26 12,17 0,752 0,758 -0,079 0,16 5,84
BIOR 2.6-5 12,17 24,35 12,21 0,752 0,796 -0,086 0,18 5,83
DB7-4 10,50 21,00 10,52 0,788 0,798 -0,032 0,24 5,73
Bior6.8-4 10,62 21,24 10,64 0,788 0,760 -0,044 0,17 5,74
En la Tabla 19 se pueden observar los resultados de la evaluación de los diferentes estadísticos
(Vaiopoulos, 2011) , en ellos se evidencia que las diferentes Wavelet tiene comportamientos
similares, sin embargo para esta, la mejor Wavelet no es la Symlet 5 nivel 5, sino resulta ser la
Bior 6.8 nivel 4, aun así y como se mencionó anteriormente se busca visualizar los resultados
aplicando las mismas condiciones que el trabajo inicial.
7.10.1.4. Aplicación de las transformadas Contourlet Curvelet y Ridgilet
Como se mencionó anteriormente estos algoritmos fueron implementados con el mismo flujo
que la imagen original estos se pueden ver en la Figura 23 y Figura 24.
Se realizó el reemplazó del coeficiente de aproximación de la imagen de la pancromática en el
Value, tanto en la Contourlet como en la Curvelet y la Ridgilet siguiendo los diferentes
diagramas de trabajo.
116
Figura 48. Coeficientes Contourlet de la imagen IKONOS
La Figura 48 muestra los coeficientes de la transformada Contourlet de los cuales se tomaron la
pasa-baja en donde se guarda la mayor cantidad de información, para ser sustituidas. Los
coeficientes la Curvelet y Ridgilet se tomaron a partir del filtro direccional y de escala.
Una vez realizado este proceso, se concatenaron las componentes de matiz y saturación y se
realizó la conversión al espacio de color RGB, con lo cual se obtuvieron las imágenes Figura
49a) y Figura 49b).
117
a)
b)
Figura 49.Imágenes resultantes de las transformadas. a) Contourlet. b) Curvelet y Ridgilet
Al realizar la evaluación sobre las imágenes de la Figura 49, se presentó una situación similar a
la descrita en el trabajo general, al evaluar las imágenes en relación a la imagen RGB el
resultado de mayor conservación de la información se obtiene con la Contourlet, pero al
efectuar el mismo proceso sobre la imagen ya procesada Wavelet, se obtiene la que la imagen
generada a partir de las transformadas Curvelet y Ridgilet, es más aproximada al resultado
deseado de preservación de resolución e información.
7.10.1.5. Aplicación de los algoritmos de morfología matemática
Para este procedimiento es necesario realizar la Umbralización de los objetos escogidos para su
posterior extracción, dichos objetos umbralizados se muestran en la Figura 50, en donde se
encuentran en la Figura 50 a) vías y en la Figura 50b) el cuerpo de agua “Lago”.
118
a)
b)
Figura 50. Objetos umbralizados por el método Otsu. Imagen IKONOS. a) Lago, Imagen Contourlet, b)
Estructura, Imagen Curvelet y Ridgilet
Además de esto se realiza la evaluación por medio del coeficiente Kappa, y se muestran en la
Tabla 18 los estadísticos resultantes del proceso.
Tabla 18. Resultados de la evaluación de la umbralización con el coeficiente Kappa. Imagen IKONOS
Elaboración propia. Objeto Estadísticos de la
umbralización
Coeficiente kappa ()
Po 0,8328
Pe 0,5076
ÉTn 0,0010
I.C. [ 0,6584
I.C. ] 0,6624
Z 649,3154
p 0,0000
Donc p<0,05
0,66
Po 0,8599
Pe 0,5255
ÉTn 0,0065
I.C. [ 0,6918
I.C. ] 0,7175
Z 107,6757
p 0,0000
Donc p<0,05
0,7047
119
Los valores provenientes del coeficiente no son altos, esto dado que las dos imágenes presentan
una gran cantidad de elementos en ellas, aun así las vías presentan una buena definición; la
zona del lago se muestra bien umbralizada a excepción de la parte inferior en donde existe
vegetación sobre la imagen; que produce objetos clasificados como no objeto.
Finalmente se realiza la aplicación de los diferentes algoritmos de morfología matemática
donde se obtuvieron los siguientes resultados.
Extracción de bordes
Este algoritmo se produce a partir de la erosión sucesiva de los píxeles que se encuentran en el
límite de los objetos, posee múltiples aplicaciones sobre las imágenes médicas, para detección
a partir de un filtrado. (Pertusa, 2003)
a)
b)
Figura 51. Algoritmo extracción de bordes. a) Contourlet, lago b) Curvelet y Ridgilet, Vías.
La Figura 51 muestra los resultados de la aplicación tanto a la imagen Contourlet como la
Curvelet y Ridgilet en la imagen IKONOS.
120
Rellenado de región
Es una operación que permite la realización de una dilatación particular sobre los píxeles que
limitan las regiones internas de los objetos con valor lógico 0 únicamente. (Grau, 2003)
a)
b)
Figura 52. Algoritmo rellenado de región . a) Contourlet, Lago b) Curvelet y Ridgilet, Vías.
Se puede observar en la Figura 52 a) , al momento de dilatar los píxeles en el rellenado de
región la umbralización es un paso importante, partes del lago no se encuentran separadas y
varias poseen el valor lógico de 0, esto produce que los agujeros que se encuentran se rellenen
de tal forma que se pierde en gran parte la forma.
Adelgazamiento
Este algoritmo de adelgazamiento busca básicamente ir estrechando los objetos hasta dejarlos
como un camino de píxeles conexos. Resulta útil para remover píxeles escogidos. (Fisher,
Perkins, Walker, & Wolfart, 2001) Se puede evidenciar en la Figura 53 a) que dentro del lago
se encuentran varios elementos los cuales son sometidos al proceso y se diferencian podrían
deberse a vegetación o niveles de luz diferentes durante la toma.
121
a)
b)
Figura 53. Algoritmo adelgazamiento. a) Contourlet, lago. b) Curvelet y Ridgilet, vías
Este proceso de adelgazamiento también es importante para el proceso de esqueletizacion es
generalmente empleado para dar un orden en la salida delos detectores de bordes, produciendo
la reducción de las líneas con píxeles de espesor individual. (Fisher et al., 2001)
Espesamiento
Este algoritmo resulta ser el inverso al de adelgazamiento, busca hacer crecer regiones de
píxeles.
a)
b)
Figura 54. Algoritmo espesamiento. a) Contourlet, lago b) Curvelet y Ridgilet, vías
Se muestra una clasificación más exacta sobre el cuerpo de agua respecto a la Umbralización
inicial proveniente de la imagen Contourlet (Figura 54a)
122
Esqueletos.
Este algoritmo puede ser calculado a partir de iteraciones por adelgazamiento que realiza un
proceso de erosión desde el límite de los píxeles, es útil ya que produce una representación
compacta y sencilla pero que conserva las características topológicas de conectividad. (Fisher
et al., 2001). La Figura 55 muestra los resultados de esqueletos en los dos objetos, se puede
observar que en el objeto vías se conserva una buena diferenciación de cada vía dentro del
objeto y se conserva conectividad, mientras que en el lago al haber una gran extensión
vegetación alrededor las conexiones se hacen muy pequeñas y partes del lago son
esqueletizadas.
a)
b)
Figura 55. Algoritmo esqueleto. a) Contourlet, vías, b) Curvelet y Ridgilet, lago.
Otra de las propiedades que representan una ventaja en este proceso, es conservar el tamaño de
la forma de tal manera que es posible calcular la longitud del objeto únicamente con la
separación de los puntos finales de los esqueletos (Fisher et al., 2001)
7.10.2. Imagen Landsat 8 (OLI)
“El satélite LANDSAT 8 (OLI) incorpora dos instrumentos de barrido: Operational Land
Imager (OLI), y un sensor térmico infrarrojo llamado Thermal Infrared Sensor (TIRS) .
123
Las bandas espectrales del sensor OLI, aunque similares a el sensor Landsat 7 ETM +,
proporcionan una mejora de los instrumentos de las misiones Landsat anteriores, debido a la
incorporación de dos nuevas bandas espectrales: un canal profundo en el azul visible (banda 1)
, diseñado específicamente para los recursos hídricos e investigación en zonas costeras, y un
nuevo canal infrarrojo (banda 9) para la detección de nubes cirrus. Adicionalmente una nueva
banda de control de calidad se incluye con cada producto de datos generado. Esto proporciona
información más detallada sobre la presencia de características tales como las nubes, agua y
nieve. Por otra parte el sensor TIRS recoge dos bandas espectrales en longitudes de onda
incluidas por la misma banda en los anteriores sensores TM y ETM+” (Ariza, 2013)
Las longitudes de onda y resolución de los sensores se muestran en la Tabla 19.
Tabla 19.Especificaciones satélite Landsat 8.
Tomado de (Ariza, 2013)
La zona de estudio comprende además de la zona ya descrita en la imagen IKONOS del Parque
Metropolitano Simón Bolívar, Un área de varios kilómetros a su alrededor, en donde se pueden
observar, diferentes elementos como vías, construcciones y predios distribuidos sobre la ciudad,
esto con la intención de validar los resultados sobre objetos con menor definición resolución.
124
.
Figura 56. Zona de estudio, imagen Landsat 8
La Figura 56 muestra el área de estudio escogida sobre la imagen Landsat 8, en la cual se puede
observar la zona de trabajo de la imagen IKONOS en el centro; y sus alrededores, incluyendo
incluso una parte de los cerros orientales de la ciudad de Bogotá D.C.
7.10.2.1. Procedimientos previos sobre la imagen
Se realizaron algunos procedimientos previos los cuales incluyeron, determinar la zona de
trabajo, descrita anteriormente y el recorte de la imagen a un tamaño para el estudio de
1024*1024 píxeles, se efectuaron los mismos procedimientos mencionados para la imagen
IKONOS, en donde se realizó a transformación a espacio HSV.
125
a)
b)
Figura 57. a) Transformación al espacio HSV. b) Extracción componente Value
Para posteriormente extraer la componente del Value, los resultados de este procedimiento se
puede observar en la Figura 57a) y 57b) y con esta realizar la fusión con las diferentes
Wavelet.
7.10.2.2. Aplicación de las 5 mejores Wavelet obtenidas en el estudio
Se aplicaron de igual forma las mismas Wavelet utilizadas en el estudio inicial y en la
validación con la imagen IKONOS, en los 5 niveles de descomposición propuestos, con la cual
se obtuvo el nuevo componente Value.
Con esta imagen presentada en la Figura 58; se procedió a realizar la nueva composición a
color RGB y aplicar los algoritmos de las transformadas de Contourlet, Curvelet y Ridgilet.
126
Figura 58. Imagen Value nuevo, aplicando la Wavelet Symlet 5 en el nivel de descomposición 5.
7.10.2.3. Resultados de la evaluación con los diferentes estadísticos
En la Tabla 20 se pueden observar los resultados de la evaluación estadística realizada sobre
las imagenes fusionadas, son consecuentes en relación a los ya encontrados en las otras
imágenes con valores que indican la alta calidad en las resoluciones de la fusión de todas las
imágenes
Tabla 20. Estadístico imagen fusionada con las diferentes Wavelet, Landsat 8.
Elaboración propia.
WAVELET ERGAS RASE RMSE Q CC BIAS DIV ENTROPIA
SYMLET 5-5 25,11 50,25 17,47 0,68 0,86 0,4858 -0,52 4,7539
BIOR 3.7 -5 24,23 48,49 16,86 0,69 0,86 0,4678 -0,51 4,7522
BIOR 2.6-5 26,08 52,19 18,15 0,66 0,86 0,5059 -0,53 4,7518
DB7-4 28,22 56,47 19,63 0,62 0,85 0,5501 -0,44 4,6820
Bior6.8-4 27,76 55, 55 19,31 0,63 0,85 0,5407 -0,44 4,6863
127
Los estadísticos presentados en la Tabla 20, muestran que aunque los valores son cercanos
entre sí, nuevamente la mejor transformada para el caso no es la Symlet 5 nivel de
descomposición 5, sino la Bior 3.7 nivel 5 esta posee los valores más cercanos a 1 en los
estadísticos de calidad universal y coeficiente de correlación y a su vez los más pequeños en los
estadísticos de RMSE y ERGAS. Se resalta además que los valores no son tan óptimos como
los encontrados sobre la imagen World-view2 e IKONOS.
Sin embargo como se mencionó en otras ocasiones se utilizó esta imagen dado que tiene buenos
resultados y permite un mejor análisis en el proceso de validación, porque brindan una
comparación con escenarios y herramientas similares.
Una vez obtenidos los resultados se aplicaron las transformadas para el mejoramiento de los
bordes.
7.10.2.4. Aplicación de las transformadas Contourlet Curvelet y Ridgilet
Los procedimientos se aplicaron siguiendo los mismo diagramas de trabajo sugeridos en la
metodología, conservando las características de la imagen original a tratar como la condición
diádica, o la relación en potencias de 2, con lo cual se obtuvieron los respectivos coeficientes
que fueron reemplazados respectivamente en las imágenes utilizando, la componente del Value
y la imagen Pancromática, tanto para la transformada Contourlet como la Curvelet y Ridgilet.
Los coeficientes para la transformada Contourlet se muestran en la Figura 59.
128
Figura 59. Coeficiente Contourlet, imagen Landsat 8
Con la obtención y reemplazo de los diferentes coeficientes resultantes de las transformadas, se
aplicó la transformada inversa, con la intención de obtener una nueva imagen de Value para las
dos transformadas; esta nueva componente de Value hallada, se concatenó con las componentes
saturación y matiz para su respectiva transformación al espacio de color RGB. Los resultados
del procedimiento anteriormente descrito se pueden observar en la Figura 60
a)
b)
Figura 60. Imágenes resultantes de las transformadas. a) Contourlet. b) Curvelet y Ridgilet
129
Posterior a esto se realizó la evaluación (Vaiopoulos, 2011) , en la cual se encontró que la
imagen con mayor coeficiente de correlación (CC) se obtuvo con la transformada de Curvelet
y Ridgilet, sin embargo y al ver que la transformada objeto de estudio presenta valores de
fusión aceptables, el procedimiento de morfología se realizó para objetos presentes en las dos
imágenes.
7.10.2.5. Aplicación de los algoritmos de morfología matemática
En esta sección se aplicaron los algoritmos ya descritos de Morfología matemática, sobre dos
objetos presentes tanto en la imagen Contourlet como en la Curvelet y Ridgilet, estos
algoritmos fueron: Extracción de bordes, rellenado de región, adelgazamiento, espesamiento y
esqueletos.
Se escogieron dos objetos espaciales ubicados sobre la imagen, el primero es la zona del
“Parque Metropolitano Simón Bolívar”, específicamente la sección del lago y una estructura
presente, con la intención de evaluar el comportamiento del cuerpo de agua ante el proceso de
umbralización y morfología, con lo que se obtuvo lo siguiente para las dos imágenes creadas.
Durante el proceso de umbralización se aplicó el algoritmo de Otsu, ya descrito anteriormente y
se evaluó con el coeficiente Kappa, para determinar la calidad de la clasificación.
La Figura 61, muestra las umbralizaciones realizadas y los dos objetos de estudio tratados en el
párrafo anterior.
130
a)
b)
Figura 61. Objetos umbralizados por el método Otsu. Imagen Landsat 8. a) Lago, Imagen Contourlet, b)
Estructura, Imagen Curvelet y Ridgilet
A estos objetos se les realizo la evaluación con el coeficiente Kappa que se muestran en la
Tabla 21.
Tabla 21. Resultados de la evaluación de la umbralización con el coeficiente Kappa. Imagen Landsat 8
Elaboración propia. Objeto Estadísticos de la
umbralización
Coeficiente kappa ()
Po 0,9567
Pe 0,6001
ÉTn 0,0099
I.C. [ 0,8723
I.C. ] 0,9111
Z 90,0995
p 0,0000
Donc p<0,05
0,8917
Po 0,9992
Pe 0,8426
ÉTn 0,0196
I.C. [ 0,9567
I.C. ] 1,0335
Z 50,7509
p 0,0000
Donc p<0,05
0,9951
131
Como se observa en la Tabla 21 el coeficiente kappa, presenta un valor óptimo para las dos
imágenes además de arrojar los demás estadísticos complementarios a saber Po, Porcentaje de
aciertos; Pe, Factor de corrección; ÉTxn, Error estándar de kappa; I.C.[,Límite inferior del
intervalo de confianza; I.C.], Límite superior del intervalo de confianza; Z, Cota z; P ,
Probabilidad; Donc, Conclusión estadística.
Extracción de bordes
La Figura 62 muestra la extracción de bordes para las dos imágenes estudiadas se puede
observar que presentan resultados similares, y la definición de las formas es baja por sus
condiciones de resolución.
a)
b)
Figura 62. Algoritmo extracción de bordes. a) Contourlet, b) Curvelet y Ridgilet
Este algoritmo ha sido usado ampliamente en el procesamiento digital de imágenes para la
detección de cambios fuertes en los valores que enfatizan bordes y también en la extracción de
líneas que resalta cambios geométricos en una dirección determinada sobre imágenes
satelitales. (Grau, 2003)
132
Rellenado de región
La Figura 63 muestra los resultados de la aplicación del algoritmo de rellenado de región, este
algoritmo es frecuentemente usado dada la presencia de agujeros tras una segmentación por
umbrales, por ejemplo, dado que algunos de los píxeles interiores de la estructura tiende a
presentar valores fuera del rango se requiere una análisis profundo del localización de los
píxeles interiores. (Grau, 2003)
a)
b)
Figura 63. Algoritmo rellenado de región. a) Contourlet, b) Curvelet y Ridgilet
El siguiente objeto es de tamaño 100*100 píxeles compuesto de varias cubiertas de estructuras
cercanas a la zona, con la intención de analizar el comportamiento cuando las estructuras están
separadas entre sí, pero cercanas.
Adelgazamiento
Se aplica de manera iterativa a partir del kernel entre su utilidad se encuentra reducir el grosor
de las líneas entregadas por un detector de bordes a un solo píxel de ancho. (Fisher et al., 2001)
133
a)
b)
Figura 64. Algoritmo adelgazamiento. a) Contourlet, estructura b) Curvelet y Ridgilet, Lago
Se observa que la resolución juega un papel importante en este algoritmo, dado que reduce la
cantidad de píxeles de forma iterativa, los objetos como el lago Figura 64b) . Pierde su forma
original.
Espesamiento
Este algoritmo es parecido a la dilatación o cierre mencionados en profundidad en el marco
teórico, busca hacer crecer regiones seleccionadas tiene aplicaciones importantes en la
determinación de la cubierta convexa y del esqueleto basado en la zona de influencia. (Fisher
et al., 2001) .La Figura 65 muestra el proceso de espesamiento sobre el lago Figura 65a) es esta
la forma del objeto se pierde totalmente porque las regiones escogidas tienen baja resolución lo
que produce que se rellenen de forma uniforme las regiones similares y contiguas. Y sobre la
cubierta 65b) existe más conservación de la forma porque hay menos clases dentro de la
imagen.
134
a)
b)
Figura 65. Algoritmo espesamiento. a) Contourlet, lago b) Curvelet y Ridgilet, Estructura
Esta operación está relacionada con la transformación acierto o error esta consiste básicamente
en buscar patrones particulares de primer plano y fondo de la imagen (background y
foreground) (Fisher et al., 2001)
Esqueletos.
El algoritmo de esqueleto es muy sensible al ruido, tal y como se aprecia en la Figura 66a) y
Figura 66 b), en ellas se observa que entre menos elementos se encuentren dentro de la imagen
el resultado sobre la imagen permite diferenciar el objeto, mientras que a más presencia las
iteraciones se repiten y produce menos elementos sobre el objeto perdida de conexión como se
observa en la Figura 66a) donde el lago pierde conexión en la parte inferior.
También se evidencia en la Figura 66b) que en algunos puntos los esqueletos tienen grosores
diferentes, esto es porque al no ser uniformes los elementos al momento de hacer la última
erosión sobre un punto, el algoritmo se detiene aunque hayan elementos con más iteraciones
posibles.
135
a)
b)
Figura 66. Algoritmo esqueleto. a) Contourlet, lago b) Curvelet y Ridgilet, estuctura
Existen dos formas de realizar el algoritmo de esqueletos, una se trata de la aplicación de
sucesivas erosiones sobre un adelgazamiento, hasta que no halla posibilidad de erosionar
más; mientras que otra forma de realizar la deducción de este algoritmo es mediante el
cálculo de las distancias de transformación donde el esqueleto se encuentra a lo largo de
singularidades, como pliegues, o curvas en dichas distancias (Fisher et al., 2001).
7.11. Generación de mapas de clasificación de uso y cobertura de la tierra.
Durante la etapa de generación de producto se decidió realizar dos mapas de clasificación
de uso y cobertura de la tierra por el método de clasificación supervisada como producto
con la intención de evidenciar cuan bien clasificada queda una imagen después de ser
sometida tratamiento digital que se estudió durante este trabajo y la imagen que no ha sido
sometida a ningún mejoramiento.
En este caso se eligieron 6 clases para la leyenda, basadas en la metodología Corine Land
Cover, adaptada a escala 1:10000 por el IGAC («Informe Ambiental Quindio», 2013.) , En
la Tabla 22, se muestra la definición del 3 nivel de clasificación según la metodología
Corine Land Cover.
136
Tabla 22. Especificación de niveles de clasificación, metodología Corine Land Cover. Escala 1:10000.
Elaboración propia sugerida de (DE TRABAJO, PATIÑO, BOTERO, & ZAPATA, 2013)
1° Nivel 2° Nivel 3° Nivel
Territorios artificializados Zonas Urbanizadas Tejido urbano discontinuo
Zonas industriales o
comerciales y redes de
comunicación
Red vial, ferroviarias y
terrenos asociados
Bosques y áreas
seminaturales
Zonas verdes
artificializadas, no agrícolas
Zonas verdes urbanas
Áreas con vegetación
herbácea y/o arbustiva
Arbustal
Áreas abierta, sin o con poca
vegetación
Tierras desnudas y
degradadas
Superficies de agua Aguas continentales Lagunas, lagos y ciénagas
naturales
La evaluación de los mapas de clasificación se hizo de forma visual dado que la intención
es evidencia esta mejoría en los resultados de la evaluación entre la imagen original y la
imagen sometida al tratamiento de las transformadas.
El mapa generado a partir de la imagen original muestra una clasificación con coberturas
que se mezclan en gran medida entre sí, el caso más evidente es el de la red vial,
ferroviarias y terrenos asociados y los tejidos urbanos discontinuos, los valores similares de
los niveles digitales, evidencia sobre la pista de aterrizaje del aeropuerto una clasificación
de tejido urbano en lugar de red víal, de igual manera se confunden varios ND entre tierras
desnudas y degradadas y lagos naturales, otras zonas oscuras también se clasifican como
lagos naturales, aun así la zona arbustal son clasificados correctamente en la imagen
original, las tierras desnudas que no tienen ningún elemento de influencia en la imagen
comparten estos resultados. (Ver Anexo 1)
Respecto al mapa de clasificación de la imagen obtenida a partir de la Curvelet y Ridgilet,
evidencia una clasificación correcta de coberturas como las zonas verdes urbanas y la red
137
vial, sin embargo las zonas claras son confundidas con tejido urbano y zonas de tierras
desnudas y degradadas, en este caso nubes también resultan clasificadas como tejido
urbano por la cercanía en los ND de los dos elementos, situación análoga sucede con
algunos objetos de la categoría arbustal los cuales se confunden con lagos naturales, aun así
la clasificación de estos es correcta, y resulta ideal incluso en la vegetación que está dentro
de las aguas naturales. (Ver Anexo 2)
También se evidencia una ilustración de las formas en relación con el mapa de clasificación
de la imagen original.
En la Figura 67 se presenta la zona de clasificación utilizada para la validación, se escogió
ampliando la zona de estudio sobre la imagen adquirida para el estudio incluyendo varias
clases no tratadas en el desarrollo del trabajo y con formas diferentes.
Figura 67. Zona utilizada para la clasificación. Imagen transformadas Curvelet y Ridgilet.
Para la validación de métodos de clasificación, se sugiere realizar un análisis de la exactitud
o aciertos de las clasificaciones, comparándola con otra que el investigador declare como
138
absoluta, proceso realizado utilizando una ―Matriz de Confusión y el ―Coeficiente Kappa
(Rodríguez Vásquez, 2011)
Se tomaron 256, puntos aleatorios sobre la imagen para realizar los cálculos, en la Tabla 23 se
presentan los resultados de la exactitud y el coeficiente kappa calculados para la imagen
original y la imagen Curvelet-Ridgilet.
Tabla 23. Resultados de la evaluación de la clasificación.
Elaboración propia
Clase Imagen Base Original Imagen a partir de
Curvelet-Ridgilet
Exactitud del
productor Lagunas, lagos y
ciénagas naturales
60.00% 98.23%
Tierras desnudas y
degradadas
29.17% 73.08%
Zonas verdes
urbanas
98.03% 97.28%
Arbustal 85.10% 77.78%
Red vial,
ferroviarias y
terrenos asociados
55.81% 61.29%
Tejido urbano
discontinuo
85.19% 92.31%
Exactitud del usuario Lagunas, lagos y
ciénagas naturales
75.00% 80.00%
Tierras desnudas y
degradadas
77.78% 86.36%
Zonas verdes
urbanas
96.75% 94.70%
Arbustal 71.43% 70.00%
Red vial,
ferroviarias y
terrenos asociados
57.14% 95.00%
Tejido urbano
discontinuo
57.50% 75.00%
Coeficiente Kappa Lagunas, lagos y
ciénagas naturales
0.7450 0.7968
Tierras desnudas y
degradadas
0.7548 0.8482
Zonas verdes
urbanas
0.9201 0.8756
Arbustal 0.7086 0.6891
Red vial, 0.4849 0.9431
139
ferroviarias y
terrenos asociados
Tejido urbano
discontinuo
0.5249 0.7051
Los resultados de la evaluación se pueden corroborar con respecto el análisis visual hecho
anteriormente, en donde por ejemplo la clase red vial, ferroviarias y terrenos asociados pasa
de una clasificación moderada a casi perfecta en la imagen procesada con la transformada
de Curvelet-Ridgilet. Otras coberturas que alcanzan esta clasificación son las tierras
desnudas y degradadas que pasan de moderadas a casi perfectas y las zonas verdes urbanas
que se mantienen en esta concordancia. En general se observan concordancias más altas
para la imagen con mejoramiento de bordes.
140
8. DISCUSIÓN DE RESULTADOS
Durante la realización del presente trabajo se encontraron resultados referentes a los objetivos
del mismo, tal y como se propuso se hizo la extracción de objetos geográficos dentro de la
imagen objeto de estudio mediante la aplicación de algoritmos morfología matemática, con una
muestra de 6 objetos geográficos diferentes, en cuanto a textura, ubicación, color y forma, se
obtuvieron resultados óptimos y se determinó la umbralización como un paso primordial dado
que las mejores conexiones de píxeles se encontraron en los elementos con una diferenciación
objeto forma más alta.
Se ajustaron cuatro diferentes transformadas Wavelet, Contorulet, Curvelet y Ridgilet, con
ayuda del software matemático Matlab, de donde se obtuvieron como producto tres imágenes
dado que se encontró la aplicación simultanea de la transformada de Curvelet y Ridgilet.
Todas las imágenes mostraron mejoría en los bordes, en la definición de formas y de su
resolución espacial, estas mejorías fueron evaluadas mediante los algoritmos matemáticos
ERGAS, RASE, Entropía, Coeficiente de Correlación (CC) , Calidad Universal (Qu) , los
cuales se estudiaron y emplearon sobre herramientas preexistentes y desarrolladas por
varios autores, tomando como criterio de decisión la calidad universal (Qu) y como apoyo
en resultados equivalente el coeficiente de correlación (CC) . Donde se tomó como criterio
de decisión el coeficiente de correlación, obteniendo que las imágenes obtenidas a partir de
las transformadas de Contourlet y Curvelet-Ridgilet obtuvieron los más altos resultados
con valores de 0,95 cuando se espera un valor de 1, igualmente se obtuvieron valores altos
en calidad universal (Qu) entre 0.93 y 0.95.
Así mismo se aplicaron cinco algoritmos de morfología matemática: extracción de objetos,
rellenado de región, espesamiento, adelgazamiento y esqueletos, que ayudan a la definición y
141
tratamiento de las imágenes sobre cada uno de los objetos escogidos se encontró que el mejor
algoritmo es el de rellenado de región, realizando una evaluación por medio del coeficiente
kappa, y agrupando los cinco algoritmos según la operación básica de morfología utilizada
entre erosión y dilatación.
Se realizaron una serie de procesos de validación en busca de determinar el
comportamiento de los resultados en imágenes de diferentes resoluciones y sensores, por
esta razón se escogieron zonas con objetos en común respecto a la original, es decir cuerpos
de agua, vías, estructuras, etc., en un sensor de resolución espacial pequeña como lo es el
IKONOS y con resolución espacial mayor como es la imagen del sensor Landsat 8, también
se eligieron fechas de captura diferentes, evaluando dentro de la imagen comportamientos
como presencia de nubes y otras condiciones atmosféricas, y se siguió el mismo
procedimiento sobre la imagen original, se pudo concluir entonces que el mayor cambio se
encontró sobre la aplicación de la transformada Wavelet, y se mantuvieron en este caso los
resultados de las transformadas Contourlet, Curvelet y Ridgilet, se determinó como punto
importante la resolución de las imágenes.
Finalmente fueron generados dos mapas de clasificación de cobertura y uso del suelo
teniendo en cuenta seis categorías diferentes en las coberturas correspondientes a la
adaptación de la metodología Corine Land Cover, a escala 1:10000 desarrollada por el
IGAC, para el departamento de Quindio, estos mapas corresponden a la misma zona dentro
del área de estudio de la imagen sin ningún tratamiento, y la mejor imagen obtenida en este
caso Curvelet-Ridgilet , fueron realizados con el método de clasificación supervisada y
evaluados por exactitud y el coeficiente kappa.
142
Igualmente se logró realizar un comparativo que mostro las diferencias del proceso de la
imagen mejorada respecto a la original
De esta manera se demuestra que todos los objetivos propuestos fueron cumplidos y se
obtuvieron resultados óptimos en el desarrollo del estudio sobre imágenes satelitales.
143
9. CONCLUSIONES
Mediante la evaluación con los diferentes estadísticos matemáticos se comprobó que la
aplicación de Wavelets aumenta la resolución espacial como espectral sobre imágenes
satelitales, que no se puede obtener de una imagen multiespectral sin procesamiento.
Se encontró que el uso de las diferentes familias Wavelet puede variar según el sensor
estudiado; y que los niveles de descomposición entre 3 y 5 son los más adecuados para lograr
estadística y visualmente un grado de exactitud cercano a 1 considerado ideal en los índices
evaluados en los que se encontró un coeficiente de correlación (CC) de 0.93 y una coeficiente
de calidad universal (Qu) de 0.97; así como precisión en las formas y las coberturas que se
desee estudiar.
La aplicación de las transformadas de mejoramiento de bordes Contourlet, Curvelet y Ridgilet,
demuestran un tratamiento superior a las discontinuidades en los perímetros y efectos como
diente de sierra, en relación con las Wavelet. La utilización de alguna de las estudiadas depende
del alcance del proyecto, dado que se encontró resultados de mayor calidad para la Contourlet
sobre una imagen sin tratamiento, mientras que para una imagen con aplicación de Wavelet
previa, los valores más altos de conservación espectral y espacial los ofrece la transformada de
Curvlet- Ridgilet.
Los métodos convencionales para la fusión como la transformada HSV, permiten en su
procedimiento tratar por separado los diferentes componentes, lo que permite realizar
procesamiento digital a una única banda, su metodología permitió la implementación y
resultados de alta calidad en las diferentes transformadas, a través del cambio de espacio de
color.
144
La morfología matemática es una herramienta de procesamiento no lineal que permite estudiar
la estructura y forma de objetos a través de diferentes operaciones básicas, y aplicación de estas
para resultados aplicativos en diferentes áreas, para esto es necesario tener una imagen
umbralizada con una evaluación concordancia de clasificación los más alta posible, dado que
los resultados de objetos extraídos y tratados, conservaran sus características fundamentales en
la medida en que se respete la diferenciación de objeto-fondo.
Se encontró que el método Otsu es el más adecuado y de mayor calidad en cuanto a la
clasificación de los objetos y su fondo y que además es fundamental tener en cuenta la
resolución de las imágenes a utilizar porque objetos provenientes de imágenes de bajas
resoluciones tienen resultados con índices menores como se demostró en el proceso de
validación.
Se implementaron cinco algoritmos de morfología matemática: extracción de bordes, rellenado
de región, esqueletos, espesamiento y adelgazamiento, estos permitieron mostrar las diferencias
de su utilización además de ofrecer un importante criterio de decisión para futuros trabajos y
aplicaciones en el ámbito de la geomática
El algoritmo de morfología matemática que extrajo con menor perdida en relación objeto-fondo
y mayores índices de concordancia fue el de rellenado de región con índices de evaluación de
coeficiente kappa mayores al 63%, hasta el 99%.
El mapa de clasificación de uso y cobertura de la tierra, realizado en el presente trabajo, es uno
de los productos más importantes para analizar y tomar decisiones de ordenamiento de los
elementos de conflicto en una sociedad, y los ecosistemas terrestres que le sirven de sustento, el
mapa de clasificación de uso y cobertura, primordial para el ordenamiento territorial, el catastro
y la planeación del territorio, fue realizado sobre la zona de estudio, en donde mediante la
145
evaluación de exactitud en los tres componentes y el coeficiente de concordancia de la
clasificación; se demostró que los valores aumentan muchas veces hasta una clasificación casi
perfecta en las imágenes aplicadas sobre una Wavelet con una transformada de mejoramiento
de bordes, esto puede facilitar la generación de los mapas y aumentar el grado de exactitud de
las coberturas y los datos utilizados.
Durante el proceso de validación se comprobó que los objetos de las imágenes de mayor
resolución y con mejoramiento obtienen un coeficiente kappa de evaluación de la
umbralización de objetos por encima del 80%, lo que permitió resultados óptimos en la
aplicación de la morfología matemática.
146
10. TRABAJOS FUTUROS Y RECOMENDACIONES
A partir del desarrollo del presente trabajo, se encontraron varios estudios sugeridos como
complemento y profundización del mismo, entre estos, se encuentra que los algoritmos como
esqueletización y adelgazamiento son muy sensibles al ruido en las imágenes, esto evidenció
que las zonas con sombra o nubes presentan resultados no óptimos en estas aplicaciones, para
eliminar este ruido existen otros algoritmos interesantes de implementar como la poda
(Pruning) que buscan eliminar componentes resultantes de aplicar operaciones morfológicas y
esto permitiría también un mejoramiento de los resultados obtenidos. Este ruido también puede
ser simulado mediante estrategias como la generación del ruido gaussiano, que no se tocó a
fondo en el presente trabajo y puede añadirle mayor robustez a las imágenes de salida de los
algoritmos.
Así mismo la morfología matemática aquí se hizo para imágenes binarias, conseguidas a partir
de un umbral, pero existe la posibilidad de aplicarla a imágenes en niveles de gris con
elementos estructurantes planos o no planos y aplicación de filtros, en los cuales se usan
conceptos similares pero de complejidad matemática mayor, que permitiría comparativamente
encontrar el mejor el mejor escenario de trabajo entre estas posibilidades.
Además de esto las Wavelet aunque dieron buenos resultados, aun así, un nuevo trabajo
propuesto podría modificar el soporte compacto de alguna de estas, por ejemplo la Symlet 5 o
la Daubechies y observar el comportamiento respecto a los momentos nulos y la
descomposición.
A partir de esto se pueden realizar nuevos trabajos aplicando segmentación sobre las imágenes,
las transformadas Top Hat y Hit or Miss, además de generar sobre escenarios específicos, como
147
estudios de censos, crecimiento, decrecimiento, conservación y vigilancia de cuerpos de agua
y zonas de vegetación, también determinación construcciones nuevas en una determinada zona
de estudio.
148
BIBLIOGRAFÍA
Artículos Científicos
Acar, U., & Bayram, B. (2009) . Building extraction with morphology. En 4th International
Conference on Recent Advances in Space Technologies, 2009. RAST ’09 (pp. 33-38) .
http://doi.org/10.1109/RAST.2009.5158221
Akoguz, A., Ozdemir, A., Yucel, M., Pinar, S. K., Bagis, S., & Kartal, M. (2013) . Remote sensing data
fusion algorithms with parallel computing. En 2013 6th International Conference on Recent
Advances in Space Technologies (RAST) (pp. 87-92) .
http://doi.org/10.1109/RAST.2013.6581336
Anita, S. J. N., & Moses, C. J. (2013) . Survey on pixel level image fusion techniques. En 2013
International Conference on Emerging Trends in Computing, Communication and
Nanotechnology (ICE-CCN) (pp. 141-145) . http://doi.org/10.1109/ICE-
CCN.2013.6528480
Ariza, A. (2013) . Descripción y Corrección de Productos LANDSAT 8 (OLI)LDCM, (Landsat Data
Continuity Mission) . Grupo Interno de Trabajo en Percepción Remota y Aplicaciones
Geográficas, Centro de Investigaciones y desarrollo-CIAF.
Balbuena Campuzano, C. A. (2007) . Método de protección con «marca de agua» para imágenes
digitales, utilizando una técnica de representación orientada geometricamente: contourlet.
Recuperado a partir de 132.248.52.100:8080/xmlui/handle/132.248.52.100/1940
Benzenati, R., Smara, Y., & Massout, S. (2009) . Image fusion using the curvelet transform:
Comparative study applied to urban and peri urban areas of Algiers region (Algeria) . En
Urban Remote Sensing Event, 2009 Joint (pp. 1-6) .
http://doi.org/10.1109/URS.2009.5137521
149
Bratasanu, D., Nedelcu, I., & Datcu, M. (2012) . Interactive Spectral Band Discovery for Exploratory
Visual Analysis of Satellite Images. IEEE Journal of Selected Topics in Applied Earth
Observations and Remote Sensing, 5 (1) , 207-224.
http://doi.org/10.1109/JSTARS.2011.2169772
Burt, P. J., & Adelson, E. H. (1983) . The Laplacian pyramid as a compact image code.
Communications, IEEE Transactions on, 31 (4) , 532-540.
Candès, E. J., & Donoho, D. L. (1999) . Ridgelets: A key to higher-dimensional intermittency?
Philosophical Transactions of the Royal Society of London. Series A: Mathematical, Physical
and Engineering Sciences, 357 (1760) , 2495-2509.
Candµes, E. J., & Donoho, D. L. (1999) . Curvelets. Manuscript. http://wwwstat. stanford. edu/~
donoho/R eports/1999/curvelets. pdf.
Cattaneo, C. A., Larcher, L. I., Ruggeri, A. I., Herrera, A. C., & Biasoni, E. (2011) . Mecánica
Computacional, Volume XXX. Number 62. MÉTODOS DE UMBRALIZACIÓN DE IMÁGENES
DIGITALES BASADOS EN ENTROPIA DE SHANNON Y OTROS.
Cerda, J., & VILLARROEL DEL, L. (2008) . Evaluación de la concordancia inter-observador en
investigación pediátrica: Coeficiente de Kappa. Revista chilena de pediatría, 79 (1) , 54-58.
Chavez, P., Sides, S. C., & Anderson, J. A. (1991) . Comparison of three different methods to merge
multiresolution and multispectral data- Landsat TM and SPOT panchromatic.
Photogrammetric Engineering and remote sensing, 57 (3) , 295-303.
Choi, M., Kim, R. Y., Nam, M.-R., & Kim, H. O. (2005) . Fusion of multispectral and panchromatic
Satellite images using the curvelet transform. IEEE Geoscience and Remote Sensing Letters,
2 (2) , 136-140. http://doi.org/10.1109/LGRS.2005.845313
Chun-Lin, L. (2010) . A Tutorial of the wavelet transform. NTUEE, Taiwan.
150
Colwell, R. N., Ulaby, F. T., Simonett, D. S., Estes, J. E., & Thorley, G. A. (1983) . Manual of remote
sensing. Volume 2. Interpretation and applications. American Society of Photogrammetry.
Comer, M. L., & Delp, E. J. (1999) . Morphological operations for color image processing. Journal of
electronic imaging, 8 (3) , 279-289.
Curvelet Home. (2015) . Recuperado 10 de octubre de 2015, a partir de http://curvelet.org/
Daza, R. J. M., Aguilar, L. J., Ruiz, C. P., Ardila, O., & Pineda, F. (s. f.) . Evaluación de la fusión de
imágenes satelitales usando la Transformada rápida de wavelet haar y counturlet.
Daza, R. J. M., Pinilla, C., & Joyanes, L. (2011) . Reconstrucción de una señal sinusoidal y de una
imagen sintética usando la transformada de wavelet discreta.
de la Fuente, D., Suarez, J., Yague, J., & Pedrazzani, D. (2013) . Potentiality of World-View 2 data
for precision agriculture. En Geoscience and Remote Sensing Symposium (IGARSS) , 2013
IEEE International (pp. 2825-2828) . http://doi.org/10.1109/IGARSS.2013.6723412
Devir, Z., & Shpinner, Y. (2006) . Curvelet Transform.
Divekar, A., & Ersoy, O. (2009) . Image fusion by compressive sensing. En 2009 17th International
Conference on Geoinformatics (pp. 1-6) .
http://doi.org/10.1109/GEOINFORMATICS.2009.5293446
Do, M. N., & Vetterli, M. (2003) . Contourlets. Studies in Computational Mathematics, 10, 83-105.
Do, M. N., & Vetterli, M. (2005) . The contourlet transform: an efficient directional multiresolution
image representation. IEEE Transactions on Image Processing, 14 (12) , 2091-2106.
http://doi.org/10.1109/TIP.2005.859376
Donoho, D. L., & Duncan, M. R. (2000) . Digital curvelet transform: strategy, implementation, and
experiments. En AeroSense 2000 (pp. 12-30) . International Society for Optics and
Photonics.
151
Dou, W., Ren, Y., Wu, Q., Ruan, S., Chen, Y., Bloyet, D., & Constans, J.-M. (2007) . Fuzzy kappa for
the agreement measure of fuzzy classifications. Neurocomputing, 70 (4–6) , 726-734.
http://doi.org/10.1016/j.neucom.2006.10.007
Emmanuel, J., & Donoho, D. L. (2000) . Curvelets {A Surprisingly E ective Nonadaptive
Representation For Objects with Edges.
Fisher, R., Perkins, S., Walker, A., & Wolfart, E. (2001) . Image processing learning resources. URL
http://homepages. inf. ed. ac. uk/rbf/HIPR2/threshld. htm.
Gillespie, A. R., Kahle, A. B., & Walker, R. E. (1987) . Color enhancement of highly correlated
images. II. Channel ratio and «chromaticity» transformation techniques. Remote Sensing
of Environment, 22 (3) , 343-365.
Kittler, J., & Illingworth, J. (1986) . Minimum error thresholding. Pattern recognition, 19 (1) , 41-
47.
Larrotta, D. M. B. (2003) . Aplicación de la transformada WAVELET en la descomposición temporo-
frecuencial de señales de electroencefalografía. Umbral Científico, (3) , 82-86.
Lencinas, J. D., & Siebert, A. (2009) . Relevamiento de bosques con información satelital:
Resolución espacial y escala. Quebracho, 17 (1) , 2.
Li, H., Manjunath, B. S., & Mitra, S. K. (1995) . Multisensor image fusion using the wavelet
transform. Graphical models and image processing, 57 (3) , 235-245.
Li, J., Chen, J., & Sun, Y. (2013) . Research of Color Composite of WorldView-2 Based on Optimum
Band Combination. Advances in Information Sciences and Service Sciences, 5 (3) , 791.
Lin, X. L., Zhong, W., & Zhong, W. X. (2009) . Research of Double-Threshold Segmentation of
Brazing-Area Defect of Saw Based on Otsu and HSV Color Space. En 2nd International
Congress on Image and Signal Processing, 2009. CISP ’09 (pp. 1-4) .
http://doi.org/10.1109/CISP.2009.5304160
152
Lira Chávez, J. (2010) . Tratamiento digital de imágenes multiespectrales. Universidad Nacional
Autónoma de México. URL http://www. lulu. com.
Medina Daza, R. J., Joyanes, L., Pinilla, C., Ardila, O., & Pineda, F. (2013) . Evaluación cualitativa y
cuantitativa de la fusión de imágenes satelitales usando la transformada de wavelet.
LACCEI, (11 th Latin American and Caribbean Conference for Engine ering and
Technology) , 1-10.
Medina, J., Joyanes, L., & Pinilla, C. (2013) . Aplicativo Web para la Fusión de Imágenes Satelitales.
RISTI: Iberian Journal on Information Systems & Technologies/Revista Ibérica de Sistemas e
Tecnologias de Informação, (11) .
Medina, J., & Lizarazo, I. (2004) . Fusión de Imágenes Satelitales Usando la Transformada de
Wavelet. Colombia: Esfera Editores Ltda.
Morales, R. R., & Azuela, J. H. S. (2011) . Procesamiento y análisis digital de imágenes. Ra-Ma.
Ortiz Zamora, F. G. (2002) . Procesamiento morfológico de imágenes en color: aplicación a la
reconstrucción geodésica.
Otsu, N. (1975) . A threshold selection method from gray-level histograms. Automatica, 11 (285-
296) , 23-27.
Palsson, F., Sveinsson, J. R., Benediktsson, J. A., & Aanaes, H. (2010) . Image fusion for
classification of high resolution images based on mathematical morphology. En Geoscience
and Remote Sensing Symposium (IGARSS) , 2010 IEEE International (pp. 492-495) .
http://doi.org/10.1109/IGARSS.2010.5654167
Pazmiño Altamirano, L. P. (2012) . Aplicación de la Transformada Wavelet en dos dimensiones
para el análisis y compresión de imágenes. SANGOLQUÍ/ESPE/2012.
Pertusa, J. (2003) . Técnicas de análisis de imagen: aplicaciones en biología. Universidad de
Valencia.
153
Poon, J. C. H., Chau, C. P., & Ghadiali, M. (1997) . Using fuzzy mathematical morphology for
locating tropical cyclones in satellite imagery. En , Proceedings of 1997 IEEE International
Symposium on Circuits and Systems, 1997. ISCAS ’97 (Vol. 2, pp. 1353-1356 vol.2) .
http://doi.org/10.1109/ISCAS.1997.622116
Rodríguez Vásquez, A. F. (2011) . Metodología para detectar cambios en el uso de la tierra
utilizando los principios de la clasificación orientada a objetos, estudio de caso piedemonte
de Villavicencio, Meta. Universidad Nacional de Colombia.
Sarría, A. F. (2007) . Estudio de técnicas basadas en la transformada Wavelet y optimización de sus
parámetros para la clasificación por texturas de imágenes digitales. Universitat Politècnica
de València.
Serra, J. (1982) . Image analysis and mathematical morphology. London.: Academic Press.[Review
by Fensen, EB in: J. Microsc. 131 (1983) 258.] Mathematics, Review article General article,
Technique Staining Microscopy, Cell size (PMBD, 185707888) .
Sezgin, M. (2004) . Survey over image thresholding techniques and quantitative performance
evaluation. Journal of Electronic imaging, 13 (1) , 146-168.
Starck, J.-L., Candès, E. J., & Donoho, D. L. (2002) . The curvelet transform for image denoising.
Image Processing, IEEE Transactions on, 11 (6) , 670-684.
Taherzadeh, E., Shafri, H. Z. M., Mansor, S., & Ashurov, R. (2012) . A comparison of hyperspectral
data and worldview-2 images to detect impervious surface. En 2012 4th Workshop on
Hyperspectral Image and Signal Processing: Evolution in Remote Sensing (WHISPERS) (pp.
1-4) . http://doi.org/10.1109/WHISPERS.2012.6874305
Tang, Z., & Wu, Y. (2011) . One image segmentation method based on Otsu and fuzzy theory
seeking image segment threshold. En 2011 International Conference on Electronics,
154
Communications and Control (ICECC) (pp. 2170-2173) .
http://doi.org/10.1109/ICECC.2011.6066573
Tu, T.-M., Su, S.-C., Shyu, H.-C., & Huang, P. S. (2001) . A new look at IHS-like image fusion
methods. Information fusion, 2 (3) , 177-186.
Vaiopoulos, A. D. (2011) . Developing Matlab scripts for image analysis and quality assessment. En
Proc. of SPIE Vol (Vol. 8181, p. 81810B-1) .
van Wijk, J. J. (2006) . Views on visualization. Visualization and Computer Graphics, IEEE
Transactions on, 12 (4) , 421-432.
Victorino Guzmán, J. E. (2011) . Representación eficiente de una base de datos de imágenes 4D de
resonancia magnética cardíaca. Universidad Nacional de Colombia.
Vitousek, P. (1994) . Beyond global warning:ecology and global change.
Wald, L. (2002) . Data fusion: definitions and architectures: fusion of images of different spatial
resolutions. Presses des MINES.
Zhang, L., Xu, Y., & Wu, C. (2011) . Features Extraction for Structured Light Stripe Image Based on
OTSU Threshold. En 2011 Fourth International Symposium on Knowledge Acquisition and
Modeling (KAM) (pp. 92-95) . http://doi.org/10.1109/KAM.2011.32
Libros
Candes, E. J. (1998) . Ridgelets: theory and applications. Stanford University.
González, R. C., Woods, R. E., Rodríguez, F. D., & Rosso, L. (1996) . Tratamiento digital de
imágenes. Addison-Wesley Wilniington^ eDelaware Delaware.
Grau, J. F. P. (2003) . Técnicas de análisis de imagen: aplicaciones en biología (Vol. 65) .
Universitat de València.
Guide, E. F. (1999) . Erdas Inc. Atlanta, Georgia, 672, 94.
Kenny, D. A., Kashy, D. A., & Cook, W. L. (2006) . Dyadic data analysis. Guilford Press.
155
Marques, O. (2011) . Practical image and video processing using MATLAB. John Wiley & Sons.
Matheron, G. (1975) . Random sets and integral geometry. John Wiley & Sons.
Olivas, E. S. (2003) . Tratamiento digital de señales: problemas y ejercicios resueltos. Pearson
Educación.
Pinsky, M. A. (2002) . Introduction to Fourier analysis and wavelets (Vol. 102) . AMS Bookstore.
Consultas web
Cañada Villar, A. (2005, mayo) . Una perspectiva histórica de las series de Fourier. Recuperado a
partir de
https://www.ugr.es/~dpto_am/docencia/Apuntes/Historia_series_Fourier_Canada.pdf
DE TRABAJO, E., PATIÑO, J. E. P., BOTERO, C. C. G., & ZAPATA, M. A. A. (s. f.) . CONTRALORÍA
GENERAL DEL QUINDÍO.
DigitalGlobe. (2014) . Content collection. Recuperado a partir de
http://www.digitalglobe.com/about-us/content-collection#worldview-3
Guide, M. U. (1998) . The mathworks. Inc., Natick, MA, 5.
ICDE -Objetos Geográficos. (2014) . Recuperado 10 de octubre de 2015, a partir de
http://www.icde.org.co/web/guest/wiki/-
/wiki/Wiki%20de%20la%20ICDE/Objetos+Geogr%C3%A1ficos
Informe Ambiental Quindio. (s. f.) . Recuperado a partir de http://contraloria-quindio.gov.co/apc-
aa-files/61316431643234636130323739666637/informe-ambiental-quindio-2013.pdf
Procesamiento Digital de Imágenes PDI- Semana 1. (s. f.) . Recuperado 9 de agosto de 2015, a
partir de http://geoservice.igac.gov.co/contenidos_telecentro/PDI_Sem4/index.php?id=1
Segmentación por Umbralización. (2005, octubre) . Universidad Nacional de Quilmes. Recuperado
a partir de
156
http://iaci.unq.edu.ar/materias/vision/archivos/apuntes/Segmentaci%C3%B3n%20por%2
0umbralizaci%C3%B3n%20-%20M%C3%A9todo%20de%20Otsu.pdf
Serra, J. (2007) . CURSO DE MORFOLOGIA MATEMATICA. Recuperado a partir de
http://cmm.ensmp.fr/~serra/cours/pdf/sp/ch1sp.pdf
Tema 5: SEGMENTACIÓN. (2013, 2014) . Universidad de Sevilla.
Visitando Bogotá. (s. f.) . Recuperado 28 de julio de 2015, a partir de
http://portel.bogota.gov.co/vis/public%20simon%20bolivar/parque%20simon%20bolivar.
html
157
11. ANEXOS
158
159
ANEXO 3. Código Wavelet
Código para producir la imagen Symlet 5, nivel 5
Name =sym5
load x
load y
[C,S]=wavedec2 (x,5,name) ;
cA5=appcoef2 (C,S,name,5) ;
cH5=detcoef2 ('h',C,S,5) ;
cV5=detcoef2 ('v',C,S,5) ;
cD5=detcoef2 ('d',C,S,5) ;
cH4=detcoef2 ('h',C,S,4) ;
cV4=detcoef2 ('v',C,S,4) ;
cD4=detcoef2 ('d',C,S,4) ;
cH3=detcoef2 ('h',C,S,3) ;
cV3=detcoef2 ('v',C,S,3) ;
cD3=detcoef2 ('d',C,S,3) ;
cH2=detcoef2 ('h',C,S,2) ;
cV2=detcoef2 ('v',C,S,2) ;
cD2=detcoef2 ('d',C,S,2) ;
cH1=detcoef2 ('h',C,S,1) ;
cV1=detcoef2 ('v',C,S,1) ;
cD1=detcoef2 ('d',C,S,1) ;
[J,M]=wavedec2 (y,5,name) ;
AI=appcoef2 (J,M,name) ;
nf1=S (6,1) ;
nc1=S (6,2) ;
nf2=S (5,1) ;
nc2=S (5,2) ;
nf3=S (4,1) ;
nc3=S (4,2) ;
nf4=S (3,1) ;
nc4=S (3,2) ;
nf5=S (1,1) ;
nc5=S (1,2) ;
cH1nueva1=reshape (cH1,1,nf1*nc1) ;
cV1nueva1=reshape (cV1,1,nf1*nc1) ;
cD1nueva1=reshape (cD1,1,nf1*nc1) ;
cH2nueva=reshape (cH2,1,nf2*nc2) ;
cV2nueva=reshape (cV2,1,nf2*nc2) ;
cD2nueva=reshape (cD2,1,nf2*nc2) ;
cH3nueva=reshape (cH3,1,nf3*nc3) ;
cV3nueva=reshape (cV3,1,nf3*nc3) ;
cD3nueva=reshape (cD3,1,nf3*nc3) ;
cH4nueva=reshape (cH4,1,nf4*nc4) ;
cV4nueva=reshape (cV4,1,nf4*nc4) ;
cD4nueva=reshape (cD4,1,nf4*nc4) ;
AInueva=reshape (AI,1,nf5*nc5) ;
cH5nueva=reshape (cH5,1,nf5*nc5) ;
cV5nueva=reshape (cV5,1,nf5*nc5) ;
cD5nueva=reshape (cD5,1,nf5*nc5) ;
Cn=cat
(2,AInueva,cH5nueva,cV5nueva,cD5nueva,c
H4nueva,cV4nueva,cD4nueva,cH3nueva,cV3n
ueva,cD3nueva,cH2nueva,cV2nueva,cD2nuev
a,cH1nueva1,cV1nueva1,cD1nueva1) ;
XO=waverec2 (Cn,S,name) ;
I =mat2gray (XO) ;
INUEVA=im2uint8 (I) ;
imwrite (INUEVA,'valn5_sym5.tif') ;
ANEXO 4. Código de generación de Contourlet, Curvelet-Ridgilet
Código original Contourlet
% Output: % coeffs: a cell vector for the
Contourlet decomposition
coefficients. % % See also: PDFBDEC, PDFBREC,
SHOWPDFB
% History: % 10/20/2003 Creation. % 10/22/2003 Change the user
interface for better image display. disp ('Welcome to the Contourlet
decomposition demo! :) ') ;
Decomposition level
pfilter = 'pkva' ;
% Pyramidal filter dfilter = 'pkva' ; %
Directional filter % Contourlet decomposition coeffs = pdfbdec ( double (im) ,
pfilter, dfilter, nlevels ) ; % Display the coefficients disp ('Displaying the Contourlet
coefficients...') ; imcoeff = showpdfb ( coeffs ) ; title ('Contourlet coefficients')
;
160
disp ('Type help decdemo for help' )
; disp ('You can also view decdemo.m
for details.') ; disp (' ') ; % Input image if ~exist ('im', 'var') % Zoneplate image: good for
illustrating multiscale and
directional % decomposition im = imread ('8panbogota.tif') ; %im = imread ('zoneplate.png') ; %im = imread ('int.tif') ; end % Show the input image disp ('Displaying the input
image...') ; clf; imagesc (im, [0, 255]) ; title ('Input image' ) ; axisimageoff; colormap (gray) ; input ('Press Enter key to
continue...' ) ; disp (' ' ) ; %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Image decomposition by Contourlets
using the % pyramidal directional filter bank
(PDFB) . %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Parameteters: nlevels = [0, 2, 3, 4] ; %
input ('Press Enter key to
continue...' ) ; disp (' ') ; %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Pyramidal directional filter
bank (PDFB) reconstruction. % This is the inverse of pdfbdec,
i.e. % imrec = pdfbrec (coeffs,
pfilter, dfilter) ; % would reconstruct imrec = im %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Reconstruct image imrec = pdfbrec ( coeffs, pfilter,
dfilter ) ; disp ('Displaying the
reconstructed image...') ; disp ('It should be a perfect
reconstruction' ) ; disp (' ') ; % Show the reconstruction image
and the original image subplot (1,2,1) , imagesc ( im,
[0, 255] ) ; title ('Original image' ) ; axisimageoff; subplot (1,2,2) , imagesc ( imrec,
[0, 255] ) ; title ('Reconstructed image' ) ; axisimageoff; mse = sum ( sum ( (imrec - double
(im) ) .^2 ) ) ; mse = mse / prod (size (im) ) ; disp ( sprintf ('The mean square
error is: %f', mse ) ) ;
Código modificado Contourlet
Se incluyó la imagen del value y la pancromática donde el algoritmo se ejecutó sobre ambas
para posteriormente reemplazar los coeficientes y reconstruir la imagen.
if ~exist ('im', 'var') % Zoneplate image: good for
illustrating multiscale and
directional % decomposition %im = imread ('zoneplate.png')
; im = imread ('8panbogota.tif')
; val=imread ('value_sym5_5.tif') ;
imcoeff = showpdfb ( coeffsjm_pan ) ; title ('Contourlet coefficients
Pancromatica') ; imcoeff1= showpdfb ( coeffsjm_val ) ; title ('Contourlet coefficients
Value') ; c= input ('entre el nombre de la
imagen intensidad nueva = ','s') ;
% permite escribir el nombre del
archivo de la
161
%im = imread ('G_sym5.tif') ; end %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Image decomposition by
Contourlets using the % pyramidal directional filter
bank (PDFB) . %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Parameteters: nlevels = [0, 2, 3, 4] ; %
Decomposition level pfilter = 'pkva' ; %
Pyramidal filter dfilter = 'pkva' ; %
Directional filter % Contourlet decomposition coeffsjm_pan = pdfbdec ( double
(im) , pfilter, dfilter, nlevels
) ; coeffsjm_val = pdfbdec ( double
(val) , pfilter, dfilter, nlevels
) ; pan1=coeffsjm_pan{1,1}; val1=coeffsjm_val{1,1}; disp ('Correlación entre la
primer matríz de la pancromática
y la multiespectral: ') corr2 (val1,pan1) coeffsjm_pan{1,1} =
coeffsjm_val{1,1}; imrec = pdfbrec ( coeffsjm_pan,
pfilter, dfilter ) ; disp ('Correlación entre value
anterior y nuevo value: ') corr2 (imrec,val) imwrite (uint8 (imrec)
,'nval_gis_sym55.tif')
% imagen intensidad nueva d= input ('entre el nombre de la
imagen saturacion = ','s') ;
% permite escribir el nombre del
archivo de la % imagen saturacion e= input ('entre el nombre de la
imagen matiz = ','s') ;
% permite escribir el nombre del
archivo de la % imagen matiz c1=imread (c) ;
% lee la imagen intensidad nueva y la
asigna a la variable c1 d1=imread (d) ;
% lee la imagen saturacion y la asigna
a la variable d1 e1=imread (e) ;
% lee la imagen matiz y la asigna a la
variable e1 n_hsv1 = cat (3,e1,d1,c1) ;
% concatena las tres imgenes para
construir la nueva imagem IHS (HSV) n_hsv = im2double (n_hsv1) ;
% tranformar la imagen n_hvs1 a double
y la almacena como n_hsv figure, imshow (n_hsv) , title
('Nueva Imagen HSI') n_rgb1=hsv2rgb (n_hsv) ;
% trasnforma la imagen hsv a rgb y la
almacena como n_rgb1 figure, imshow (n_rgb1) , title
('Nueva Imagen RGB') imwrite
(n_rgb1,'rgbn_contou_sym5_5.tif') ;
Código original Curvelet-Ridgilet
%CV = CVT ( X, J, L ) ; % Computes the Curvelet (version
1) of an image, as given in [1]. % % Input Parameters: S = imread ('8panbogota.tif') ; J = 4; L = [3 4 4 5]; X=double (S) ; % % Output Parameters: % CV = Curvelet coefficients.
% References: % [1] J.L. Starck, E.J. Candes, and
D.L. Donoho, "The Curvelet
Transform % for Image Denoising," IEEE Trans.
on Image Proc., Vol 11, No. 6, June % 2002. % % Author: Sandeep Palakkal
([email protected]) % Orgn: IIT Madras % Date: May 1, 2010
162
% % See also icvt local_ridgelet
local_iridgelet %
% Modified on: May 7, 2010
if ~exist ( 'md', 'var' ) md = 0; end
Este algoritmo fue utilizado tanto en la imagen Wavelet como la pancromática, para realizar el
reemplazo de los coeficientes y generar la nueva imagen, las modificaciones se muestran a
continuación:
S = imread ('area_pan_landsat.tif')
; m=imread ('intn5_sym5_landsat.tif')
;
J = 4; L = [3 4 4 5]; X=double (S) ; M=double (m) ; % % Output Parameters: % CV = Curvelet coefficients. % % See also icvt local_ridgelet
local_iridgelet % % References: % [1] J.L. Starck, E.J. Candes, and
D.L. Donoho, "The Curvelet
Transform % for Image Denoising," IEEE Trans.
on Image Proc., Vol 11, No. 6, June % 2002. % % Author: Sandeep Palakkal
([email protected]) % Orgn: IIT Madras % Date: May 1, 2010
% Modified on: May 7, 2010 if ~exist ( 'md', 'var' ) md = 0; end % Min local window size of the
local ridgelet tfm. Bmin = 16; % IUWT of the image hr = (1/16) *[1 4 6 4 1]; disp ('25% del codigo') D = iso_fuwt2_po ( X, J, hr ) ; %
fine to coarse % Local ridgelet cv_pan = cell (1,J+1) ; B = Bmin; lev = L; for jj = 1:J if numel ( L ) > 1 lev = L (jj) ; end cv_pan{J+2-jj} = local_ridgelet (
D (:,:,jj) , B, lev, md ) ; if rem (jj,2) == 1 B = 2*B; end end
cv_pan{1} = D (:,:,J+1) ; % cv
coarse to fine % Min local window size of the
local ridgelet tfm. Bmin = 16; % IUWT of the image hr = (1/16) *[1 4 6 4 1]; D = iso_fuwt2_po (M, J, hr ) ;
% fine to coarse % Local ridgelet cv_val = cell (1,J+1) ;
for jj = 2:J+1 if numel ( L ) > 1 lev = L (jj-1) ; else lev = L; end D (:,:,jj-1) = local_iridgelet (
cv_pan{J+3-jj}, B, lev, md ) ; if rem (jj-1,2) == 1 B = 2*B; end end
163
B = Bmin; lev = L; for jj = 1:J if numel ( L ) > 1 lev = L (jj) ; end cv_val{J+2-jj} =
local_ridgelet ( D (:,:,jj) ,
B, lev, md ) ; if rem (jj,2) == 1 B = 2*B; end end pan1=cv_val{1,1}; val1=cv_pan{1,1}; disp ('Correlación entre la
primer matríz de la
pancromática y la
multiespectral: ') corr2 (val1,pan1) cv_pan{1,1} = cv_val{1,1}; cv_val{1} = D (:,:,J+1) ; % cv
coarse to fine disp ('50% del codigo') CV = cv_pan; J = J; L = L; if ~exist ( 'md', 'var' ) md = 0; end % Min local window size of the
local ridgelet tfm Bmin = 16; disp ('75% del codigo') % Inverse local ridgelet B = Bmin; D (:,:,J+1) = cv_val{1};
% Inverse IUWT x = iso_iuwt2_po (D) ; imwrite (uint8 (x)
,'nval_cvt_land1.tif') ; disp ('Displaying the Contourlet
coefficients...') ; imcoeff = showpdfb ( cv_pan ) ; title ('Curvelet coefficients
Pancromatica') ; imcoeff1= showpdfb ( cv_val ) ; title ('Curvelet coefficients Value') ; c= input ('entre el nombre de la imagen
value nuevo = ','s') ; % permite
escribir el nombre del archivo de la % imagen intensidad nueva d= input ('entre el nombre de la imagen
saturacion = ','s') ; % e= input ('entre el nombre de la imagen
matiz = ','s') ; % c1=imread (c) ; d1=imread (d) ;
% lee la imagen saturacion y la asigna a
la variable d1 e1=imread (e) ;
% lee la imagen matiz y la asigna a la
variable e1 n_hsv1 = cat (3,e1,d1,c1) ;
% concatena las tres imagenes para
construir la nueva imagen IHS (HSV) n_hsv = im2double (n_hsv1) ;
% tranformar la imagen n_hvs1 a double y
la almacena como n_hsv figure, imshow (n_hsv) , title ('Nueva
Imagen HSV') %
permite observa la imagen n_hsv n_rgb1=hsv2rgb (n_hsv) ;
% trasnforma la imagen hsv a rgb y la
almacena como n_rgb1 figure, imshow (n_rgb1) , title
('Nueva Imagen RGB Curvelet y Ridgilet')
ANEXO 5. Código de generación de Otsu
Método de la Universidad de Quilmes
%function umbralOptimo = umbralOtsu
(Imagen) % umbralOptimo = umbralOtsu
(Imagen) % Esta funcion calcula el umbral
óptimo para binarizar una imagen
mediante el % Metodo de Otsu.
mu = zeros (1,256) ; for i=2:256 omega (i) = omega (i-1) + P (i) ; mu (i) = mu (i-1) + (i-1) *P (i)
; end % Cálculo del umbral optimo segun
Otsu
164
% % Universidad Nacional de Quilmes % Ingeniería en Automatización y
Control Industrial % Cátedra: Visión Artificial -
Octubre de 2005 Imagen = fix (double (Imagen) ) ; [f,c]=size (Imagen) ; % Cálculo de la distribucion de
probabilidad de los niveles de gris P=zeros (1,256) ; for i=1:f*c P (Imagen (i) +1) = P (Imagen (i)
+1) + 1; end P = P / (f*c) ; % Cálculo del momento acumulado de
orden cero y del de primer orden omega = zeros (1,256) ; omega (1) = P (1) ;
sigmaB2max = 0; sigmaB2 = 0; mut = mu (256) ; % Intensidad media
total de la imagen umbralOptimo = 0; for t=1:256 omega1 = omega (t) ; omega2 = 1 - omega1; if omega1~=0 & omega2~=0 mu1 = mu (t) / omega1;
mu2 = (mut-mu (t) ) / omega2; sigmaB2 = omega1 * (mu1-mut) ^2 +
omega2 * (mu2 - mut) ^2; if sigmaB2 > sigmaB2max sigmaB2max = sigmaB2; umbralOptimo = t-1; end end end
ANEXO 6. Modelo de generación del coeficiente Kappa
Modelo de validación de ERDAS Image
Criterios de decisión de la matriz de
concordancia
165
ANEXO 7. Cálculo del criterio teórico de selección
2
0.5= 4 = 2𝑛
4 = 2𝑛
ln 4 = 𝑛 ln 2
ln 4
ln 2= 𝑛
log2 4 = 2
ANEXO 8. Creación de imágenes RGB a partir del cambio de espacio de color HSV
Figura 68. Diagrama de flujo creación de nuevas imágenes RGB.
Elaboración propia.
166
ANEXO 9. Creación de la imagen Contourlet
Figura 69. Proceso realizado para la obtención de la imagen fusionada a partir de la Contourlet.
Elaboración propia.