You are on page 1of 16

EVALUACION DE LA FUSION DE IMÁGENES SATELITALES USANDO LA TRANSFORMADA DE WAVELET CON RELACION A LOS METODOS TRADICIONALES

Grupo de Investigación en Fusión de Imágenes Ingeniería Catastral y Geodesia, Facultad de Ingeniería, Universidad Distrital

Profesores:

Iván Lizarazo Salcedo Rubén Javier Medina Daza

Estudiantes:

Alejandro Vivas Perdomo Fredy Alexander Bolívar Carlos Calderón Samuel Mesa Alexander Munar RESUMEN

La fusión de imágenes es un proceso digital que permite reunir en una sola imagen el detalle espacial de una imagen pancromática y la riqueza espectral de una imagen multiespectral. Los procedimientos convencionales de fusión de imágenes están basados en transformaciones tales como RGB - IHS, Brovey y Componentes Principales. Estos métodos no son completamente satisfactorios debido a la pérdida relativamente alta de la información espectral original. En los últimos años se ha empezado a experimentar con otras transformaciones matemáticas que permitan conservar mejor la riqueza espectral de la imagen multiespectral original. Los autores de este documento han realizando una investigación para evaluar la

some research have been done about image fusion using mathematical transformations which seems to preserve a lot the spectral information from the original images. and communicate the results achieved when fusing images of a pilot zone. ABSTRACT Image fusion is a digital process used to get one single image that keeps the high spatial resolution of one panchromatic image and the richness of one multiespectral image. finalmente. Principal Components Analysis and Brovey Transformation. According to these results. Traditional techniques for image fusion are based mainly in the RGB-HIS transformations. In the recent years. they review the traditional approach for image fusion. These methods are not good enough due to the spectral losses of the original spectral information. In this article. . the wavelet fusion approach keeps spectral information higher than traditional methods but the detail does not improve as well as those. de los conceptos básicos de la fusión basada en wavelet y. among others. the basic concepts of the wavelet fusion method. En este artículo se hace una revisión de los métodos tradicionales de fusión de imágenes. The authors have done research work to evaluate the quality of images fusioned by wavelet and traditional methods. the mathematical wavelet theory. de los fundamentos matemáticos de la descomposición de wavelet. Dichos resultados indican que la fusion mediante wavelet permite conservar mejor la riqueza espectral que los metodos convencionales pero que la ganancia de resolución espacial es inferior a la de aquellos.calidad de las imágenes fusionadas mediante wavelet en comparación con los métodos tradicionales. se indican los resultados de la fusion de imagenes realizada en una zona piloto.

contienen una gran riqueza de información espectral. Para ello se La resolución espacial de una imagen QuickBird-XS es de 2. en el mejor de los casos. Por ello. ha empezado a intensificarse. conocidas como fusión de imágenes. las imágenes multiespectrales han alcanzado resoluciones espaciales hasta de 2. Las imágenes de satélite. lo cual limitó su uso a proyectos regionales de escala pequeña y mediana (léase nivel general y. entre ellos algunas transformaciones matemáticas usadas en tratamiento de señales. La fusión de imágenes es un campo de investigación continua que abre la posibilidad de involucrar nuevos conceptos y herramientas. en diferentes longitudes de onda. La resolución de una imagen IKONOS-XS es de 4 metros. se han utilizado con relativo éxito desde hace muchos años y están implementadas en herramientas de software convencionales. nivel semidetallado). De 1999 en adelante.50 metros1 y su uso en estudios de nivel detallado. básicamente de zonas urbanas. En un intento de ¨mejorar¨ la resolución espacial de las imágenes multiespectrales. 1 . las imágenes de satélite multiespectrales sólo alcanzaban resoluciones espaciales de 20 metros. se han generado diversas técnicas para combinar dichas imágenes con otro tipo de imágenes cuya resolución espacial sea más alta. GIF. 2. a diferencia de las fotografías aéreas.50 metros. Dichas técnicas. la cual constituye el objeto de la investigación que actualmente adelanta el Grupo de Investigación en Fusión de Imágenes.1. una fuente de datos importante para la ejecución de proyectos sobre medio ambiente y desarrollo. desde su aparición en 1973. Hasta 1999. Una de ellas es la transformación wavelet. adquieren datos de reflectancia de los objetos terrestres. INTRODUCCIÓN Las imágenes de satélite constituyen. QUE ES FUSIÓN DE IMÁGENES La fusión de imágenes es una técnica digital que pretende mejorar una imagen multiespectral y así potenciar su uso en diversas aplicaciones.

según sea el lugar donde se ejecuta. es decir a nivel de pixel2.combinan los datos de una imagen pancromática (o una imagen de radar o de otro sensor no óptico) de alta resolución espacial con los de una imagen multiespectral de alta resolución espectral. Píxel es una contracción de picture element. De acuedo con Pohl y van Genderen (1998) la fusión de imágenes se puede usar para: – – – – – – Mejorar la corrección geométrica de una imagen Realzar elementos que no son visibles en una imagen Complementar datos para mejorar una clasificación Detectar cambios en una zona usando datos multitemporales Reemplazar datos anómalos de una imagen Adicionar datos faltantes en una imagen La fusión de imágenes se puede realizar por diferentes métodos. El resultado final es una nueva imagen en la cual se ha conservado una buena parte de la riqueza espectral original y se ha ganado resolución espacial. en la cadena de producción de información espacial: • • • A nivel de datos A nivel de objetos A nivel de decisiones La fusión de imágenes usualmente se realiza a nivel de los datos. La frecuencia espacial es una medida de la variación del nivel digital de una imagen en función de la distancia. . Las técnicas para realizar fusión a este nivel pueden ocurrir en diferentes dominios: • 2 3 En el dominio de la frecuencia espacial3 Píxel es el elemento mínimo que conforma una imagen.

• • En el dominio espectral En un dominio mixto. por ejemplo: • el componente principal 1 (CP1) en el espacio de Componentes Principales .2002): en donde. Los métodos convencionales son los siguientes: 31 En el dominio de la frecuencia espacial En esta técnica se busca transferir el contenido de frecuencia de la imagen pancromática a la imagen multiespectral. Imagen fusionada Imagen multiespectral . aplicando el siguiente algoritmo (ERDAS. permite obtener resultados aceptables y útiles. es decir aquella que está implementada en los programas comerciales de procesamiento digital de imágenes. MÉTODOS TRADICIONALES DE FUSIÓN DE IMÁGENES La fusión de imágenes convencional. espacial y espectral 3.banda k Imagen pancromática con filtro paso alto Función de ponderación 32 En el dominio espectral Las imágenes multiespectrales pueden ser transformadas en un nuevo espacio en el cual una imagen representa el componente correlacionado.

. 2. 5.• el componente de intensidad en el espacio de percepción de color IHS (Intensidad. Obtener los componentes principales de una composición RGB de la imagen multiespectral.1999): 1.21MÉTODO TRADICIONAL RGB-IHS: Este método incluye (Pohl. Reemplazar el componente I por la imagen pancromática Realizar la transformación inversa IHS a RGB 3. Transformar los componentes RGB en componentes IHS (Intensidad. Ajustar el histograma de la imagen pancromática al histograma de la componente I. Matiz y Saturación). 3. usando el mismo tamaño de píxel de esta última.22MÉTODO TRADICIONAL RGB-COMPONENTES PRINCIPALES: Este método incluye: 1. 4. Matiz y Saturación) La fusión en el dominio espectral se realiza mediante la ejecución siguientes fases: • • • de las Aplicar una transformación a las bandas de la imagen original Reemplazar el componente que representa el detalle espacial por la imagen pancromática Transformar la imagen resultante en el dominio original de la imagen 3. Registrar una composición a color RGB de la imagen multiespectral con una imagen pancromática.

2002): Imagen fusionada Imagen multiespectral .banda k .2. para incorporar el contenido de la imagen pancromática en la imagen multiespectral (ERDAS.24Método tradicional multiplicación Este método aplica un algoritmo simple de multiplicación. 3. Imagen fusionada Imagen multiespectral .23MÉTODO TRADICIONAL TRANSFORMADA DE BROVEY Este método se basa en obtener una nueva imagen RGB usando la Transformada de Brovey que combina tres bandas originales de una imagen multiespectral con la imagen pancromática. 2002): En donde. El algoritmo usado es (ERDAS.banda k Imagen pancromática 3. 3. Escalar la imagen pancromática dentro del rango de niveles digitales del componente principal 1 y reemplazar este componente con dicha imagen. Aplicar una transformación inversa de componentes principales para obtener una nueva imagen RGB.

2002). considerando una imagen pancromática de resolución espacial de 1m y una imagen multiespectral de resolución espacial de 4 m. la cual recibe el nombre de descomposición de árbol. Por ello. se pueden descomponer en nuevos coeficiente de aproximación (A3) y detalle (D3) y así sucesivamente. que representan la riqueza espectral. Los coeficientes de aproximación (A2). lo cual significa que los componentes de aproximación y detalle se pueden examinar en diferentes tamaños de píxel (Sanjeevi et al. Para recuperar la imagen original se adiciona la última descomposición de los coeficientes de aproximación con cada una de las descomposiciones de los coeficientes de detalle. y coeficientes de detalle (D2). Figura 2 . la descomposición de la imagen pancromática de nivel 2 de la Figura 1 corresponde a un tamaño de píxel equivalente al de la imagen multiespectral sin descomposición. La imagen original es descompuesta en coeficientes de aproximación (A1) y coeficientes de detalle (D1). y detalle.4. que representan la resolución espacial. con sucesivas aproximaciones.. 2001). LA TRANSFORMADA DE WAVELET Una transformación wavelet permite descomponer una imagen en dos tipos de coeficientes: aproximación. La descomposición wavelet se puede hacer en diferentes niveles de resolución. tal como se muestra en la Figura 2 (Misiti. Figura 1 La descomposición wavelet es un proceso iterativo. Los coeficientes de aproximación (A1) se descomponen en nuevos coeficientes de aproximación (A2). En cada nivel de descomposición wavelet se tiene una resolución espacial igual a la mitad de la resolución anterior.

los primeros planos de la wavelet de la imagen pancromática de alta resolución tienen información espacial que no está presente en la imagen multiespectral. FUSIÓN DE IMÁGENES USANDO WAVELET Este método consiste en combinar los coeficientes de la Wavelet de la imagen pancromática y de la imagen multiespectral. et al.5. En el método de sustitución. Así. 1999): 1). 6. INVESTIGACIÓN EN FUSIÓN DE IMÁGENES .n) son versiones sucesivas de la imagen original en escalas decrecientes. los planos de wavelet correspondientes a la imagen multiespectral son eliminados y sustituidos por los planos correspondientes de la imagen pancromática.. las imágenes (l =o. Remplazando los coeficientes de detalle de la Wavelet de la imagen multiespectral por los coeficientes correspondientes de la imagen pancromática.. en la descomposición de wavelet. Adicionando los coeficientes de detalle de la wavelet de la imagen pancromática a los coeficientes correspondientes de la imagen multiespectral. La fusión de imágenes basada en Wavelet puede ser realizada de dos formas (Nuñez J. Este método de fusión se basa en el hecho que. 2). Sin embargo. así. en el método de adición toda la información espacial de la imagen multiespectral es preservada.. la gran ventaja del método de adición es que la información de detalle de ambos sensores es usada.. Para el efecto.. se tiene en cuenta la relación entre los tamaños de píxel de la imagen pancromática y de la imagen multiespectral.

Los autores no conocen de trabajos de implementación y evaluación de la fusión wavelet.El Grupo de Investigación en Fusión de Imágenes (GIF) de Ingeniería Catastral y Gedesia. se fusionaron una imagen multiespectral de LANDSAT5-TM (resolución espacial de 30 m. Bogotá (Distrito Capital) En esta zona. ha realizado pruebas de fusión usando los métodos convencionales y la transformación de wavelet en dos zonas pilotos: Yopal (Casanare) En esta zona. Para realizar su investigación. desarrollados a nivel nacional.5.) y una imagen pancromática de IRS-1C (resolución espacial de 5 metros). La fusión tradicional se realizó utilizando el programa ERDAS IMAGINE 8. los autores desarrollaron unos scripts para el software MATLAB 6.0 que permiten manipular los coeficientes de detalle y aproximación de las imágenes digitales y obtener la imagen fusionada mediante wavelet. 7. se fusionaron una imagen multiespectral de SPOT2-HRV (resolución espacial de 20 metros) y una imagen pancromática de SPOT2 (resolución espacial de 10 metros). EVALUACIÓN ESTADÍSTICA DE LOS MÉTODOS DE FUSIÓN .

Nótese que es un parámetro adimensional. Se usan los signos + y – para las correlaciones positivas y negativas. se calculó la correlación entre las diferentes imágenes multiespectral original.Para calificar el comportamiento de los métodos estándar de fusión de imágenes y del método wavelet.943 0. TABLA DE RESULTADOS En la siguiente tabla se muestra la correlación entre la imagen multiespectral original y las imágenes obtenidas en los diferentes métodos de fusión. para obtener un índice de fusionadas y la imagen conservación de la resolución espectral. dicho coeficiente varía entre –1 y +1.807 Verde .743 0. para la zona piloto de Bogotá: Fusión Métodos convencionales RGB-IHS Componentes Principales Fusión métodos Infrarrojo 0. La correlación entre dos imágenes A y B está definida por (ERDAS. Para analizar la ganancia de resolución espacial se obtuvo la diferencia entre las correlaciones de las diferentes imágenes fusionadas y la imagen pancromática con respecto a las correlaciones entre la imagen multiespectral original y la imagen pancromática.831 Rojo Verde 0.928 0. respectivamente.834 Infrarrojo Rojo 0.2002): En donde y son los niveles digitales promedio de las imágenes correspondientes [2] y es el coeficiente de correlación entre las imágenes A y B. 8.

9680 0.148 0.9648 0.157 0.063 0.051 0.9704 Verde 0.061 0.105 0.061 0.9648 0.064 0.9655 0.9686 0.463 Componentes Principales 0.825 En la siguiente tabla se muestra la ganancia de resolución espacial para las imágenes obtenidas en los diferentes métodos de fusión: Imágenes fusionadas Ganancia Ganancia Ganancia Ganancia Ganancia Ganancia métodos Banda Banda Banda Banda Banda Banda convencionales Verde Roja Verde Infrarrojo Roja Infrarrojo Brovey 0.452 Multiplicación 0.9707 0.9698 0.888 Rojo 0.9547 0.9547 0.050 0.116 0.9621 0.115 0.9595 0.9618 0.116 0.714 Infrarrojo 0.146 0.062 0.168 0.050 0.convencionales Brovey Fusión métodos wavelet (Nivel 1) Haar Discreta de Meyer Biortonormal inversa Dabuiches Coiflet 0.627 Imágenes fusionadas método wavelet (Nivel 3) Haar Discreta de Meyer Biortonormal inversa Dabuiches Coiflet 0.9655 0.9700 0.053 0.116 0.126 0.114 .050 0.14 0.636 HIS 0.127 0.

Imagen fusionada usando el método RGB. Figura 1. Imagen Fusionada usando el método de Multiplicación. Figura 4. Imagen Fusionada usando la Transformada de Brovey Figura 5.IHS. Figura 2. Imagen Fusionada mediante la Transformada de Wavelet Biortonormal Inversa Figura 6.En las Figuras 1 a 6 se pueden ver las imágenes fusionadas. Imagen fusionada usando la transformada wavelet Discreta de Meyer . Imagen fusionada usando Componentes principales Figura 3.

. por su parte. Por su parte.7 y 63%. La ganancia de resolución espacial.9. en la zona piloto de Yopal muestran una tendencia similar a la aquí indicada: la fusión wavelet permitió conservar la resolución espectral en un porcentaje promedio entre 82 y 90% frente a una conservación entre 50 y 80% en los métodos tradicionales. El orden de desempeño espectral.45%) frente a las bandas roja (13%) y verde (14%). La mayor ganancia corresponde a la banda infrarroja (en promedio el 11%) frente a las bandas roja (6%) y verde (5%). de los métodos es el siguiente: Discreta de Meyer. en promedio. Los resultados obtenidos por los autores de este trabajo. La ganancia de resolución espacial. ANÁLISIS DE RESULTADOS: En las tablas indicadas antes puede verse que los métodos convencionales permiten conservar la resolución espectral. de mayor a menor. Todas las bandas conservan. La mejor ganancia promedio corresponde a la banda del infrarrojo (54. Componentes Principales y Brovey. El orden de desempeño espectral. La banda del infrarojo es la que menos conserva la resolución espectral (en promedio el 75%) frente a las bandas verde (88%) y roja (90%). en un porcentaje promedio variable entre 81 y 88%. por su parte. está entre 12. de mayor a menor. la misma resolución espectral: 96%. Biortonormal Inversa y Dabuiches. está entre 6% y 11%. RGB-IHS. de los métodos es el siguiente: multiplicativo. la ganancia de resolución espacial mediante wavelet está entre el 26% y el 42% frente a la ganancia entre el 32 y el 78% de los métodos tradicionales. Coiflet. Haar. La fusión por el método wavelet (nivel 3) permite conservar la resolución espectral en un porcentaje promedio variable del orden del 96%.

CONCLUSIONES De acuerdo con los resultados obtenidos en las zona pilotos de Bogotá y de Yopal se puede concluir: La fusión de imágenes mediante wavelet permite conservar mejor la resolución espectral original pero la ganancia de resolución espacial es menor que la obtenida por los métodos convencionales. . Los resultados de una fusión de imágenes dependen en buena parte de las condiciones específicas de la zona en la cual se realice el trabajo. El método de fusión de imágenes usando la transformada de Wavelet es una alternativa promisoria a los métodos de fusión convencionales en aquellos casos en donde se requiera conservar al máximo la riqueza espectral original de la imagen multiespectral. Esa evaluación se está realizando actualmente como parte del trabajo de investigación reseñado en este artículo.Otra manera de evaluar la calidad de la fusión es examinar la exactitud temática de la clasificación de las imágenes fusionadas y compararla contra la exactitud temática de la clasificación de la imagen multiespectral original.

Pohl. International Archives of Photogrammetry and Remote Sensing. et al. Wavelet Toolbox for use with MATLAB. Nuñez. Multisensor image fusion in remote senisng: Concepts. Jorge et al. 2001. 1998. Sanjeevi S. Multiresolution-Based Image fusion with Additive Wavelet Descomposition. 32 (7-4-3). 22 nd Asian Conference on Remote Sensing. C.BIBLIOGRAFÍA ERDAS Inc. Comparison of conventional and wavelet transform techniques for fusion of IRS-1C LISS-III and PAN images. Misiti M. . methods and applications. Pohl. 37 (3). 2002. 2002. 19 (5). Tools and Methods for fusion of images of different spatial resolution. IEEE Transactions on Geoscience and Remote Sensing. 1999. et al. ERDAS IMAGE Tour Guides. 1999.L. y van Genderen. C.. International Journal of remote Sensing. J.