FILTROS

Los filtros se aplican en el analkisis digital para aislar componentes de interes, el proposito de los
filtros digitales, es entonces para resaltar o suprimir, de forma selectiva, información contenida
en una imagen a diferentes escalas espaciales, para destacar algunos elementos de la imagen, o
también para ocultar valores anómalos (Chuvieco, 2010). Mediante técnicas de filtraje se
pretende suavizar o reforzar estos contrastes espaciales, de tal forma que los ND de la imagen se
asemejen o diferencien más de los correspondientes a los pixeles que les rodean. Hay dos
procedimientos para llevarlos cabo: aplicar a todos los pixeles de la imagen una operación
aritmética que tenga en cuenta el valor de los inmediatos (filtros de dominio espacial), o retener
ciertos componentes de las frecuencias de la imagen (filtros en el dominio de la frecuencia)
(Chuvieco, 2010). Los primeros resultan bastante sencillos de comprender y aplicar, mientras que
los segundos requieren de un componente matemático más complejo en donde se emplea el uso,
principalmente de las transformadas de Fourier (Chuvieco, 2010).

Se suelen distinguir dos tipos de filtros de acuerdo al objetivo que se persiga. Los filtros de paso
bajo, lo cuales retienen las bajas frecuencias y, por tanto, tienden a destacar el componente de
homogeneidad en la imagen subrayando la variación regional de los ND. En otro tipo, son los
filtros de peso alto los cuales se dirigen a realzar los componentes de alta frecuencia: esto es,
aquellas áreas de alta variabilidad, donde el contraste espacial es intenso (Chuvieco, 2010).

Ambos tipos de filtros se los puede realizar mediante los dos métodos ya mencionados (filtros de
dominio espacial y filtros en el dominio de la frecuencia).

Filtrado espacial

El procesamiento por grupo de pixeles opera sobre un grupo de pixeles de entrada que rodean a
un pixel central. Por lo tanto, los pixeles adyacentes proporcionan información importante sobre
la tendencia del brillo en el área que se está procesando. El uso y análisis de estas tendencias del
brillo en una imagen, motivan las operaciones de filtrado espacial. Todas las imágenes contienen
detalles, algunos detalles marcados y otros detalles no tan marcados.
Estos detalles están compuestos por transiciones de brillo que varían en ciclos que van del oscuro
al claro y vuelta al oscuro. La tasa a la cual el brillo varía completando un ciclo es su frecuencia
espacial.
Las frecuencias espaciales pueden orientarse horizontalmente, verticalmente o en cualquiera de
las diagonales. (Aldalur & Santamaría, 2002)
.
La forma más lógica de estimar los ND de los píxeles erróneos se basa en utilizar los ND de los
píxeles vecinos. De acuerdo al fenómeno de la autocorrelación espacial, muchas variables
geográficas tienden a presentar una fuerte asociación en el espacio (Chuvieco, 2010). Por esta
razón, para lograr una reducción de ruido, algunas operaciones trabajan con los valores de los
píxeles en un vecindario de la imagen y los valores correspondientes de una subimagen que
tiene las mismas dimensiones que el vecindario. La subimagen es llamada filtro, máscara,
núcleo, plantilla o ventana, con las tres primeras siendo la terminología prevalente. Los valores
en una subimagen de filtro son referidas como coeficientes, en vez de píxeles (Universidad de
Murcia, 2008).
Los filtros espaciales se implementan mediante un proceso llamado convolución espacial. Es un
método matemático utilizado en procesamiento y análisis de señales, y se conoce también como
filtro de respuesta finita al impulso (finite impulse response filter).
El proceso de convolución espacial se mueve a través de la imagen de entrada, pixel por pixel,
ubicando los pixeles resultantes en la imagen de salida.

𝑗 su nivel digital ′ 𝑁𝐷𝑖. en la convolución espacial los elementos son los valores digitales de brillo de los pixeles del núcleo y los valores constantes son los pesos. la convolución espacial calcula la actividad de frecuencia espacial en esa área.𝑗 + 𝑁𝐷𝑖−1.𝑗 nivel digital a ser obtenido tras el filtrado . Mediante diferentes combinaciones de parámetros asignados a los diferentes pixeles circundantes se pueden conseguir diferentes efectos.𝑗+1 + 𝑁𝐷𝑖+1.𝑗+1 𝑁𝐷𝑖. debido a la dispersión atmosférica y la reflectividad lambertiana (Universidad de Murcia. los pixeles de los bordes no se afectan por el proceso puesto que no tienen los vecinos necesarios para realizar el cálculo. 2002) El proceso de filtrado.𝑗−1 + 𝑁𝐷𝑖−1. Cuanto mayor es el tamaño del núcleo de pixeles que se emplea en el cálculo. 2002). consiste en la aplicación a cada uno de los pixeles de la imagen de una matriz de filtrado de tamaño 𝑁 𝑥 𝑁 (Si la dimensión del núcleo es 1 x 1 se trata del procesamiento digital punto por punto. y por lo tanto. Este proceso ocurre pixel por pixel. que generan un nuevo valor mediante una función del valor original y los de los pixeles circundantes. 2008). Dado que el área filtrada se limita a los pixeles centrales. En general los efectos deseados se relacionan con el aspecto borroso que tienen las imágenes de satélite. El resultado se ubica en la imagen de salida en la misma posición del pixel central. La suma total se divide entre un escalar. generalmente la suma de los coeficientes de ponderación (de acuerdo a si los pesos son iguales) (Universidad de Murcia.) Compuesta por números enteros. Los filtros se pueden expresar de forma general mediante la siguiente ecuación en el caso de la imagen de una matriz de filtrado de tamaño 3 𝑥 3 : ′ 𝑁𝐷𝑖−1.𝑗 + 𝑁𝐷𝑖. Para ello.𝑗−1 + 𝑁𝐷𝑖+1. (Aldalur & Santamaría. La mecánica de la convolución espacial consiste en aplicar junto con el núcleo de convolución. 2002) Al utilizar la información del brillo de los pixeles vecinos a un pixel central. 2008). es capaz de filtrar en base al contenido de frecuencia espacial existente. Las máscaras de convolución pueden tomar cualquier valor numérico. los coeficientes de convolución en forma de arreglo o matriz. generalmente suelen reemplazarse por 255 los valores mayores a 255 y por 0 los valores menores a 0 (Aldalur & Santamaría. más grados de libertad posee el filtro espacial.El valor digital de brillo de cada pixel en la imagen de salida depende de un grupo de pixeles de entrada que rodean al pixel que se está procesando. para cada pixel en la imagen de entrada. El proceso de convolución espacial utiliza un promedio ponderado del pixel de entrada y de sus vecinos inmediatos para calcular el valor de brillo del pixel de salida.𝑗 + 𝑁𝐷𝑖+1. generalmente cuadrada.𝑗−1 + 𝑁𝐷𝑖.𝑗+1 + 𝑁𝐷𝑖. esta matriz se conoce con el nombre de máscara de convolución. llamados coeficientes de convolución. El núcleo es una matriz móvil. (Aldalur & Santamaría. y también la fotografía aérea. Sin embargo. las dimensiones usuales en procesamiento por grupo son 3 x 3 y 5 x 5. El grupo de pixeles utilizados en el cálculo del promedio ponderado se conoce como núcleo (kernel).𝑗 = 9 Donde 𝑖 𝑦 𝑗 representan la fila y la coumna de cada pixel 𝑁𝐷𝑖. El pixel correspondiente al centro del núcleo y sus vecinos se multiplican por sus respectivos coeficientes de convolución y luego estos valores se suman. de forma general. con un número impar de valores en cada dimensión. cuando se ejecuta el proceso de convolución el valor final resultante debe hallarse entre 0 y 255 (para imagen de salida de 8-bits).

Además el filtro de la mediana es menos sensible a valores extremos. son útiles cuando se supone que la imagen tiene gran cantidad de ruido y se quiere eliminar. 2008). se pretende atenuar el llamado “ruido de la escena” producido en las zonas altamente heterogéneas en relación con la resolución espacial del sensor (zonas donde se mezclan distintos tipos de cubiertas en un espacio reducido). Se emplea también para reducir la variabilidad espacial de algunas categorías como paso previo y/o posterior a la clasificación. Se han utilizado con gran éxito filtros adaptativos para . También pueden utilizarse para resaltar la información correspondiente a una determinada escala (tamaño de la matriz de filtrado). los elementos de la matriz de filtrado no son todos 1 sino que se da más peso a uno de ellos (generalmente el central) para obtener un resultado más parecido a la imagen original y evitar que aparezca borrosa. por ejemplo en el caso de que se quiera eliminar la variabilidad asociada a los tipos de cubierta presentes en la imagen uniformizando de esta manera su respuesta (Universidad de Murcia. media ponderada y mediana  Filtros adaptativos. Existen varias posibilidades:  Filtro de la media.  Filtro de media ponderada. el filtro de paso bajo se utiliza para restaurar errores aleatorios que pueden presentarse en los niveles de brillo de la imagen. Son considerablemente más complejos ya que los coeficientes de ponderación se recalculan para cada uno de los pixeles en función del histograma de los ND que aparecen en la ventana. de este modo se reduce el efecto borroso que tienen las imágenes que han sufrido un filtro de media. producto de un defecto en la adquisición o recepción de los datos.Filtros de peso bajo Su objetivo es suavizar la imagen. Representación de filtros de media. En imágenes satelitales.  Filtro de la mediana tiene la ventaja de que el valor final del pixel es un valor real presente en la imagen y no un promedio. Figura 1. El inconveniente es que resulta más complejo de calcular ya que hay que ordenar los diferentes valores que aparecen en los pixeles incluidos en la ventana y determinar cuál es el valor central. asigna al pixel central la media de todos los pixeles incluidos en la ventana. En este caso.

2008). La matriz de filtrado de este filtro menos media puede calcularse directamente restando a la matriz de filtrado identidad la matriz de filtrado de la media (Universidad de Murcia. más o menos bruscos. diferentes elementos. En general. las segundas derivadas respeto a 𝑥 𝑒 𝑦. Los filtros de paso alto consiguen también eliminar en parte esta contaminación. Simulan una distribución gaussiana bivariante. La ecuación para calcularla es: 1 𝑥 2 +𝑦2 − 𝑤(𝑥. En términos espaciales. En el caso de una imagen de satélite nos va a informar de cómo son los cambios. Por otra parte la respuesta de cada pixel está contaminada por la de los pixeles vecinos ya que. A continuación aparecen las ecuaciones de las derivadas respeto a 𝑥 𝑒 𝑦.  Filtros gaussianos. El resultado será un conjunto de valores entre 0 y 1. Para transformar la matriz a una matriz de números enteros se divide toda la matriz por el menor de los valores obtenidos. 2008). que se producen entre pixeles contiguos. pues la parte central alisará el ruido con mayor fuerza que en la periferia (Sossa Azuela y Rodriguez Morales. cóncava o convexa. 2008). 2010). 2013)). cresta o cima) del terreno. Es mejor utilizar para el filtrado un valor de 𝜎 pequeño (Della. precisamente la que detectan los filtros de paso bajo. . evidenciando cualquier discontinuidad (Chuvieco. eliminar el speckle de las imágenes de radar y para detectar. en el caso de un MDE nos da información acerca de la forma (ladera recta. Filtros de peso alto Su objetivo es resaltar las zonas de mayor variabilidad eliminando lo que sería la componente media. la derivada compuesta y la derivada segunda compuesta denominada también laplaciana (Universidad de Murcia. si a la imagen original se le resta el resultado de pasarle un filtro de paso bajo se consigue resaltar esa variabilidad local. enfatizando los rasgos lineales presentes en la imagen como: carreteras. En el caso de Modelo Digital de Elevaciones la derivada es la pendiente. (Universidad de Murcia. parcelas o accidentes geológicos. La segunda derivada es la derivada de la derivada. considerando la superficie terrestre como lambertiana. 2011 citado por (Della. se intenta reforzar los contornos entre áreas homogéneas. Existen algunos métodos para la generación de estos filtros.  Sustracción de la media Si se considera que un filtro de paso bajo sirve para resaltar componentes a gran escala eliminando la variabilidad local. 2013). El valor máximo aparece en el pixel central y disminuye hacia los extremos tanto más rápido cuanto menor sea el parámetro de desviación típica s. con un solo filtro. 𝑦) = 𝑒 2𝜎2 2𝜋𝜎 2 Donde 𝜎 es la desviación estándar de la función Gaussiana La atenuación del ruido por medio de un filtro Gaussiano es menos agresiva a los bordes debido a la forma de esta función. la radiación reflejada por un pixel se reparte hacia los pixeles vecinos. esto se supone remarcar digitalmente los contrastes espaciales entre pixeles vecinos.  Filtros basados en derivadas La derivada de una función 𝑦 = 𝑓(𝑥) es el incremento de 𝑦 para cada incremento infinitesimal de 𝑥. valle.

𝑗) = ∆𝑥𝑝(𝑖 + 1. 𝑗) = √∆𝑥𝑝(𝑖. 𝑗) − 2𝑝(𝑖. Filtros direccionales Se utilizan para detectar estructuras que siguen una determinada dirección en el espacio resaltando el contraste entre los píxeles situados a ambos lados de la estructura. Otra opción para resaltar los elementos de mayor variabilidad es restar a la imagen original la obtenida mediante un filtrado laplaciano (Universidad de Murcia. 𝑗) 𝑖 𝑦 𝑗 representan la fila y la columna de cada pixel El filtro laplaciano se recomienda para el realce de rasgos lineales en entornos urbanos. 𝑗 − 1) − 2𝑝(𝑖. 𝑗 − 1) ∆𝑥2 𝑝(𝑖. que las imágenes sean accesibles al . En una ventana de 3x3 pixeles. En la tabla 6. 𝑗)2 + ∆𝑦𝑝(𝑖.𝑗 + 𝑁𝐷𝑖−1. 𝑗 − 1)] − 4𝑝(𝑖. 1977) que realza la variación entre filas y columnas de la matriz de filtraje. 𝑗) − ∆𝑦𝑝(𝑖. 𝑗) − ∆𝑥𝑝(𝑖. 2008). 𝑗)2 ∆𝑥𝑦2 𝑝(𝑖.𝑗+1 ) − (𝑁𝐷𝑖−1. Por lo tanto: ∆𝑥𝑝(𝑖. dicho de otro modo.8 aparecen como ejemplo las matrices para resaltar estructuras en dirección Este-Oeste y Norte Sur respectivamente (Universidad de Murcia. 𝑗) = 𝑝(𝑖 + 1.𝑗 = √𝐶 2 + 𝐹 2 Donde 𝐶 = (𝑁𝐷𝑖−1. 𝑗) = 𝑝(𝑖.𝑗+1 ) Es algo más complejo que los anteriores: Figura 3.𝑗+1 + 𝑁𝐷𝑖+1. 2010): ′ 𝑁𝐷𝑖. 2008). 𝑗) = 𝑝(𝑖. 𝑗) = 𝑝(𝑖. 𝑗) + 𝑝(𝑖 − 1.𝑗−1 + 2𝑁𝐷𝑖+1.𝑗−1 ) y 𝐹 = (𝑁𝐷𝑖−1. 𝑗) − 𝑝(𝑖 − 1.𝑗+1 + 2𝑁𝐷𝑖. Figura 2. Filtros Norte y Este. 𝑗) ∆𝑥𝑝(𝑖.𝑗−1 + 2𝑁𝐷𝑖−1. 𝑗) = ∆𝑦𝑝(𝑖 + 1. 𝑗) ∆𝑦2 𝑝(𝑖.𝑗+1 ) − (𝑁𝐷𝑖+1.𝑗−1 + 2𝑁𝐷𝑖. 𝑗) − 𝑝(𝑖 − 1. 𝑗) − 𝑝(𝑖. Filtros para la detección de bordes Uno de los más utilizados es el detector de bordes de Sobel (Gonzalez y Wintz. requiere que previamente están sean introducida en un sistema informático. 𝑗 + 1) + 𝑝(𝑖. 𝑗) = [𝑝(𝑖 + 1.𝑗 + 𝑁𝐷𝑖+1. Filtro de C y F de Sobel SISTEMAS DE ALMACENAMIETO Para cualquier tratamiento digital aplicado a las imágenes. 𝑗) + 𝑝(𝑖. 𝑗 + 1) − 𝑝(𝑖.𝑗−1 + 𝑁𝐷𝑖+1. 𝑗) ∆𝑦𝑝(𝑖. el ND del pixel central se calcula de la forma siguiente (Chuvieco.

por lo que el acceso a las imágenes se simplifica notablemente (Chuvieco. 2010). de acuerdo al tipo de archivo y a la organización de los datos de la imagen (Chuvieco. 2010): 1. que ralentizaba la lectura de los datos. Habitualmente. es conveniente considerar la codificación aplicada y la organización lógica de los datos (Chuvieco. Independientemente del soporte físico de la imagen. se sitúan los correspondiente a la línea 1. banda 2. Se trataba del soporte más estándar para almacenar un volumen considerable de información. cada uno de los cuales se descompone en registros (records). 2. MODIS o las imágenes RADAR. Los registros son la longitud de la variable. las cintas tenían 9 pistas (tracks). para luego continuar los de la banda 3. Los principales problemas que planteaba un CCT eran su acceso secuencial. por lo que hoy ya es obsoleto. por lo que en este sentido. BSQ): implica que los ND de cada banda se disponen uno a continuación del otro hasta completar todos los pixeles que le forman. este es también. los sensores han codificado los ND en grupos de 8 bits. Las imágenes digitales se organizan en una serie de archivos (files). Generalmente. La distribución de los archivos en una escena está estrechamente relacionados con el formato en el que se almacena los ND de la imagen. En el caso de algunos sensores como son: NOAA-AVHRR. condiciones de adquisición (tipo de sensor. cada pixel es un byte. y si es el caso. Bandas intercaladas por línea (Band Interleaved by Line. la información se codifica en un rango más amplio (10. Soporte físico de una imagen Hasta los años ochenta. Los ND de la imagen se graban en código binario (un bit indica una posición binaria. etc). entre banda y banda se inserta un archivo de cola y otro de cabecera. Bandas secuenciales (Band Sequential. los ND se organizan por líneas en lugar de por bandas. dia. de cara a poder reconstruir posteriormente la información detectada por el sensor. 2010). Los 3 formatos más habituales son (Chuvieco. 4. Tras ellos. aunque cada vez es más común hacerlo a través de internet. 0 o 1).600 pies. de 0 a 255). BIL): en este caso. Normalmente. elevación y azimut solar. para cada línea. antes de comenzar la línea siguiente. En definitiva. con una longitud de 2. se sitúan los ND de la siguiente banda y así sucesivamente hasta completar todas las bandas espectrales de la imagen.ordenador. el rango admitido por la práctica totalidad de los equipos de tratamiento digital. Actualmente las imágenes se distribuyen principalmente en un soporte óptico (CD o DVD). etc hasta completar el . el alto coste de los equipos lectores y su escasa densidad de almacenamiento frente a las tecnologías actualmente disponibles. 2010). IKONOS. disponiéndose consecutivamente los correspondientes a todas las bandas. 12 0 16 bits). lo que equivale a un rango de 256 niveles (28. con objeto de identificar la región del espectro sobre la que se está recogiendo información. 2010).400 a 3. localización de la escena. las imágenes de satélite se distribuían de modo casi exclusivo en cintas magnéticas compatibles (CCT). utilizando los protocolos estándar de transferencia de archivos (FTP). el tipo de corrección previamente aplicada a la imagen. tras los ND de la línea 1. por lo que se requiere una labor previa antes de la visualización de la información (Chuvieco. Eso depende de los soportes y formatos en los que se ofrecen los ND que definen los pixeles de la imagen. por lo tanto. es necesario conocer el formato de grabación de los datos. banda 1. Normalmente cada imagen incluye un archivo de cabecera en el cual se almacenan sus metadatos: el formato en el que están grabados los ND que la componen.

poco frecuente. B. Obtenido de Herramientas de Teledetección aplicadas a la gestión de los recursos hídricos : http://ocw. Barcelona: Ariel. de la banda 2 y asi consecutivamente.unc. número total de bandas. seguido del adquirido para la línea 1. Teledetección Ambiental: La observación de la tierra desde el espacio. (2010). KML. aparece el correspondiente a la línea 1. se alternan en cada pixel.ar/institucional/biblioteca/trabajos/638/16895. & Santamaría. 3. Della. etc.pdf/view?set_language=en . (2002). cuando se empleaban equipos de escasa memoria. Bibliografía Aldalur. banda 3. banda 2. HDF . Chuvieco.famaf.edu. 2010). Filtrado Espacial. S. lo que facilita notablemente su acceso por programas genéricos de análisis de imágenes . que permite almacenar imágenes raster de distinta resolución espacial o tablas en un formato compacto. banda 1. columna 1. M. M.A. E. Filtros y técnicas de clasificación en imágenes de Teledetección. . de fácil apertura y con sus propios metadatos. Ejemplos . columna 1. (2008). tras el ND correspondiente al pixel de la línea 1. hoy por hoy.um. Técnicas de flltrado. Obtenido de www2. empleado por Google Maps como lenguaje estándar para visualización de archivos geográficos en internet. Bandas intercaladas por pixel (Band Interleaved by Pixel. (Septiembre de 2013).es/ciencias/herramientas-de-teledeteccion-aplicadas-a-la/material-de- clase-1/presentacion-tema-6-tecnicas-de-filtrado. Tras la primera línea de la última banda se sitúa la segunda línea de la banda 1. 31-42. Junto a estos formatos tradicionales. columna 1.pdf Universidad de Murcia. Este formato es. en los últimos años se han extendidos mucho otros que intentan simplificar la lectura de archivos de múltiples bandas o hacer más abierto el acceso de archivos de gran volumen (Chuvieco.. GeoTIFF que es una imagen TIFF estándar pero que permite insertar metadatos geográficos. Así. ya que fue ideado para realizar la clasificación de sub-imágenes. Revista de Teledetección. BIP): en lugar de alternarse de los ND en cada línea.