You are on page 1of 95

Percepción Remota (Teledetección).

5.1 Conceptos Fundamentales.

La Percepción Remota (Teledetección) es “la ciencia, técnica y arte de obtener e
interpretar información desde la distancia, usando sensores que no tienen contacto
físico con el objeto que está siendo observado”.

Implica el análisis de imágenes que son procesadas e interpretadas para producir
datos que pueden aplicarse en agricultura, Geología, Geografía, Oceanografía y
Ecología, entre otros fines.

El término de Teledetección está restringido a métodos que emplean la energía
electromagnética como medio de detección y medida de las características de los
objetos. Este tipo de energía incluye: la luz, el calor, las ondas de radio y excluye los
estudios eléctricos, magnéticos y gravimétricos, que miden los campos de fuerza.

La Teledetección (Remote Sensing) es, por tanto, una disciplina científica que integra
un amplio conjunto de conocimientos y tecnologías utilizadas para la observación, el
análisis y la interpretación de fenómenos terrestres y planetarios.

La Teledetección involucra dos
procesos básicos:

1) Adquisición de datos desde
plataformas con sensores
adecuados.

2) Análisis de los datos
mediante dispositivos visuales
o digitales Muchas veces la
información así adquirida se
complementa con datos de
referencia ya existentes de la
región en estudio (mapas de
suelos, estadísticas de
cosechas, planos catastrales,
etc.) Toda esta información es
usualmente combinada en
forma de capas de
información en lo que
usualmente se denomina un
SIG (Sistema de Información
Geográfico).

5.1.1 Breve historia.

La Teledetección es una ciencia
aplicada, y como tal, muy
dependiente del estado del
desarrollo tecnológico existente
en cada momento.

Las primeras fotografías aéreas
fueron tomadas en Francia en
1839.

En 1840 se realizaron las
primeras aplicaciones al mapeo
topográfico concebidas por el
director del Observatorio de
París.

En 1858 Gaspard Felix
Tournachon (Nadar) ascendió
sobre París en un globo con el
propósito de mapear la ciudad.

Lawrence desarrolló en Estados Unidos un conjunto que permitía transportar cámaras de hasta 1000 libras y tomó fotos aéreas de los daños ocasionados por el terremoto de San Francisco desde una altitud de 600 metros. Italia. . Las primeras fotos tomadas desde un avión las obtuvo Wilbur Wright en 1909 sobre Centrocelli.En 1906 G.

La primera cámara aérea propiamente dicha se desarrollo durante la I Guerra Mundial en 1915. La aplicación de estas innovaciones se desarrollo posteriormente para usos civiles. Tienen lugar los primeros experimentos para el uso de cámaras multiespectrales. . y se mejoraron los sistemas de comunicación. Surgen los aparatos de radiometría. con la finalidad de hacer levantamientos de recursos naturales tuvieron lugar en 1930. se introdujeron nuevos sensores. en el año de 1944. Las primeras coberturas de fotografías aéreas. que son sensibles a la radiación infrarroja y se utilizan las películas infrarrojas con fines militares (detección de camuflajes) en 1940. como el radar. De igual manera. desarrollándose las primeras aplicaciones de esta exploración aérea para el control y conocimiento de los recursos naturales.

dirigió hacia el espacio el impulso en innoación e investigación tecnológicas. el desarrollo de los sistemas de navegación permitió concebir los primeros ingenios espaciales. En 1962 son desarrollados vehículos espaciales (tripulados y no tripulados) y se lanzan los primeros satélites meteorológicos (primera fotografía orbital MA-4-Mercury en 1962). Es lanzado el primer satélite artificial (Sputnik) en el año de 1957. Los primeros procesamientos ópticos y digitales. A partir de estos avances. junto con los radares de vista lateral.A finales de la década del 50. . que han permitido no sólo la exploración del planeta. siguen una larga serie de misiones civiles y militares. surgen en 1961. La denominada “Guerra Fría”. sino también de la Luna y los planetas vecinos.

. el programa Géminis obtiene fotografías orbitales y surgen otros programas espaciales que contemplan satélites de recursos naturales (SESAT. 4. 3. SIR-A.En 1972. Tiene lugar el lanzamiento del LANDSAT4. SPOT.8 y 15 metros en el 2001. La compañía Space-Imaging construye el sistema (IKONOS) con resoluciones espaciales de 1. SIR-B y MOMS en 1983. En la actualidad se está trabajando en sistemas para la obtención de ortofotografías de 1mm de resolución desde el espacio. 2. ERS. El ERS-1 es lanzado en 1991. LANDSAT). El LANDSAT 7-ETM es puesto en órbita en 1998.

Los aliados logran un gran impacto al descubrir (y luego destruir) las bases secretas alemanas de cohetería durante la parte final de la guerra sobre la base de la interpretación de fotografías aéreas. 1925-45. 1999) distinguen siete fases en la historia de la teledetección: Pre 1925. La segunda guerra mundial provee de gran ímpetu a la tecnología de las fotografías aéreas. .Barret y Curtis (“Introduction to Environmental Remote Sensing”. Desde los inicios hasta la finalización de la Primera Guerra Mundial cuando el valor de las fotografías aéreas quedó demostrado por su uso militar y relevamientos sistemáticos. Las técnicas de interpretación y mapeo a partir de fotos estereoscópicas alcanzan gran difusión entre los técnicos civiles.

Extensiva aplicación de las fotos aéreas para el planeamiento regional incluyendo cambios temporales. . 1955-1960.1945-55. forestación y Arqueología. La Real Fuerza Aérea Británica realiza durante los 50's misiones fotográficas en Oriente Medio que constituyen aún hoy la mejor cobertura libremente disponible de la región. Durante este período se realizan numerosos relevamientos aerofotográficos en los países en desarrollo. Las técnicas se difunden aún más y se desarrollan las aplicaciones a la Geología. la agricultura.

1960-80. La fotografía aérea está limitada a la parte visible e infrarrojo cercano del espectro electromagnético. En 1972 se lanza el primer satélite de recursos naturales el ERTS -1 (posteriormente llamado LANDSAT 1). . con los nuevos sensores satelitales se hacen visibles otras porciones del espectro como el infrarrojo termal. Incremento de la comercialización de la Teledetección. Desarrollo del software de computación para obtención de información y procesamiento de imágenes. 1980-1995. Organización sistemática de los sensores remotos en programas. 1995 en adelante. Advenimiento de la teledetección satelital. Los 60's vieron importantes desarrollos en satélites de cobertura global con objetivos científicos y de espionaje.

Todos los cuerpos u objetos (seres vivos. . La Teledetección espacial es una técnica que permite adquirir imágenes de la superficie terrestre o marina y la atmósfera desde sensores instalados en plataformas espaciales.5. Por ser una técnica que no esta en contacto directo con el objeto requiere que entre el sensor y el objeto haya un flujo de información.1. y la radiación que refleja la Tierra y los objetos situados en ella es la que se utiliza comúnmente en Teledetección. El mayor emisor de esta radiación en el Sistema Solar es el Sol. planetas u objetos inanimados) emiten radiación electromagnética.2 Acercamiento sistemático a la Teledetección. Otro tipo de emisión puede provenir del mismo sensor. La cantidad y tipo de radiación que emiten depende básicamente de su comportamiento al contacto con la luz y de su temperatura. el cual es conocido como radiación electromagnética la cual puede ser emitida por el objeto o proceder de otro cuerpo y haber sido reflejada por este. el cual incorpora en su sistema un rayo emisor de radiación.

. objeto (árbol) y el flujo energético que permite poner a ambos en relación. reciben y traducen convenientemente una energía luminosa procedente del mismo. Por ejemplo. Por tal motivo. Podría también tratarse de un tipo de energía emitida por el propio objeto.Nuestros sentidos perciben un objeto solo cuando pueden descifrar la información que éste les envía. precisamente. o incluso por el sensor. sino por un foco energético exterior que le ilumina. Esta señal no es originada por el árbol. no es posible para el ser humano percibir ese árbol en plena oscuridad. las tres formas de adquirir información a partir de un sensor remoto: Por reflexión. por emisión y por emisión-reflexión. En el caso del ojo. ese flujo procede del objeto por reflexión de la luz solar. Este sencillo ejemplo sirve para introducir los tres principales elementos de cualquier sistema de Teledetección: sensor (el ojo). Éstas son. el ser humano es capaz de ver un árbol porque los ojos (considerados como el sensor remoto perfecto).

Esta recibe la radiación electromagnética proveniente de la fuente de energía . codificarla y grabarla o enviarla directamente al sistema de recepción. 2. Puede ser el Sol (como fuente natural) o el mismo sensor (como fuente artificial). Fuente de Energía: Es el emisor de la radiación electromagnética que llegara a la superficie terrestre y que posteriormente será detectada por el sensor. . agua o infraestructura. Sistema Sensor: Constituido por el sensor mismo y la plataforma que lo sustenta.Un sistema de Teledetección esta compuesto por los siguientes: 1. 3. Cubierta Terrestre: Formada por distintas masas de vegetación. El sistema tiene como función captar la energía emitida por la cubierta terrestre. y la refleja o emite de acuerdo a sus características físicas. suelo.

Posterior a las correcciones necesarias. b) Las características espectrales de la superficie u objeto. Sistema de recepción y comercialización: este sistema recibe la información transmitida por la plataforma y la guarda en un formato especifico y apropiado. Intérprete o Analista: Es la persona encargada de clasificar y analizar la información contenida en la imagen para generar información temática.4. Usuario Final: Es quien finalmente recibirá y utilizará la información ya procesada por el analista para fines específicos. se distribuye a los interesados. 6. tales como: a) La naturaleza de los datos de percepción remota. c) Los procesos y transformaciones digitales. Para dominar la tecnología de la Percepción Remota se necesitan ciertos conocimientos indispensables. 5. .

la longitud de onda es más frecuentemente medida en micrómetros. y transmiten la energía. Los rayos X. La onda es realmente compuesta. En percepción remota. . Estas oscilaciones generan ondas que contienen 2 campos de fuerzas ortogonales entre sí. o la distancia entre sucesivos peaks o valles.5.2 El Espectro Electromagnético. Se asume que la radiación se produce como resultado de oscilaciones en los campos eléctrico y magnético en las inmediaciones de los objetos. La energía electromagnética se comporta en parte como una onda de energía fluctuante que viaja a la velocidad de la luz. consistiendo de campos eléctricos y magnéticos que fluctúan en ángulos rectos para cada uno y de acuerdo a la dirección de la trayectoria. las ondas de radio. Un rasgo descriptivo fundamental de una forma de onda es su longitud de onda. eléctrico y magnético. los rayos ultravioleta y la región del visible son formas familiares de energía electromagnética.

Se relacionan como: λf = C Donde C es la velocidad de la luz.La energía electromagnética viaja a través del espacio como onda a la velocidad de la luz. que es la distancia de la separación entre las crestas adyacentes de la onda. que es el número de los picos de la onda que pasan por un punto fijo en una unidad de tiempo. o de su frecuencia (f). que son perpendiculares el uno al otro y a la dirección de la propagación de la onda. 3x1010 cm/s. La onda se puede describir en los términos de la longitud de onda (λ). es decir. La ecuación descrita muestra que la frecuencia varía inversamente con la longitud de onda y directamente con la velocidad de la propagación de la onda. La onda consiste en un campo magnético y uno eléctrico. .

. se extiende desde las longitudes de onda más cortas (incluyendo los rayos gamma y los rayos-X) hasta las longitudes de onda más largas (incluyendo microondas y las ondas de radio). Hay varias regiones del espectro electromagnético que son útiles para la percepción remota.En Teledetección. la radiación electromagnética se clasifica en espectros electromagnéticos o regiones debido a que las longitudes de onda dentro de esas regiones presentan cierta homogeneidad en determinados aspectos. En la figura se muestran los rangos aproximados de cada región del espectro. Para la región del visible la radiación solar tiene más importancia que la terrestre y para la región del infrarrojo es más importante la radiación terrestre debido a que ésta se basa en el calor presente en los objetos. El espectro electromagnético.

Algunos materiales de la superficie de la Tierra.7 micrómetros. La longitud de onda visible más larga es roja y la más corta es violeta.4 a 0.La porción ultravioleta (UV) está sólo más allá de la porción violeta de las longitudes de onda visibles. sobre todo rocas y minerales. es la única porción del espectro que podemos asociar con el concepto de colores. despiden luz fluorescente o emiten la luz visible cuando son iluminados por la radiación UV. Las longitudes de onda visibles cubren un rango de aproximadamente 0. .

de una manera muy similar a la radiación en la porción visible) y la RI emitida o termal (la radiación que se emite de la superficie de la Tierra en la forma de calor). Las microondas. mientras que las longitudes de onda más largas son usadas por los radiotransmisores. Las longitudes de onda más cortas tienen características similares a la región infrarroja termal. de cerca de 1 mm a 1 m cubren las longitudes de onda más largas usadas para la percepción remota. .La región infrarroja se puede dividir en dos categorías basadas en las características de la radiación: la RI reflejada (se utiliza para los propósitos de la percepción remota.

la dispersión disminuye al aumentar la longitud de onda de la radiación.• Efectos atmosféricos sobre la radiación electromagnética. La dispersión causa cambios en la dirección y la intensidad de la radiación. -La distancia que la radiación viaja a través de la atmósfera. La atmósfera contiene partículas y gases que afectan la radiación que entra a través de los mecanismos de la dispersión y de la absorción. En general. -La abundancia de partículas o de gases. La radiación electromagnética se atenúa mientras pasa a través de la atmósfera de la Tierra. Cuánta dispersión ocurre depende de varios factores: -La longitud de onda de la radiación. .

La dispersión de Rayleigh es inversamente proporcional a la cuarta potencia de la longitud de onda. esto deja que una mayor proporción de las longitudes de onda más largas penetren en la atmósfera. el azul) se dispersan más que las otras longitudes de onda (más largas) visibles. las longitudes de onda más cortas del espectro visible (por ejemplo. Mientras que la luz del Sol pasa a través de la atmósfera. . lo que ocasiona que las longitudes de onda más cortas de la radiación sean dispersadas mucho más que las longitudes de onda más largas. La dispersión de Rayleigh es el mecanismo dominante de dispersión en la atmósfera superior. En la salida del Sol y la puesta del Sol la luz tiene que viajar más lejos a través de la atmósfera que al mediodía. y la dispersión de las longitudes de onda más cortas es más completa.Hay tres tipos de dispersión que pueden ocurrir: + La dispersión de Rayleigh: Ocurre cuando las partículas son muy pequeñas en relación con la longitud de onda de la radiación.

. tienen los diámetros casi iguales a la longitud de onda de la radiación. La dispersión de Mie ocurre sobre todo en las porciones más bajas de la atmósfera. La dispersión de Mie tiende a afectar longitudes de onda más largas que las afectadas por la dispersión de Rayleigh.La dispersión de Mie ocurre cuando las partículas que están presentes. donde son más abundantes las partículas más grandes.

La porción visible del espectro. corresponde a una ventana atmosférica y al pico de nivel de energía del Sol. En contraste con la dispersión. a donde nuestros ojos son más sensibles. y son llamadas ventanas atmosféricas. El resultado final de la absorción es que la energía es atenuada o perdida. El vapor de agua en la atmósfera absorbe mucha de la radiación que ingresa de las ondas largas infrarrojas y las ondas cortas de microondas (entre 22 mm y 1 mm). este fenómeno es provocado en la atmósfera. (áreas espectrales. son usadas por los sensores remotos. El bióxido de carbono tiende a absorber fuertemente la radiación en la porción infrarroja del espectro (termal).La absorción es el otro mecanismo principal que trabaja cuando la radiación electromagnética interactúa con la atmósfera. Por ejemplo. • Ventanas atmosféricas. El ozono absorbe la radiación ultravioleta dañina (las longitudes de onda más cortas que 0. existe un espectro característico de la radiación de la Tierra y del Sol después de ser transmitida a través de la atmósfera. .3 mm) del Sol. Las áreas del espectro que no son seriamente influenciadas por la absorción atmosférica. en donde la radiación es totalmente transmitida a través de la atmósfera). por las moléculas que absorben energía en las diferentes longitudes de onda.

. mientras la ventana larga de longitudes de onda cercanas a 1 µm.La energía calorífica emitida por la Tierra corresponde a la ventana alrededor de los 10 µm en la porción RI termal del espectro. es asociada con la región de microondas.

1 Radiación – Interacciones con el objetivo. La energía total incidente podría interactuar con la superficie en una o más de estas tres vías. -Transmisión: Ocurre cuando la radiación pasa a través de un objeto. del material y condición de la fisonomía. Las proporciones de cada una dependerán de la longitud de onda de la energía. -Reflexión: Sucede cuando la radiación rebota en la superficie del objeto y es redirigida. La radiación que no es absorbida o dispersada por la atmósfera puede alcanzar e interactuar con la superficie de la Tierra.5. . Existen tres formas de interacción que pueden llevarse a cabo cuando la radiación incide encima de la superficie: -Absorción: La radiación es absorbida por un objeto.2.

Aplicando el principio de conservación de la energía obtenemos que:

EI (λ) = EA (λ) + ET (λ) + ER (λ)

La absorción (A) se presenta cuando la radiación es absorbida por un blanco,
mientras que la transmisión (T) ocurre cuando la radiación pasa a través de un blanco.

La reflexión sucede cuando la radiación rebota con el blanco y a su vez es redirigida.
En la Percepción Remota, existe un interés muy particular en medir la energía
reflejada de los blancos, que llegan a los detectores a bordo de un satélite o un avión.
La reflexión de la energía depende del grado de rugosidad de la superficie del blanco
en relación con la longitud de onda de la energía incidente sobre ésta.

Cuando lo rugoso de la superficie
(o la variación de altura) es
pequeño en comparación con la
longitud de onda de la radiación, la
superficie actúa como un espejo
donde la energía incidente es
dirigida lejos de la superficie en un
ángulo igual al ángulo de
incidencia. Este tipo de reflexión
es llamado reflexión especular.

El otro caso extremo ocurre cuando la superficie es muy rugosa, por ejemplo, las
grandes variaciones de altura de la superficie son mucho más grandes que las
longitudes de onda de la radiación. En este caso la radiación es reflejada
uniformemente en todas las direcciones. Este tipo de reflexión es llamado reflexión
difusa. La mayoría de la fisonomía de la Tierra se ubica entre estos dos extremos.

• Definiciones de tipos de superficies en Teledetección.

- Especular : Es aquella superficie ideal en la que se cumple perfectamente la ley de
la reflexión (ángulo incidente = ángulo reflejado).

- Lambertiana: Es aquella superficie, también ideal, que refleja la radiación incidente
de manera uniforme en todas las direcciones.

2 Firmas espectrales.2. Depende de las características físicas o químicas del objeto que interaccionan con la energía electromagnética. Firma espectral es la forma peculiar de reflejar o emitir energía de un determinado objeto o cubierta. y varía según las longitudes de onda. La propiedad usada para cuantificar estas firmas espectrales es llamada reflectancia espectral: la razón de la energía reflejada y la energía incidente como una función de la longitud de onda.5. .

.Los factores que modifican las firmas espectrales son: -Angulo de iluminación solar. -Sustrato edafológico o litológico: muy influyente cuando la cubierta observada presenta una densidad media. estado fenológico. -Modificaciones que el relieve introduce en el Angulo de iluminación: orientación de laderas o pendiente. etc. -Influencia de la atmósfera: absorción de nubes y dispersión selectiva en distintas -Longitudes de onda. homogeneidad que presenta. -Variaciones medioambientales en la cubierta: asociación con otras superficies.

longitudes de onda del visible e infrarrojo cercano. La característica más notoria del espectro vegetacional es el dramático aumento en reflectancia a través de la frontera del visible- infrarrojo cercano. y la alta reflectancia del infrarrojo cercano. lo cual resulta en una reflectividad muy baja de la radiación infrarroja. El patrón de reflectancia de la vegetación verde en las longitudes de onda del visible es debido a la absorción selectiva de la clorofila. Cuerpos de agua claros y profundos absorben efectivamente todas las longitudes de onda más largas que el rango visible.2.5. . con un máximo en el rango del infrarrojo medio.3 Comportamiento espectral La reflectancia de suelo seco se teórico de los elementos del eleva uniformemente a través de las territorio.

La energía electromagnética retornada desde la superficie terrestre puede ser detectada por una película sensible a la luz.3 Adquisición de imágenes por sensores remotos. como en una fotografía aérea. .5. Los sensores electrónicos generan una señal eléctrica con una fuerza proporcional a la cantidad de energía recibida. La señal desde cada detector en una serie es registrada y transmitida electrónicamente en forma digital como una serie de números. o por una serie de sensores electrónicos.

Una imagen de una serie de sensores electrónicos consiste de una grilla rectangular de dos dimensiones de valores numéricos que representan diferentes niveles de luminosidad. Cuando se despliegan en su monitor. representada por unidades areales cuadradas en la imagen (píxel). Cada valor representa el promedio de luminosidad para una porción de la superficie. . los valores de luminosidad en la imagen ráster son traducidos a luminosidad de despliegue sobre la pantalla.

con esto. A medida que el satélite avanza. “barre” la superficie con un conjunto de sensores que registran la energía reflejada. cada píxel representa un área en la superficie terrestre de 30 x 30 m (900 m2). Las imágenes de satélite se encuentran en formato ráster.Una imagen satelital es una matriz digital del puntos capturada por un sensor montado a bordo de una plataforma que orbita alrededor de la Tierra. P/ej: Si la resolución de una imagen es de 30 m. la firma espectral de todos los objetos existentes en la superficie de 900 m2 será promediada para darle su valor digital al píxel (8 bits / 28=256). . en el que cada uno posee un valor digital o de reflectancia. el cual consiste en una matriz de miles de píxeles.

5. Entre Ríos. Los datos pancromáticos se representan por medio de imágenes en blanco y negro. esta única banda suele abarcar lo parte visible y de infrarrojo cercano del espectro.1 Imágenes Pancromáticas. Cauce del río Paraná. Para los sensores pancromáticos más modernos.3. . Argentina (15 m). Se captan mediante un sensor digital que mide la reflectancia de energía en una parte amplia del espectro electromagnético (porción visible y del infrarrojo cercano del espectro).

1m de resolución). Colombia (Imagen Ikonos Pancromática. . Zona del Parque Simón Bolívar en Bogotá.

Por ejemplo. un conjunto de detectores puede medir energía roja reflejada dentro de la parte visible del espectro mientras que otro conjunto mide la energía del infrarrojo cercano. Wisconsin. .5.000). Estos distintos valores de reflectancia se combinan para crear imágenes en color.2 Imágenes Multiespectrales. Madison. Es posible incluso que dos series de detectores midan la energía en dos partes diferentes de la misma longitud de onda. Se captan mediante un sensor espectral que mide la reflectancia en muchas bandas. (1:180. LANDSAT 1.3.

Algunos sistemas también emplean uno o más bandas infrarroja termales. . La mayoría de los sistemas satelitales usan desde tres a seis bandas espectrales en los rangos de longitudes de onda del visible hasta el infrarrojo medio. Imagen multiespectral tomada por el satélite Landsat TM de un sector del Río Amazonas en composición de falso color.Los sensores de teledetección multiespectrales de hoy en día miden la reflectancia simultáneamente en un número de bandas distintas que pueden ir de tres a catorce.

3.3 Resoluciones en una imagen de sensores remotos. La resolución espacial está ligada a la escala de trabajo y a la fiabilidad obtenida en la interpretación. Se mide en unidades de longitud (metros sobre el terreno) y depende de la longitud focal del sensor y de su altura sobre la superficie. • Resolución espacial: Es una medida del detalle espacial de una imagen. Esta distancia corresponde al tamaño de la unidad mínima de información incluida en la imagen (píxel).5. Se refiere al objeto más pequeño que puede ser distinguido sobre la imagen de satélite. .

Esto es muy importante para evaluar los costos del proyecto dado que.Se trata de una de las características más importantes que hay que considerar a la hora de elegir imágenes. generalmente. cuanto más detallada es una imagen más cara resulta por unidad de superficie. . porque determina de forma directa qué rasgos del terreno pueden cartografiarse.

dominará la luminosidad promediada de la celda de la imagen que caiga dentro. Por otro lado. No podríamos ser capaces de identificar qué objeto es. de fondo es relativamente homogénea. . La imagen es una porción de una escena pero podemos ver que es algo Landsat Thematic Mapper que muestra parte de San Francisco.5 metros. Si tal objeto es suficientemente más luminoso o más oscuro que sus vecinos. California. La forma es usualmente apreciable sólo si las dimensiones del objeto son varias veces más grandes que las dimensiones de la celda. especialmente si el área grandes y caminos son claramente reconocibles.La forma es un factor visual que podemos usar para reconocer e identificar objetos en una imagen. Sólo edificios alrededores. y esa celda contrastará en brillo con las celdas adyacentes. objetos más pequeños que el tamaño de la celda de la imagen pueden ser detectados en una imagen. La imagen tiene un presente que es diferente de sus tamaño de celda de 28.

revelando las celdas más grandes de la imagen Landsat. y calles más estrechas son reconocibles en la imagen IKONOS. edificios pequeños. Evidentemente no existen claras fronteras dimensionales entre detectabilidad y reconocimiento en imágenes digitales.El contexto espacial también podría permitirnos reconocer rasgos lineales que son más angostos que las dimensiones de la celda. . tales como caminos o puentes sobre agua. La imagen muestra el área encuadrada de la escena Thematic Mapper aumentada a la misma escala de la imagen IKONOS. Árboles. El área encuadrada muestra una imagen IKONOS con un tamaño de celda de 4 metros.

sin cultivar en función de la salud vegetativa relativa y facilita tipificaciones de la cubierta del suelo en pequeñas áreas. limites de propiedad.+ Selección de la resolución espacial: ++ Un metro: Identifica y cartografía rasgos a l escala humana superiores a un metro cuadrado. Detecta pequeñas zonas de estrés en parcelas agrícolas o arboledas. Diferencia entre parcelas cultivadas y. predios. árboles y arbustos. ++ 10 metros: Ubica y cartografía edificios. . campos de deporte. Diferencia distintos tipos de edificios y cosos. Identifica características de muchos de los objetos mencionados. carreteras. carriles de autopista. cercas. Localiza y cartografía ampliaciones de casas. carreteras. granjas y calles laterales. automóviles. cocheras de autobuses. edificios. patios y pequeñas explotaciones agrícolas y ganaderas. bancos. aceras. equipamiento de servicios públicos. tales como tapas de alcantarilla.

complejos deportivos. Sigue eventos regionales como plagas de insectos. . cascos urbanos. Cartografía estructuras geológicas regionales. extensos bosques y explotaciones agrícolas de gran amplitud. Realiza clasificaciones generalizadas de la superficie del terreno. grandes fábricas. 80 metros.++ 20-30 metros: Ubica aeropuertos. sequía y desertificación. barriadas periféricas. centros comerciales. Evalúa la salud vegetativa en una región relativamente extensa. ++ 1 Kílómetro: Valora la salud vegetativa en estados y países enteros.

• Resolución espectral:

Indica el número y anchura
de las bandas espectrales
que puede discriminar el
sensor.

La elección del número,
anchura y localización de
las bandas está
estrechamente relacionado
con el diseño del sensor.

Una imagen producida por
un sistema de
sensoriamiento puede
consistir de una longitud de
onda de banda ancha, unas
pocas bandas anchas, o
varias longitudes de onda
de bandas estrechas.

Por ejemplo, un sensor multiespectral de cuatro bandas mide la energía en cuatro
longitudes de onda diferentes. Hay que tener en cuenta, no obstante, que una
imagen multiespectral se compone casi siempre de tres bandas como mínimo porque
una imagen a color sólo puede crearse adicionando los tres colores fundamentales
(rojo, verde y azul).

+ Selección de la resolución espectral:

++ Aplicaciones Pancromáticas:

Localizan, identifican y miden accidentes superficiales y objetos, principalmente por
su apariencia física, es decir, forma, tamaño, color y orientación.

Identifican y cartografían con precisión la situación de los elementos generados por la
acción del hombre, como edificios, carreteras, veredas, casas, equipamientos de
servicios públicos, infraestructura urbana, aeropuertos y vehículos.

Actualizan las características físicas de los mapas existentes.

Trazan los límites entre tierra y agua.

Identifican y cuantifican el crecimiento y desarrollo urbano.

Permiten generar modelos digitales de elevación de gran exactitud.

Catalogan el uso del suelo.

++ Aplicaciones Multiespectrales:

Distinguen las rocas superficiales y el suelo por su composición y consolidación.

Estiman la profundidad del agua en zonas litorales. a variaciones de la humedad del suelo. como corrientes. Cartografían aspectos del terreno muy sutiles. nieblas o inmersas en constante oscuridad. Localizan iceberg y hielo marino.000 kilómetros cuadrados con precisión cronométrica para observar inmediatamente catástrofes naturales. Catalogan la cubierta terrestre. y poluciones petrolíferas. ++ Aplicaciones de Radar de Apertura Sintética: Captan imágenes en zonas frecuentemente cubiertas por nubes.Delimitan los terrenos pantanosos. cartografían otros estados de la superficie oceánica. actividades agrícolas o forestales o incluso debidos a movimientos sísmicos. olas. . ++ Aplicaciones Aerofotogramétricas: Cartografían rasgos superficiales inferiores a un metro cuadrado r inferiores a 1. como tallas y pliegues y permiten detectar y cartografiar cambios en la superficie terrestre debidos por ejemplo al crecimiento de la vegetación.

.

• Resolución radiométrica: Se refiere a la capacidad del sensor para detectar variaciones en la radianza espectral que recibe. o subdivididos en un número de registrados como valores enteros. En la actualidad las imágenes se presentan en formato digital gracias a una conversión analógico-digital realizada a bordo del satélite. El número de valores que incluye ese rango (número de niveles digitales de la imagen) se identifica con la resolución radiométrica del sensor (rangos continuos de la energía entrante discretizados. . 256 niveles por píxel (0-255).

Usando el modelo aditivo del color. . los valores de brillo en las bandas seleccionadas determinan los valores del rojo. Usando 256 niveles para cada canal de color.Una alta resolución radiométrica es una ventaja El análisis visual de los colores cuando se usa un computador para procesar y desplegados en una imagen analizar los valores numéricos en las bandas de multiespectral puede ser una la imagen multiespectral. verde y azul. un despliegue computacional puede crear unos 16 millones de colores. verde y azul usados para crear el color desplegado. Para cada celda en una imagen multiespectral. herramienta efectiva en su interpretación. Una banda es asignada a cada uno de los tres canales usados por el monitor del computador: rojo. El análisis visual de las imágenes multiespectrales también es beneficiada por altas resoluciones radiométricas ya que una selección de bandas de longitudes de onda pueden ser combinadas para formar un despliegue en color o una impresión. diferentes niveles de estos colores primarios se combinan para formar millones de colores sutilmente diferentes.

aparecen con tintes rojos. mezclando tres bandas del espectro electromagnético. que son denominados secundarios.• El color. los cuales son: azul. se pueden obtener los demás.7 µm. para generar composiciones coloreadas. verde y rojo. El color es una sensación que percibe el ojo. éstos se ven de color azul.4 – 0. Cuando los objetos reflejan en longitudes de onda corta y baja en el resto del espectro electromagnético. Esta región esta formada por los colores primarios. A partir de la mezcla de los colores primarios. que abarca el rango de 0. mientras que los que absorben longitudes de onda corta y reflejan en longitudes de onda larga. Esta propiedad del color es utilizada en la percepción remota. Nuestros ojos captan la parte visible del espectro electromagnético. . cuando la luz incide en un objeto y este la refleja a una determinada longitud de onda.

Azul + Rojo = Magenta. Verde + Rojo = Amarillo. verde y rojo). magenta y amarillo) de los tres genera el negro. por medio de la suma de los tres colores primarios (azul.Dicha mezcla se puede realizar en función de dos procesos: Aditivo: Con este proceso se obtiene cualquier color. Azul + Verde = Cian. el magenta absorbe el verde y el amarillo el azul. por lo que la combinación (cian. . Si se suman los colores da como resultado un color complementario y la suma de los tres da el color blanco. Sustractivo: Este proceso se basa en la absorción de la luz que ejercen los colores complementarios: el cian absorbe la luz roja.

presas. lagos y zonas cubiertas por agua. 1996) las tonalidades más comunes corresponden a los siguientes objetos que se pueden determinar en una imagen: --Rojo-magenta: Corresponde a vegetación rigurosa. Según Tindal (1978) en Chuvieco (“Fundamentos de Teledetección Ambiental”. prados montañosos y hierbas. . el de identificar los distintos objetos que se encuentran en la imagen. ríos. como cultivos de riego. --Marrón: Arbustos en función de su densidad y del tono del suelo. nueves. --Beige-dorado: Prados secos asociados con escaso matorral. --Gris (o azul metálico): Ciudades y áreas pobladas.Este manejo de las bandas tiene como función. --Azul oscuro (negro): Flujos de lava. bosques. --Rosa: Áreas con menos vegetación o cultivos en crecimiento. arenas y depósitos salinos. --Blanco: Áreas con poca vegetación. suelos desnudos.

en áreas con cubiertas nubosas casi constantes como por ejemplo las selvas tropicales. También se denomina intervalo de revisita. incendios.• Resolución Temporal: Es una medida de la frecuencia con la que un satélite es capaz de obtener imágenes de una determinada área. desarrollo de cosechas. etc. . es decir altas resoluciones temporales. aumentan la probabilidad de obtener imágenes satisfactorias. calidad del agua en el caso de contaminaciones. como inundaciones. períodos cortos de visita. Altas resoluciones temporales son importantes en el monitoreo de eventos que cambian en períodos relativamente cortos. Así mismo.

globos. los sensores son instalados en plataformas. Para llevar a cabo la observación del terreno. cometas.4 Sensores Remotos. . Las características de la imagen registrada dependen en gran medida del tipo de sensor utilizado y de la distancia al suelo desde la cual se realiza la adquisición de datos. fijas o móviles: grúas. aviones. Los sensores son instrumentos susceptibles de detectar la señal electromagnética (radiación reflejada o emitida) que les llega de la tierra y la Atmósfera y convertirla en una magnitud física que puede ser tratada y grabada.5. Los sensores pueden convertir la señal electromagnética en un formato análogo (fotografía) o digital (imagen). cohetes o satélites.

esta rebota en el objeto. Son utilizados cuando la La información obtenida procede de la radiación natural es una banda comparación entre la señal emitida y la particular del espectro está debajo del señal reflejada. Los sensores activos son capaces de iluminar un objeto con su propia fuente de radiación.Permiten capturar información confiable de los objetos sin tener contacto directo con ellos en superficies extensas. • Sistemas de Percepción Pasiva. umbral de la señal para ruido (penetran nubes). . Juegan un papel importante en la construcción de planos. de objetos sobre el territorio: • Sistemas de Percepción Activa. R. y miden las características de la señal reflejada. mapas. planificación territorial y estudios urbanos. Un ejemplo de este tipo de teledetección es el Radar. La tendencia es hacia el incremento de su utilización dados el avance tecnológico y su costo razonable. Existen dos opciones básicas usadas para la P. • Sistemas de Percepción Activa: Generan una señal.

Este tipo de sensor suele clasificarse dependiendo del procedimiento que emplean para recibir la radiación procedente de los objetos. .• Sistemas de Percepción Pasiva: Las imágenes creadas por los sistemas de percepción pasiva son de mayor valor en las aplicaciones de Teledetección destinadas a recursos naturales. El primer grupo esta constituido por sensores fotográficos (por ejemplo las cámaras fotográficas). el segundo grupo están los sensores óptico electrónicos (exploradores de barrido y empuje y las cámaras de vidicón) y en el tercer grupo los sensores de antena (radiómetros de microondas). Simplemente reciben. clasifican y encriptan las señales emitidas naturalmente por la reflectancia de los objetos sobre el terreno.

Dentro de ésta categoría cabe una segunda clasificación: + De Barrido (Scanners): Donde un espejo móvil permite explorar una franja del terreno a ambos lados de la traza del satélite. Advanced Very High Resolution Radiometer. La radiancia recibida por éste componente óptico. . Multispectral Scanner y TM. Estos sensores facilitan una representación grafica y además permiten una medición física de la superficie que observan. Los valores numéricos (ND) pueden traducirse. y TIROS-NOAA (AVHRR. conociendo los coeficientes de calibrado del sensor y las condiciones de adquisición. en niveles de reflectividad o temperatura. Thematic Mapper). se dirige a una serie de detectores que la amplifican y la convierten en una señal digital. Los más utilizados han sido los incluidos en los programas LANSAT (MSS. de nuevo.

Las cámaras de video. Poseen una cadena de detectores que cubren todo el campo de visión del sensor. Están incorporados a varios proyectos como en el caso del satélite francés SPOT y del Indio Rohini RS-1. las cuales pueden trabajar en forma pancromática o multibanda. . Las ventajas en cuanto a que la información es digital y que trabaja en distintas bandas del espectro se mantienen para este tipo de sensor.+ De Empuje (Pushbroom): Se elimina el espejo oscilante gracias a disponer de una cadena de detectores que cubre todo el campo de visión del sensor. La tecnología de este tipo de sensor permite mejorar la resolución espacial respecto a los barredores convencionales debido a que se elimina la parte móvil (el espejo). son mayormente utilizadas en estudios de recursos naturales.

Explorador de barrido (MSS de LANDSAT) .

Explorador de empuje. .

los geosincrónicos o geoestacionarios y los heliosincrónicos./ej: los satélites de comunicación y observación meteorológica. ++ Geoestacionarios: Se sitúan sobre la línea ecuatorial en una órbita a 36. . Existen dos tipos de satélites.La trayectoria de un satélite que porta un sensor alrededor de la Tierra se la denomina “órbita”. Observación continua de una misma región. P.000 Km de la Tierra. Permanecen siempre en la vertical de un punto determinado acompañando a la Tierra en su movimiento de rotación. Un satélite geoestacionario realiza una vuelta alrededor de nuestro planeta al mismo tiempo que éste efectúa una rotación completa alrededor de su propio eje.

500 Km de altura. La órbita se diseña de forma que el satélite pasa siempre sobre el mismo punto a la misma hora local. aprovechando el movimiento de rotación terrestre.++ Heliosincrónicos: Se desplazan en órbitas generalmente circulares y polares (el plano de la órbita es paralelo al eje de rotación de la Tierra) de modo que. . puede captar imágenes de diferentes puntos cada vez que pase por el mismo punto de la órbita. Estas órbitas sólo son posibles entre 300 y 1.

• Sensores utilizados para estudios Los satélites de Landsat de la primera ambientales. Landsat puede producir las imágenes de todas las partes de la superficie terrestre sin pedir permisos de los gobiernos y ofrece las imágenes libremente al público a precios uniformes. Hasta 1985 fue operado por la NASA y actualmente está dirigido por la empresa particular EOSAT. generación (Landsat 1. . Landsat suministró la primera base de datos de la Tierra completa con resoluciones espaciales y espectrales adecuadas para varias aplicaciones. Los datos de Landsat están disponibles en formato digital. vidicón (Return Beam Vidicon System). . 2 y 3) fueron lanzados en los años 1972. 1975 y 1978.LANDSAT: Estos satélites fueron equipados con un Antes de 1974 fue llamado ERTS scanner multiespectral (MSS). y con un (Earth Resources Technology Satellite).

Los datos se detectan a los dos lados (este y oeste) del espejo (se reduce el scan- rate). Landsat 5 funcionó hasta Marzo de 1996. . El TM es un cross-track scanner equipado con un espejo que explora y oscila simultáneamente y con 16 detectores alineados para las bandas visibles y las bandas correspondientes al IR reflejado.La segunda generación de Landsat se constituye de 4 satélites. lanzados entre 1982 y en 1999. El TM detecta las bandas espectrales de 1 a 7. Los satélites de la segunda generación están equipados con un Thematic Mapper y con un MSS.9° el sistema puede cubrir una línea de terreno de 185 km de longitud. Landsat 4 ya no funciona. En una altitud del satélite de 705 km con un campo visual angular de 14.

1984 1982 -1996 Memoria de los datos en el satélite Si No Equipado con: Scanner multiespectral (MSS) Si Si Thematic mapper No Si Características de las órbitas y de los sistemas formadores de imágenes de la primera y segunda generación de Landsat .m.Generación Landsat 1.0 % 7. Periodo de operación 1972 . 10:30 a. 2 y 3 Landsat 4 y 5 Altitud 918 km 705 km Orbitas al día 14 14.5 Cantidad de órbitas (paths) 251 233 Ciclo repetidor 18 días 16 días Recubrimiento lateral al ecuador 14.m.6 % Pasa la latitud 40°N a la hora local del sol 9:30 a.

50 .17 mrad Celda básica de resolución Visible e IR reflejado 79 x 79 m2 30 x 30 m2 IR térmico 120 x 120 m2 Características de sistemas formadores de imágenes de Landsat.45 .2.12.5 µm Bandas espectrales 4 7 Recubrimiento del terreno En dirección E-W 185 km 185 km En dirección N-S 185 km 170 km Campo visual instantáneo Visible e IR reflejado 0.35µm IR térmico 10. .5 .087 mrad 0.043 mrad IR térmico 0.10 µm 0. Sistema Scanner Thematic multiespectral mapper Región espectral Visible y IR reflejado 0.1.

coincide con una banda de absorción causada por iones hidroxilos en minerales.55 .Banda Longitud de Características onda en µm 1 0. 3 0. presenta distintos tipos de vegetación en contrastes diferentes. adecuada para la batimetría. Delinea la reflectancia de la vegetación.45 .76 . Adecuada para determinar el contenido en biomasa y para el mapeo de líneas de ribera.0. adecuada para distinguir suelo y vegetación. penetra por nubes delgadas.60 Verde.90 IR reflejado. 4 0. Indica el contenido en agua en suelos y vegetación.12.08 .69 Rojo. 7 2.5 TR térmico.0.63 . importante para distinguir tipos de vegetación.1.0.0.35 IR reflejado. 5 1. Delinea una banda de absorción de clorofila.52 . .75 IR reflejado. Imágenes nocturnas son adecuadas para un mapeo térmico y para estimar el contenido de agua en suelos. 6 10.2.52 Azul-verde. Penetración máxima por agua.4 . 2 0.

Una de las grandes ventajas del sistema SPOT es su capacidad de desalineación de su instrumento de obtención de imágenes principal a ambos lados de la traza en tierra del satélite.06º a -31.. . de +31.06º. el programa Spot ha sido desarrollado por el CNES (Centro Nacional de Estudios Espaciales francés) en colaboración con Bélgica y Suecia. en concreto reduciendo la repetitividad de adquisición (frecuencia temporal o frecuencia de revisita) hasta 2 o 3 días.SPOT: Aprobado en 1978 por Francia. Éste proporciona una flexibilidad de adquisición muy elevada.

400 millones de kilómetros cuadrados. 20 metros en multiespectral (ARV2 de 3 bandas G-B- IrC).5 millones de imágenes. Con una vida útil prevista de 3 años. funcionó durante casi 20 y adquirió 6. lanzado el 26 de septiembre de 1993 (Arianne 40). heliosincrónica y en fase con altitud de 822 km. Spot-3. Órbita casi polar. . Spot-2. circular. Se desplazó hacia una órbita más baja en 2003. que estuvo en funcionamiento hasta noviembre de 1996. cubriendo 23.+ 1ra. lanzado el 22 de enero de 1990 (Arianne 40). canal que cubre el campo visible del espectro electromagnético). generación: Spot 1. lanzado el 22 de febrero de 1986 (Arianne 1). 3: Resolución de las imágenes del instrumento ARV (Alta Resolución Visible) de 10 metros en pancromático (ARV1. 2. Lanzamientos: Spot-1.

Incorpora VEGETATION-2.+ 3ra.0. generación (Spot 5): Resolución de las imágenes del instrumento ARG (Alta Resolución Geométrica) en SuperMode que permite la creación de una imagen con 2. sucesor del VEGETATION-1 que llevaba a bordo el SPOT-4 Lanzamiento: Spot-5 fue lanzado el 3 de mayo de 2002 (Arianne 42P).5 m de resolución a partir de dos imágenes de 5 m adquiridas simultáneamente con un semi- píxel de desfase de 2.0. 10 m en multiespectral (4 bandas V-R-IrC-IrM). 5 m en pancromático (0.5 m en SM- Pan (0. Capacidades de adquisición de pares estereoscópicos mejorados gracias al instrumento ARE (Alta Resolución Estereoscópica).48 . .71 µm).48 .71 µm).

La empresa norteamericana Space Imaging es la propietaria del satélite. IrC). Resolución temporal de 3 a 5 días y un máximo de escena de 11 Km x 11 Km. V. . R. el primero en recoger imágenes con disponibilidad pública de alta resolución con un rango entre 1 y 4 m de resolución espacial (1 metro en pancromático y 4 m en multiespectral de 4 bandas A.IKONOS: Es un satélite comercial. Las imágenes del satélite IKONOS empezaron a ponerse a la venta en Enero de 2000..

Tiene una resolución temporal de 1 .5 Km.2°) y posee una escena máxima de 16.5 días. .R. Utilizando un sensor BGIS 2000 posee un grado de detalle de 0. orbita a 450 Km de altura (heliosincrónica.V.IrC).44 m en multiespectral (4 bandas A..61 m / píxel de resolución en pancromática y 2.5 Km x 16. con inclinación a 97.3.Quickbird: QuickBird es un satélite de alta resolución de propiedad y operado por DigitalGlobe.

incluyendo la interacción superficie-atmósfera. ASTER presenta una orbita heliosincrónica a una distancia de 705 Km.. En 1999 el instrumento se lanzó a bordo del satélite TERRA de la NASA. con un ciclo de repetición de 16 días.ASTER: The Advanced Spaceborne Thermal Emission and Reflection Radiometer es un esfuerzo cooperativo entre la NASA y el Ministerio de Comercio Economía e Industria de Japón METI. El objetivo principal de la misión ASTER era mejorar el entendimiento de los procesos a escala local y regional que ocurren sobre o cerca de la superficie de la tierra y en la atmósfera inferior. un ancho de barrido de 60 Km y una distancia entre orbitas de 172 Km. .

6 bandas en la región espectral del infrarrojo de onda corta (SWIR) con una resolución espacial de 30 metros y 5 bandas en el infrarrojo térmico con una resolución espacial de 90 metros. lo que nos permite realizar modelos digitales de terreno (MDT) por pares estereoscópicos. ASTER también presenta un telescopio con visión hacia atrás que escanea en la región espectral de la banda 3B. SWIR y TIR. VNIR. cada uno de cuales presenta características particulares tales como 3 bandas en la región espectral del visible e infrarrojo cercano (VNIR) con una resolución espacial de 15 metros. .ASTER esta compuesto por 3 subsistemas.

también denominados TIROS.NOAA: La familia de satélites NOAA (National Oceanic and Atmospheric Administration). Los satélites de nueva generación se diseñaron para ofrecer un ciclo de cobertura muy corto (una imagen cada doce horas en latitudes del hemisferio norte).000 Km de lado. temperatura de la superficie del mar. La órbita de estos satélites se sitúa entre 833 y 870 Km cubriendo aproximadamente una área de 3. .. Su misión principal es la medida de la cobertura de nubes. Sus sensores primarios son conocidos con el genérico grupal de Advanced Very High Resolution Radiometer (AVHRR). Desde entonces han sido muchos los satélites lanzados hasta llegar al lanzamiento durante el periodo 1996-2011 de los satélites NOAA-O y el NOAA-K (estudio del tiempo polar. comienza con el lanzamiento entre 1960 y 1965 de 10 satélites. formación de nubes y cálculo del índice de vegetación.

Los gradientes horizontales de temperatura de hasta 0. La obtención de la temperatura de la superficie del mar tiene una precisión de 0. Este sensor escanea la superficie de la tierra en un plano normal a la órbita proporcionando la temperatura vertical diaria a una escala de 40 Km.p.1 Km en el nadir).La secuencia de escaneo empieza cuando el espejo apunta a 80 º O del nadir.048 muestras. También se utiliza para medir el vapor de agua en 3 capas atmosféricas y para la medida total de ozono. El espejo rota 360 º a 6 r. .2 º C pueden ser observados.Este sensor no proporciona una alta resolución espacial (1. Así mismo se está empleando en estudios globales de vegetación y cubierta del suelo a escala continental.6 º C si no hay nubes. El horizonte Oeste está a 69 º desde el nadir y la recogida de información comienza a los 55º con 2. la deforestación de zonas inaccesibles o los incendios forestales de gran magnitud.s Su amplia cobertura y baja resolución le permiten analizar las condiciones de la vegetación en períodos cortos de tiempo y a escala global. aunque sí proporciona una muy alta resolución radiométrica (10 bits por píxel) . lo que le hace idóneo para estudiar fenómenos muy dinámicos como la desertificación.4 Km. + High Resolution Infrared Sounder (HIRS): Se emplea para la medida de la temperatura atmosférica entre la superficie de la Tierra y 50 mb. La resolución espacial es de 20.

ozono ozono absorbe radiación en total atmosférico. Tiene una resolución espacial de longitudes de onda es 109 Km.000 A para determinar los perfiles de ozono.+ Stratospheric Sounding Unit (SSU): Se emplea para la medida de temperatura en altitudes comprendidas entre los 25 y 50 Km y tiene una resolución espacial de 143.600. radiación incidente solar. estratosfera.3 Km. sensible al ozono en la alta estratosfera y la mayor de + Solar Backscatter Ultraviolet Spectrometer (SBUV): las longitudes de onda al ozono en la baja Mide la radiación reflejada en el rango de 1. La más corta de esas aproximadamente. + Microwave Sounding Unit (MSU): Su uso se centra en la medida de la temperatura de la tropósfera. Dado que el 4. Este sensor mide la energía procedente de la tropósfera para construir un perfil de temperatura vertical a una altitud de 20 Km. . la banda ultravioleta. radiación solar y radiación terrestre. su El principio de operación es la medida de la energía concentración puede solar reflejada en la región UV en 12 longitudes de obtenerse por el ratio de onda posicionadas en el borde de la banda de radiación reflejada y la absorción del ozono.

aunque no aumentan la cantidad de información contenida en ella. pero suelen exigir ciclos complejos de computadora así como información meteorológica detallada relativa a las condiciones en que se registró la escena. Consiste en el procesamiento inicial de los datos crudos para corregir las distorsiones radiométricas y geométricas de la imagen y eliminar el ruido. El rango de opciones de que dispone el analista para realces de imagen es virtualmente ilimitado. aunque la mayoría de estas técnicas pueden ubicarse en dos grupos: . Las distorsiones radiométricas obedecen a mecanismos que alteran los valores de brillo de los pixeles y se deben fundamentalmente a interferencias atmosféricas y a efectos asociados a instrumentación. Las correcciones atmosféricas constituyen un problema muy complejo si se quieren aplicar sobre la base de modelos físicos del comportamiento de las radiaciones. precisión y aplicabilidad a un amplio rango de circunstancias. • Realces: Son procedimientos que tienden a mejorar la interpretabilidad visual de una imagen.5 Preprocesamiento de imágenes de sensores remotos. Estos modelos tienen el mérito de su rigor científico.5.

• Estiramiento de contraste: Involucra un cambio de forma del histograma reasignando los valores de los pixeles. A través de una función de transferencia lineal se puede efectuar dicha transformación. difíciles de discriminar con la el brillo de cada píxel compresión inicial.+ Operaciones de punto: El rango de valores iniciales de los pixeles (20 a 127) es expandido hasta obtener el rango máximo de 0 a 255. (estiramiento de contraste y manipulaciones espectrales). Al expandir la escala de grises se logra realzar detalles Modifican independientemente sutiles de la imagen. . + Operaciones locales: Modifican el valor de cada píxel basadas en el valor de los pixeles vecinos (filtrado espacial).

Los filtros digitales son técnicas que se utilizan para corregir las alteraciones radiométricas de una imagen modificando los ND originales de la misma con el objeto de acercarlos a una representación ideal de la realidad. Los filtros corresponden a matrices de coeficientes numéricos que permiten atenuar o acentuar (según su finalidad y estructura) las gradaciones radiométricas presentes en una imagen. .• Filtros.

. etc. .Paso Bajo: Tienden a destacar el componente de homogeneidad de una imagen. Suavizan los contrastes especiales presentes en la imagen y restauran los errores aleatorios que puedan presentarse. Esto implica que el uso de los mismos tendrá un efecto de supresión de todas aquellas características asociadas con altas frecuencias (fronteras.). saltos. ruido. Estos filtros están especialmente indicados para suprimir rangos de frecuencias altos. Enfatizan aquellas áreas donde la frecuencia de cambio es baja.

Existen filtros derivados del análisis de gradientes que permiten remarcar sólo discontinuidades en un sentido determinado (direccionales) o en todos los sentidos simultáneamente (no direccionales).. . remarcando los contornos entre áreas contiguas evidenciando cualquier discontinuidad (eliminación de componentes de baja frecuencia que dan continuidad a la imagen y consiguiente resalte de los bordes y otros detalles afilados).Paso Alto: Procuran aislar los componentes de alta frecuencia en una imagen.

entre otras. .Estadísticos: Son útiles para tareas tales como la reducción del nivel de ruido o extracción de características estructurales. Algunas de las medidas utilizadas son: media. mínimo. máximo.. desviación estándar. moda.

.Filtro de Mediana: Es un filtro de bajo paso basado en la sustitución del valor central de la matriz por la del valor medio de los niveles digitales vecinos. aparte de eliminar ruido de la imagen..De Gradientes: Son operaciones mediante las cuales se resaltan cambios significativos de intensidad a nivel local (detección de bordes). Los píxeles que no son similares en valor a sus vecinos son eliminados. Gx= Componente Gx= 1 0 Gy= 0 1 horizontal. El uso de este filtro. . la característica de píxeles muy diferentes es una indicación de que la imagen posee ruido. . Posee la desventaja de ser muy sensible al ruido por la utilización de pocos píxeles para aproximar al gradiente. también resuelve discontinuidades de una imagen sin destruir la información general. Gy= Componente 0 -1 -1 0 vertical.Filtro de Roberts: Es una matriz de filtrado de 2 x 2.

El ND de un píxel clasificado es. en definitiva. Definición digital de las categorías (fase de entrenamiento). Estas clases pueden describir distintos tipos de cubiertas (variable nominal o categórica . Agrupación de los píxeles de la imagen en una de las categorías previamente definidas (fase de asignación). Comprobación y verificación de los resultados. La clasificación de una imagen digital consiste en categorizar una imagen multibanda. el identificador de la clase o categoría en la que se haya incluido.clasificación de distintos tipos de cubierta vegetal -) o bien intervalos de una misma categoría de interés (variable ordinal .5. 2. 3. .6 Clasificaciones de imágenes de sensores remotos.clasificar distintos niveles de daño producidos por un incendio -). Se distinguen las siguientes fases: 1. Se pasa de tener unos ND continuos medidos por los sensores a una escala nominal o categórica de manera que cada píxel pertenece a una categoría definida previamente.

La similitud entre observaciones se establece en términos de distancias.666%) Clase 3: 2.618 p (21.890 p (12. 1 iteración.905..5 . Sin Clasificar: 8.288% Clase 1: 2. 0.911.904%) Clasificación No Supervisada: K- Means.Clasificación no supervisada: La clasificación no supervisada consiste en agrupar un conjunto de objetos.489 p (19.204%) Clase 2: 1. definidos por variables.249%) Clase 4: 3.273.004.688%) Clase 5: 3. basados en la posesión de características afines y similitud entre sí.777 p (18.747.309 p (19. en clases.

297 p) Verde: Vegetación con algún grado de calidad y conservación (15. 2.. ROI´s: Azul: Agua (5. Dos fases fundamentales bien diferenciadas: 1. (18.886 p) Blanco: Mancha Urbana. otros usos (29. El desarrollo o creación de una o varias regla de decisión (diseño del clasificador).629 p) Amarillo: Cultivos. El proceso en sí de clasificación de nuevas observaciones o rasgos. 949 p) .Clasificación supervisada: La clasificación es supervisada si ya existe un conjunto de observaciones clasificadas en un conjunto de clases dado y se conoce la clase a la que cada observación pertenece.

075% Verde: 5.196% Azul: 0.186% Amarillo:70.990% Blanco: 9.179% Amarillo: 62.811% Verde: 14.896% Azul: 0.687% Blanco: 4.155% .+ Método de Paralelogramo: + Método de Máxima Similitud: Sin Clasificar: 18.825% Sin Clasificar: 13.

es decir que son registradas simultáneamente en varias regiones del espectro electromagnético. es decir basado en la mezcla por adición de dichos primarios. Las imágenes satelitales suelen ser multiespectrales.5. Estas últimas se generan según el modelo de color RGB. Este hace referencia a la composición del color en términos de la intensidad de los colores primarios con los que se forma: el rojo. Es un modelo de color basado en la síntesis aditiva.7 Combinaciones de color. Estas imágenes pueden ser estudiadas individualmente en escalas de grises o en imágenes coloreadas obtenidas a partir de las primeras. el verde y el azul. .

Involucra a las tres bandas visibles y se le asigna a cada una de ellas su verdadero color. pese a utilizar 2 bandas infrarrojas.2.. Además.4. batimetría.RGB 3.RGB 5. etc. plumas de sedimentos. La vegetación aparece en diversos tonos de verde y los suelos en colores marrones o tostados. corrientes.). . resultando una combinación que se aproxima a los colores naturales de la escena.1: Esta combinación suele llamarse “color natural”. . las bandas visibles tienen buena penetración en los cuerpos de agua y esta combinación permite observar detalles en agua poco profundas (turbidez.3: Constituye una “simulación” del color natural.

pudiéndose identificar algunas especies como pinos y eucaliptos.. El azul oscuro a negro se relaciona con agua clara en cursos o cuerpos de agua (partículas en suspensión aparecerán con tonalidades cian).RGB 4. etc. como bosques.3. desde el rojo muy oscuro al rosado pálido corresponden a vegetación Los tonos más oscuros se relacionan con la presencia de vegetación arbórea densa. . Los rosados corresponden a vegetación poco densa como pasturas naturales. montes.2: Esta combinación suele llamarse “falso color infrarrojo” pues los colores resultantes en la imagen son similares a los de las fotografías obtenidas con film infrarrojo color.. Al asignar el rojo a la banda 4 (IrC) resultará que todos los tonos de rojo. Los colores verde a verde azulado corresponden a parcelas aradas o suelos descubiertos con mayor o menor contenido de humedad. seco o áreas rocosas. El celeste corresponde a suelo desnudo. Rojos claros indican cultivos y praderas vigorosas.

1: Esta combinación de bandas es ampliamente utilizada en Geología. Utiliza las tres bandas menos correlacionadas entre sí. más que reflejar. . La banda 1. .3: Al asignarle el color rojo a la banda 4 (infrarroja cercana) esta banda va a tener ciertas similitudes con la combinación RGB 4.2. cubre el segmento en el que la vegetación refleja fuertemente.RGB 7. La banda 7 (6). Generalmente cuanto mayor es la humedad del suelo más oscuro aparecerá éste. en verde.2 .3. en rojo. la energía La banda 2. abarca el segmento en el cual los minerales con óxidos de hierro absorben energía. al dar más peso a la región infrarroja (bandas 4 y 5) se ve realzada la diferencia de humedad en suelos y vegetales. en azul. Sin embargo. cubre el segmento del espectro electromagnético en el que los minerales arcillosos absorben.5.RGB 4..

4.RGB 7.1: Ayuda a diferenciar tipos de rocas.3. Ayuda en la interpretación estructural de los complejos intrusivos asociados a los patrones volcano-tectónicos.. . . . los ríos son negros y con algunas coloraciones azules a celestes.4.RGB 7.RGB 5. Define anomalías de color que generalmente son de color amarillo claro algo verdoso La vegetación es verde oscuro a negro.3: En esta combinación la vegetación aparece en distintos tonos de color verde.2: Permite discriminar los tipos de rocas.