Ministério do Planejamento, Orçamento e Gestão

Instituto Brasileiro de Geografia e Estatística - IBGE
Diretoria de Geociências
Departamento de Recursos Naturais e Estudos Ambientais
Primeira Divisão de Geociências do Nordeste
Introdução ao Processamento
Digital de Imagens
Rio de Janeiro
2000
Manuais Técnicos em Geociências - número 9
Instituto Brasileiro de Geografia e Estatística - IBGE
Av. Franklin Roosevelt, 166 - Centro - 20021-120 - Rio de Janeiro, RJ - Brasil
ISSN 0103-9598 Manuais técnicos em geociências. Divulga os procedimentos metodológicos utiliza-
dos nos estudos e pesquisas de geociências.
ISBN 85-240-0762-1
© IBGE, 2000
Equipe Técnica
Departamento de Recursos Naturais e Estudos Ambientais - Primeira Divisão
de Geociências do Nordeste - DGC
Coordenação
Valdir Francisco Veronese
Colaboradores
Romel Reis
Maria Ivany Cardoso de Lima
Projeto Editorial
Gerência de Editoração - Departamento de Produção - DEPRO/CDDI
Estruturação Textual e Tabular
Carmen Heloísa
Rosinéa Lucena Ervilha
Diagramação Tabular
LGonzaga
Copidesque e Revisão
Iaracy Prazeres Gomes
Anna Maria dos Santos
Cristina Ramos Carlos de Carvalho
José Luís Nicola
Diagramação Tabular, Textual e Ilustrações
LGonzaga
Normalização Bibliográfica e de Glossário
Divisão de Documentação - DIDOC/CDDI
Aparecida Tereza Rodrigues Regueira
Ana Raquel Gomes da Silva
Diva de Assis Moreira
Impressão
Centro de Documentação e Disseminação de Informações - CDDI/IBGE, em 2 000.
Capa
xxxxxxxxxx - Divisão de Criação - DIVIC/CDDI
Introdução ao processamento digital de imagens / IBGE, Primeira
Divisão de Geociências do Nordeste. - Rio de Janeiro : IBGE,
1999.
92 p. - (Manuais técnicos em geociências, ISSN 0103-9598 ; n.9)
ISBN 85-240-0762-1
1. Processamento de imagens - Técnicas digitais. I. IBGE. Primeira
Divisão de Geociências do Nordeste. II. Série.
Divisão de Biblioteca e Acervos Especiais CDU 528.852:681.32
RJ/99-28 CART
Impresso no Brasil / Printed in Brazil
Apresentação
Tradicionalmente, a extração de informações das imagens
de sensoriamento remoto pelas equipes técnicas de geociências
tem sido feita por métodos analógicos. Entretanto, a partir dos
anos 90, constata-se uma utilização crescente do processamento
digital. Esta mudança foi impulsionada pela vertiginosa evolução
ocorrida na indústria da informática, marcada pelo aumento na
capacidade de processamento e redução dos custos dos equipa-
mentos, o que permite hoje o tratamento de imagens em compu-
tadores de mesa. Da mesma forma, um número cada vez maior
de aplicativos dedicados ao processamento digital de imagens
vem sendo disponibilizado no mercado.
Por outro lado, verifica-se um crescimento acelerado na pro-
dução de dados geoespaciais destinados a atender às necessida-
des específicas das várias categorias de usuários. A manipulação
e integração desta multiplicidade de dados, de características e
fontes distintas, para transformá-los em informações relevantes à
sociedade, seria extremamente difícil sem os recursos da infor-
mática, visto que o armazenamento, processamento e transmis-
são dos dados são feitos na forma digital. O processamento digi-
tal de imagens oferece uma gama de técnicas que propiciam a
exploração de detalhes inacessíveis pelos métodos convencio-
nais e permite realçar e destacar aspectos de interesse específi-
co a determinados temas e objetivos.
O processamento digital de imagens e os sistemas de infor-
mações geográficas constituem hoje ferramentas essenciais em
várias áreas do conhecimento. Os profissionais de geociências
não precisam estar permanentemente atentos a estas transfor-
mações no modus operandi, sob pena de perder informações,
rapidez e eficiência. Neste contexto insere-se a elaboração deste Manual, que, de
forma concisa e em nível introdutório, procura descrever os conceitos e técnicas
digitais mais utilizados para a extração de informações das imagens nos vários
ramos das ciências da terra. Entendemos que esta iniciativa vem atender a uma
necessidade e representa uma contribuição efetiva para o aprimoramento dos
métodos de trabalho nos levantamentos de recursos naturais, cartografia e meio
ambiente.
Guido Gelli
Diretor de Geociências
Siglas e Abreviaturas ....................................................... 11
Características das Imagens de Sensoriamento Remoto ....... 13
O Espectro Eletromagnético.............................................. 14
As Janelas Atmosféricas .................................................. 15
A Imagem Digital ............................................................ 16
Resolução das Imagens.................................................... 18
Resolução Espacial ...................................................... 18
Resolução Espectral ..................................................... 18
Resolução Radiométrica ............................................... 19
Resolução Temporal ..................................................... 19
Sistemas Sensores .......................................................... 21
Classificação dos Sensores .............................................. 21
Fonte de Energia ......................................................... 22
Região Espectral ......................................................... 22
Sistemas de Captação dos Dados .................................. 22
Plataformas Orbitais .................................................... 24
Tipos de Órbita ........................................................... 25
Evolução dos Sistemas Sensores ....................................... 25
Das Fotografias Aéreas aos Foguetes ............................. 25
Sensores de Baixa Resolução Espacial ............................ 26
Sensores de Resolução Espacial Intermediária ................. 27
Programas de Radar Orbital .......................................... 30
Programas Espaciais Brasileiros ..................................... 31
Sensores com Alta Resolução Espacial ........................... 32
Sensores de Alta Resolução Espectral ............................ 33
Sumário
6 ______________________________ Introdução ao processamento digital de imagens
Comportamento Espectral dos M ateriais............................. 35
Comportamento Espectral da Vegetação ............................ 35
Comportamento Espectral da Água.................................... 36
Comportamento Espectral dos Solos .................................. 37
Comportamento Espectral das Rochas ............................... 38
Comportamento Espectral de Áreas Construídas.................. 39
Critérios para Seleção das Imagens ................................... 39
M anipulação do Contraste................................................ 41
Histogramas de Imagens .................................................. 41
Contraste e Brilho da Imagem........................................... 42
Realces de Contraste ....................................................... 42
LUT ........................................................................... 43
Realce Linear .............................................................. 43
Realce de Equalização.................................................. 45
Realce Gaussiano ........................................................ 45
Realce de Raiz Quadrada .............................................. 46
Realce Negativo .......................................................... 46
Realce de Infreqüência ................................................. 46
Realce Logarítmico ...................................................... 46
Realce Exponencial ...................................................... 47
Realce Parcial (piecewise stretch) .................................. 47
Limiarização (tresholding) ............................................. 48
F ormação das Cores ........................................................ 49
O Modelo RGB................................................................ 49
Imagem Monocromática/Falsa/Pseudocor ........................... 50
Fatiamento (density slicing) .............................................. 53
Transformação IHS (Intensity, Hue, Saturation) .................... 53
O perações Aritméticas com Imagens ................................. 57
Adição........................................................................... 57
Subtração ...................................................................... 58
Razão Espectral (Ratio) .................................................... 59
Multiplicação .................................................................. 60
F iltragem de Imagens ...................................................... 63
Freqüência Espacial ......................................................... 63
Convolução .................................................................... 64
Filtros de Passa-Baixas (low-pass filters) ............................. 65
Filtro de Média............................................................ 65
Filtro de Média Ponderada ............................................ 65
Filtro de Moda ............................................................ 65
Filtro de Mediana ........................................................ 66
Filtros de Passa-Altas (high-pass filters) .......................... 66
Filtros Laplacianos ....................................................... 67
Características das imagens de sensoriamento remoto _________________________ 7
Filtros Laplacianos + Imagem Original ........................... 67
Filtros Direcionais ........................................................ 68
Subtração dos Componentes de Baixa Freqüência ........... 68
Análise de Principais Componentes ................................... 69
Variância e Covariância de Imagens ................................... 69
Correlação ..................................................................... 69
Gráfico de Dispersão ................................................... 69
Correlação de Imagens................................................. 70
Causas da Existência de Correlação............................... 71
A Transformação por Principais Componentes ..................... 71
Autovetores e Autovalores ................................................ 72
Interpretação de Imagens PCs........................................... 74
Classificação .................................................................. 75
Classificação Supervisionada ............................................ 76
Método da Mínima Distância ........................................ 77
Método do Paralelepípedo ............................................ 77
Método da Máxima Verossimilhança (MAXVER) .............. 78
Classificação Não-Supervisionada (Exploratória) .................. 79
ISODATA .................................................................... 80
Operações Pós-Classificação ............................................ 81
Agregação de Classes .................................................. 81
Destaque de Classe ..................................................... 81
Homogeneização......................................................... 81
Avaliação da Classificação............................................ 81
Correções Geométrica e Radiométrica................................ 83
Correção Radiométrica..................................................... 83
Razão de Canais ............................................................. 83
Estudos Multitemporais .................................................... 84
Compensação pela Dispersão Atmosférica (haze
compensation) ............................................................ 84
Correção Geométrica ....................................................... 85
Correção de Erros Sistemáticos (bulk or
system correction) ....................................................... 85
Correção de Precisão ................................................... 86
Acurácia da correção geométrica ...................................... 89
Referências Bibliográficas................................................. 91
Lista de Quadros
1 Representação dos Formatos de Gravação dos Dados ....... 17
2 Escalas de Trabalho Indicadas Algumas Imagens .............. 18
3 Tipos de Sensores ........................................................ 21
4 Comparação entre os Dois Sistemas de Varredura............. 24
5 Características do AVHRR ............................................. 26
8 ______________________________ Introdução ao processamento digital de imagens
6 Aplicações do Sensor AVHRR ........................................ 26
7 Cronograma dos Satélites LANDSAT ............................... 27
8 Características Orbitais do LANDSAT-5 e dos
Sensores MSS e TM..................................................... 27
9 Características do SPOT................................................ 28
10 Especificações de Satélite IRS-1C ................................. 29
11 Características Espectrais do RESURS-01 ....................... 30
12 CBERS - China-Brazil Earth Resources Satellite ............... 31
13 Características dos SSRs da MECB ............................... 32
14 Sistemas de Alta Resolução ......................................... 33
15 Regiões Espectrais Próprias ao Estudo de
Propriedades dos Solos ............................................... 38
16 Regiões do Espectro Indicadas para os Estudo
das Rochas e dos Minerais .......................................... 39
17 Algumas Aplicações das Bandas do LANDSAT/TM.......... 40
18 Exemplo de Matriz de Correlação.................................. 71
19 Eigenvalues da Imagem de Derbyshire ........................... 73
20 Eigenvectors da Imagem de Derbyshire.......................... 74
21 Matriz de Erro ou de Confusão ..................................... 82
Lista de F iguras
1 - Representação Esquemática da Captação de
Dados por SR ........................................................... 14
2 - Espectro Eletromagnético ............................................ 15
3 - Transmitância Percentual da Atmosfera Terrestre............. 16
4 - Formato da Imagem Digital .......................................... 16
5 - Brilho do Pixel ............................................................ 17
6 - Representação Esquemática dos Dados de Três Bandas ... 17
7 - Instantaneous Field of View......................................... 18
8 - Espectro Óptico ......................................................... 22
9 - Sistema Fotográfico .................................................... 23
10 - Sistemas de Varredura Eletrônica e Mecânica ............... 24
11 - Características do Imageamento do
Thematic Mapper - TM ............................................. 28
12 - (a) Os Sensores SPOT; (b) O Recurso do
Apontamento Lateral ................................................ 29
13 - Assinatura Espectral (Média) da Folha Verde ................ 36
14 - Comportamento Espectral da Água ............................. 36
15 - Reflectância da Água Superficial
e a 20 Metros de Profundidade ................................. 37
16 - Comparação entre as Curvas de
Reflectância da Água, Vegetação Sadia, Solo e Areia. .. 38
17 - Comportamento Espectral das
Feições Urbanas/Suburbanas .................................... 39
18 - Resolução Espectral dos Sensores SPOT e
LANDSAT/TM ......................................................... 40
19 - Histograma de uma Imagem ...................................... 41
Características das imagens de sensoriamento remoto _________________________ 9
20 - Contraste e Brilho de Imagens.................................... 42
21 - Representação Gráfica de uma FTC Linear ................... 43
22 - Realce Linear ........................................................... 44
23 - Realce MinMax ........................................................ 45
24 - Overflow................................................................. 45
25 - Realce de Equalização............................................... 46
26 - Realce Logarítmico ................................................... 47
27 - Realce Exponencial ................................................... 47
28 - Realce Parcial .......................................................... 48
29 - Limiarização ............................................................ 48
30 - Cubo de Cores ......................................................... 50
31 - Formação da Composição Colorida (RGB) .................... 50
32 - Formação das Cores ................................................. 51
33 - LUT para Display Monocromático e Pseudocor ............. 52
34 - Representação Gráfica do Fatiamento ......................... 53
35 - Imagem Fatiada........................................................ 54
36 - Modelo do Hexacone ................................................ 54
37 - Transformação IHS ................................................... 54
38 - Fusão de três Bandas de Imagem TM com SPOT .......... 55
39 - Histograma de uma Imagem de Saída de Subtração ...... 59
40 - Redução do Efeito da Topografia................................. 60
41 - Linhas de Mesma Razão ............................................ 61
42 - Perda de Informação na Razão de Canais ..................... 61
43 - Curvas de Freqüência Espacial ................................... 64
44 - Convolução ............................................................. 65
45 - Filtro de Média ......................................................... 65
46 - Efeitos do Filtro Passa-Baixas ..................................... 66
47 - Filtro de Média Ponderada ......................................... 66
48 - Exemplo de Aplicação de Filtro de Moda ..................... 66
49 - Exemplo de Aplicação de Filtro de Mediana ................. 67
50 - Exemplos de Operadores de Laplace ........................... 67
51 - Efeitos do Filtro de Passa-Altas ................................... 67
52 - Filtros de Sobel ........................................................ 68
53 - Filtros de Prewitt ...................................................... 68
54 - Gráfico de Dispersão de Duas
Variáveis Altamente Correlacionadas .......................... 70
55 - Gráfico de Dispersão de Duas
Variáveis com Baixa Correlação ................................. 70
56 - Imagens Correlacionadas ........................................... 70
57 - Parâmetros do Elipsóide de Distribuição....................... 72
58 - Determinação dos Eixos das PCs ................................ 72
59 - Rotação dos Eixos das PCs ........................................ 73
60 - Imagem Classificada ................................................. 75
61 - Assinatura Espectral ................................................. 76
62 - Modelo da Classificação Supervisionada...................... 77
63 - Técnicas de Classificação Supervisionada ................... 78
64 - Critérios para Classificacão pela Técnica ML ................ 79
10 ______________________________ Introdução ao processamento digital de imagens
65 - Isodata (Iteração I) .................................................... 80
66 - Isodata (Iteração II) ................................................... 80
67 - Isodata (Iteração III) .................................................. 81
68 - Homogeneização por Filtro de Moda ........................... 81
69 - Componentes do Sinal Recebido pelo Sensor ............... 84
70 - Gráfico de Regressão ................................................ 85
71 - Efeito da Rotação da Terra ......................................... 85
72 - Transformação da Imagem Bruta
para a Imagem Corrigida ........................................... 87
73 - Reamostragem (Vizinho mais Próximo) ........................ 88
74 - Reamostragem (Interpolação Bilinear) .......................... 88
Siglas e
Abreviaturas
AEB - Agência Espacial Brasileira
APC - Análise de Principais Componentes
AVHRR - Advanced Very High Resolution Radiometer
BPI - Bits Per Inch
BPS - Bits Per Second
CBERS - China-Brazil Earth Resources Satellite
DN - Digital Number
EM - eletromagnético
ERS - European Remote Sensing Satellite
F TC - Função de Transferência de Contraste
GCP - ground control point
GPS - Global Positioning System
IF O V - Instantaneous Field of View
IHS - Intensity-Hue-Saturation
INPE - Instituto Nacional de Pesquisas Espaciais
IRS - Indian Remote Sensing
IV - infravermelho
ISO DATA - Iterative Self-Organizing Data Analysis Techniques
JERS - Japan Earth Resources Satellite
LUT - Look-up Table
M AXVER - Máxima Verossimilhança
M ECB - Missão Espacial Completa Brasileira
M L - Maximum Likelihood
M SS - Mutispectral Scanner
NASA - National Aeronautics and Space Administration (Esta-
dos Unidos)
NC - Nível de Cinza
NDVI - Normalized Difference Vegetation Index
NO O A - National Ocean and Atmosphere Administration (Esta-
dos Unidos)
PAN - Pancromático
PC - Principal Component/Componente Principal
PDI - Processamento Digital de Imagens
RBV - Return Beam Vidicon
REM - Radiação Eletromagnética
RGB - Red-Green-Blue
SIG - Sistema de Informações Geográficas
SLAR - Side Looking Airborne Radar
SPO T - Système Probatoire d’Obsérvation de la Terre
SR - Sensoriamento Remoto
TIRO S - Television and Infrared Observation Satellite
TM - Thematic Mapper
UV - ultravioleta
WF I - Imageador de Visada Larga
Sensoriamento Remoto - SR - consiste na medição ou aqui-
sição de dados sobre um objeto ou cena a distância ou, mais
especificamente, obtenção de informações sem entrar em conta-
to direto com a área ou fenômeno sob investigação.
Um dos principais objetivos do SR é a aquisição de informa-
ções sobre a superfície da terra para mapeamento e avaliação de
recursos terrestres e monitoramento ambiental. Todos os materi-
ais (naturais ou artificiais) da superfície da terra, com temperatu-
ra superior a zero absoluto (0° K), podem emitir, refletir, transmi-
tir ou absorver seletivamente radiação eletromagnética - REM. A
energia eletromagnética - EM - mais familiar e mais importante
em SR é a energia solar.
Em sensoriamento remoto o fluxo radiante que deixa o obje-
to em direção ao sensor é denominado radiância do alvo. O fluxo
de energia EM ao incidir sobre um objeto, sofre interações com o
material que o compõe podendo ser parcialmente refletido, ab-
sorvido ou transmitido pelo objeto. A reflectância espectral de
um objeto é dada pela razão entre a energia EM refletida pela
energia incidente na superfície do mesmo.
A discriminação dos materiais por SR é feita com base no
registro, na forma de imagens, da REM refletida ou emitida pelos
alvos e captada por Sistemas Sensores (ou simplesmente senso-
res). O processo envolve:
a) existência de uma fonte de emissão de REM; e
b) captação de parte desta energia por algum tipo de sensor
após incidir sobre o alvo (Figura 1).
Características das
imagens de
sensoriamento remoto
14 ______________________________ Introdução ao processamento digital de imagens
O Espectro eletromagnético
O espectro eletromagnético pode ser ordenado em função do seu comprimento
de onda e sua freqüência. A Figura 2 ilustra as principais regiões do espectro EM, com
seus respectivos intervalos de comprimento de onda. As unidades utilizadas são:
milímetro (mm): 1mm = 10
-3
m;
micrômetro (µm): 1µm = 10
-3
mm;
nanômetro (nm): 1nm = 10
-3
µm; e
Angstron (Å): 1Å = 10
-1
nm.
O sol emite radiação no intervalo de 0,28 a 4 micrômetros, o qual é denominado
de espectro solar. Notar que o intervalo no qual o olho humano tem sensibilidade
(visível) corresponde a uma faixa relativamente estreita do espectro EM (0,39-0,77
µm), compreendida dentro do espectro solar. Além do visível, o espectro solar
abrange parte do ultravioleta - UV - e parte do infravermelho (IV).
A maior parte dos sensores de recursos terrestres operam nas seguintes
regiões do espectro: visível, infravermelho e microondas.
A faixa da luz visível pode ser subdividida em:
violeta : 0,390 a 0,455 µm;
azul : 0,455 a 0,492 µm;
verde : 0,492 a 0,577 µm;
amarelo : 0,577 a 0,597 µm;
laranja : 0,597 a 0,622 µm; e
vermelho : 0,622 a 0,770 µm.
Fonte
Sensor
Alvo
Figura 1 - Representação esquemática da captação de dados por SR
Características das Imagens de Sensoriamento Remoto ________________________ 15
A faixa do infravermelho (IV) costuma ser dividida em:
IV próximo (Very Near Infra-red) : 0,77 a 1,3 µm;
IV médio (Short Wave Infra-red) : 1,3 a 3,0 µm;
IV termal (Thermal Infra-red) : 7 a 15 µm; e
IV distante (Far Infra-red) : 15 a 1000 µm.
A emissão de ondas termais pela superfície terrestre é mais acentuada no
intervalo de 7µm a 15 µm , atingindo o seu máximo em 9,7 µm. A energia termal
é derivada das seguintes fontes:
a) fluxo de calor radiogênico do interior da terra;
b) aquecimento da superfície pelo sol; e
c) atividades humanas.
São denominadas de microondas as radiações EM produzidas por sistemas
eletrônicos no intervalo de 1 mm a 1 metro.
As Janelas atmosféricas
Antes de atingir o sensor instalado no satélite, a energia solar deve passar pela
atmosfera terrestre duas vezes, uma no sentindo sol-superfície da terra e outra no
sentido superfície da terra-satélite. A atmosfera contém vários gases (vapor de água,
ozônio e dióxido de carbono) que interagem com a REM produzindo a absorção da
energia em algumas faixas do espectro. A transmitância da atmosfera, dada pela
razão entre a REM que passa pelo total de energia incidente, varia com o compri-
mento de onda.
Raios gama
Raios X
Ultravioleta
Infravermelho
Microondas
Rádio
1 A
o
10 nm
1 m
1 mm
1 m
0,3 m
0,4 m
0,5 m
0,6 m
0,7 m
1,3 m
4,0 m
15 m
1 mm
Ultravioleta
Azul
Verde
Vermelho
IV Próximo
IV Médio
IV Termal
IV Distante
Visível
Espectro
Solar
Figura 2 - Espectro eletromagnético
16 ______________________________ Introdução ao processamento digital de imagens
A Figura 3 mostra que aproximadamente 50% do espectro EM não se presta
ao SR orbital, já que a REM não consegue penetrar a atmosfera nestes intervalos.
As faixas do espectro eletromagnético que permitem a passagem total ou parcial
da REM são chamadas de janelas atmosféricas.
A Imagem digital
A imagem digital (ou
imagem discreta) é cons-
tituída por um arranjo de
elementos (dígitos) sob a
forma de malha ou grade
regular. As unidades ou
células desta grade têm
sua localização definida
por um sistema de coor-
denadas “x” e “y”, repre-
sentadas por colunas e li-
nhas, respectivamente.
Por convenção, a origem
da imagem é sempre no
canto superior esquerdo.
100
80
60
40
20
0
100
80
60
40
20
0
UV Visível IV PR IV Médio IV Termal
Microondas IV Distante
IV Dist.
0,3 0,4 0,77 1,3 3,0
15
Comprimento de Onda ( m)
Comprimento de Onda ( m)
m
T
r
a
n
s
m
i
t
â
n
c
i
a
T
r
a
n
s
m
i
t
â
n
c
i
a
Figura 3 - percentual da atmosfera terrestre Transmitância
Modificado de Goetz & Roan, 1981.
Coordenada
Superior
Esquerda
Coordenada
Inferior
Direita
Colunas
L
i
n
h
a
s
1,1 2,1 3,1
1,2 2,2 3,2
Figura 4 - Formato da imagem digital
Características das Imagens de Sensoriamento Remoto ________________________ 17
255
255
255
255
255
255
255
255
255
255
255
255
255
255
0
0
255
255
255
255
0
0
255
255
255
255
0
0
255
255
255
255
0
0
255
255
255
255
255
255
255
255
255
255
255
255
255
255
a b
Figura 5 - Brilho do pixel
(a) imagem hipotética composta pelos NCs mínimo e máximo; e
(b) tonalidades preto e branco correspondentes.
Na imagem, o menor elemento da grade é chamado de pixel (contração de
picture element). O pixel representa uma área da superfície da terra. A cada pixel
está associado um valor numérico que indica a intensidade da radiação eletromag-
nética da área da superfície da terra correspondente ao pixel. Exemplo: intensida-
de de luz refletida ou calor emitido. Esta intensidade, denominada de nível de cinza
- NC - ou digital number - DN - ou pixel value - PV - , é representada por tonalidades de
cinza que variam do preto (nível mínimo) ao branco (nível máximo), sendo também
referida como o brilho do pixel (Figura 5).
A imagem digital é, portanto, uma função bidimensional da intensidade de
energia EM refletida ou emitida pela área imageada, representada por uma matriz
f(x,y), onde os valores de f são resultantes da intensidade (brilho) dos materiais da
área correspondente ao pixel de coordenada (x,y).
Denomina-se Proces-
samento Digital de Imagens
- PDI - ao conjunto de téc-
nicas para a manipulação de
imagens digitais no sentido
de facilitar a extração de in-
formações. O PDI tem ca-
pacidade para processar
tanto dados de imagem mo-
nocromática, ou seja, aque-
la que representa as feições
em uma única faixa espec-
tral, quanto de imagem mul-
tiespectral, que é caracteri-
zada pela representação das
feições em várias faixas do
espectro, denominados de
canais ou bandas.
As imagens são gra-
vadas em várias mídias (fi-
tas magnéticas, CD-ROM e
disco do computador). Ge-
ralmente os dados das vá-
rias bandas são organizados
em um dos formatos repre-
sentados no Quadro 1, re-
ferente à Figura 6.
C C C C
c c c c
B B B B
b b b b
A A A A
a a a a
banda C
banda B
banda A
Linha 1
Linha 2
Linha 1
Linha 2
Linha 1
Linha 2
Figura 6 - Representação esquemática dos dados de três bandas
Quadro 1 - Representação dos formatos de gravação dos dados
BIP (Band Interleaved by Pixel)
BIL (Band Interleaved by Line)
BSQ (Band Sequential)
linha 1
ABCABCABCABC
linha 1
AAAABBBBCCCC
linha 2
abcabcabcabc
linha 2
aaaabbbbcccc
banda 1
AAAAaaaa
banda 2
BBBBbbbb
banda 3
CCCCcccc
18 ______________________________ Introdução ao processamento digital de imagens
Resolução das imagens
Resolução espacial
Cada sensor é projetado para fornecer dados a um determinado nível de
detalhe espacial. Quanto menor o objeto possível de ser identificado, maior a
resolução espacial. A resolução espacial pode ser definida como a habilidade que
um sensor possui de distinguir objetos que são próximos espacialmente.
A referência mais usada para a resolução espacial, é o tamanho do pixel. Em
geral, só objetos maiores do que a área do pixel podem ser identificados, embora
isso também dependa da reflectância e contraste entre os objetos próximos. O
tamanho do pixel é definido pelo IFOV
- instantaneous field of view - do sen-
sor, que é a área do terreno “vista”
pelo sensor em um dado instante. O
IFOV nominal é medido pelo ângulo do
sistema ótico ou pela distância equi-
valente no terreno.
Um dos fatores mais importan-
tes para a escolha da imagem mais
adequada a um projeto de levantamen-
to de recursos terrestres é a resolução
espacial. O Quadro 2 relaciona algu-
mas imagens disponíveis no mercado,
a respectiva resolução espacial, e as
escalas de trabalho para as quais seriam
mais indicadas.
Resolução espectral
A capacidade de discriminação dos materiais da superfície da terra por SR
fundamenta-se no comportamento dos mesmos ao longo do espectro eletromag-
nético. Uma premissa fundamental em SR é a possibilidade de discriminar materi-
ais pela sua resposta espectral característica em diferentes faixas de comprimento
de onda. Diferentes materiais podem ter respostas espectrais semelhantes em um
determinado intervalo de comprimento de onda e respostas distintas em outra
faixa do espectro. Portanto, quanto maior o número de canais espectrais maior a
Quadro 2 - Escalas de trabalho indicadas por algumas imagens
Sensor
Resolução espacial Escala
NOOA/AVHRR 1 km
RESURS-01
LANDSAT/MSS
LANDSAT/TM
SPOT MULTIESP
SPOT PANCROMÁTICO
160 m
80 m
30 m
20 m
10 m
< 1 000 000
1:500 000 a 1:1 000 000
1:250 000 a 1:500 000
1:100 000 a 1:250 000
1:50 000 a 1:100 000
1:25 000 a 1:50 000
Detector
Ótica
IFOV
Superfície
da Terra
Figura 7 - Instantaneous field of view
Características das Imagens de Sensoriamento Remoto ________________________ 19
capacidade discriminatória. A resolução espectral tem a ver com o número e a
“finura” dos canais espectrais, e é definida como a habilidade de separar coisas
espectralmente semelhantes.
Resolução radiométrica
Os NCs dos pixels são representados por números inteiros que se enquadram
dentro de um determinado intervalo. Quanto maior o intervalo entre os NCs máxi-
mo e mínimo, maior a resolução radiométrica. A resolução radiométrica refere-se,
portanto, aos níveis digitais, representados por níveis de cinza possíveis numa
imagem e é expressa pelo número de dígitos binários (bits) necessários para arma-
zenar o valor máximo de NC dos pixels. Por exemplo, para armazenar 64 níveis são
necessários 6 bits (2
6
=64); a resolução de 8 bits (1 byte) permite representar 256
níveis (2
8
=256).
A resolução radiométrica implica diretamente no tamanho dos arquivos de
imagem. Para imagens com resolução de 8 bits, é necessário um byte para cada
pixel. Uma cena inteira do satélite LANDSAT é formada por aproximadamente
41 000 000 pixels (6 200 linhas por 6 600 colunas), resultando um arquivo de
aproximadamente 41 Mb.
Resolução temporal
Refere-se à freqüência com que o sensor imageia uma determinada área. É
também referida como periodicidade ou repetitividade. A resolução temporal do
LANDSAT/TM é de 16 dias, enquanto a resolução temporal do SPOT é de 26 dias.
A repetitividade é geralmente considerada em relação à posição de nadir, ou
seja, a tomada da cena verticalmente abaixo do sensor. Os sensores com capaci-
dade de imageamento lateral, formando um certo ângulo com a vertical, portanto,
fora da posição de nadir, apresentam a possibilidade de repetir o imageamento de
uma certa área em um tempo menor do que em posição de nadir. Esta propriedade
do sensor é referida como capacidade de revisita.
Classificação dos sensores
Usualmente os dados de sensoriamento remoto referem-
se a dados da superfície da terra coletados por sistemas sen-
sores em satélites ou aviões. O sensor pode ser definido como
um equipamento capaz de transformar alguma forma de ener-
gia em sinal que possa ser convertido em informação sobre o
objeto sensoriado. No caso específico do SR a energia utiliza-
da é a radiação eletromagnética.
Os tipos de sensores podem ser classificados de acordo com:
a) a fonte de energia;
b) a região do espectro em que operam; e
c) o tipo de transformação sofrida pela radiação detectada.
Sistemas sensores
Quadro 3 - Tipos de sensores
Critérios de classificação Sensor
Fonte de energia
Passivos
Ativos
Região espectral
ópticos
refletivos (0,38 - 3 m)
termais (7 - 15 m)

microondas (1 mm a 1 m)
Sistema de captação
dos dados
fotográficos
eletroópticos
não-imageadores
22 ______________________________ Introdução ao processamento digital de imagens
Fonte de energia
Sensor passivo é aquele que depende de uma fonte de radiação externa para
poder operar. Enquadram-se nesta classificação todos os sensores que captam a
radiação solar. Os sensores ativos são os que produzem sua própria radiação.
Enquadram-se nesta categoria os sensores à base de radar.
Região espectral
Quanto à região espectral os sensores são classificados como ó pticos ou de
microondas.
Espectro ó ptico refere-se ao intervalo de 0,38 a 15 µm, no qual as radiações
podem ser coletadas por sistemas ópticos. O sensoriamento remoto ó ptico é aque-
le relacionado com duas categorias de radiação da superfície da terra: (a) a que
incide nela e é absorvida ou refletida; e (b) a que é emitida por ela. Considera-se
fluxo solar refletido a
radiação no intervalo de
0,38 µm a 3 µm e flu-
xo termal para os com-
primentos de onda en-
tre 7 e 15 µm (Figura
8). Com base nestas
características os sen-
sores ópticos são clas-
sificados como refleti-
vos ou termais.
Os Sistemas de
M icroondas são senso-
res ativos à base de
ondas de radar que
operam na faixa das mi-
croondas. Possuem a
importante vantagem
de não serem afetados
pela cobertura de nu-
vens e pelas condições atmosféricas, sendo por isso de fundamental importância
em SR de recursos naturais, principalmente nas regiões tropicais. São sensores
ativos que podem operar 24 horas por dia.
Sistemas de captação dos dados
Sistemas fotográficos
São câmeras fotográficas que possuem dispositivos para sincronizar o
movimento do filme com o deslocamento do avião.
Os sensores fotográficos tiveram uma papel fundamental no desenvolvi-
mento do sensoriamento remoto já que as fotografias aéreas tomadas através
de sobrevôos especiais foram as primeiras e, até recentemente, as ferramentas
Espectro óptico
Refletivo
Termal ou
emissivo
visível
IV
próximo
IV médio IV distante
0,3 0,38 0,72 1,3 3,0 7,0 15,0
Comprimento de onda ( m)
Figura 8 - Espectro óptico
Fonte: Swain e Davis, 1978.
Sistemas Sensores __________________________________________________________ 23
mais utilizadas para os levantamentos cartográfi-
cos e de recursos naturais e para o planejamento
urbano e regional.
Entretanto, o advento de sensores orbitais
com alta resolução espacial e espectral tende a
mudar este quadro. Os sistemas fotográficos atu-
am apenas numa parte restrita do espectro EM,
entre o ultravioleta e o infravermelho próximo e
não são utilizados nos sensores orbitais. Estes pos-
suem uma repetitividade de imageamento, enquan-
to as fotografias aéreas necessitam de programas
especiais de sobrevôo. Além disso, as fotografias
aéreas necessitam de mais manuseio para corrigir
os deslocamentos off-nadir e os erros devidos à
instabilidade do avião.
Sistemas eletroó pticos
Nestes os dados são registrados na forma de sinal elétrico. Possuem dois
componentes básicos: o sistema óptico e o detector. O sistema óptico tem a
função de focalizar a energia proveniente da cena sobre o detector. A energia
recebida pelo detector é então transformada em sinal elétrico, que por sua vez é
processado, transformado em valor digital e disposto numa matriz de colunas e
linhas.
Existem três tipos de imageadores eletroópticos: sistema de quadro, de var-
redura mecânica e de varredura eletrônica.
Sistema de quadro (Frame System)
A imagem da cena inteira é coletada de forma instantânea. Os sensores de
quadro são também conhecidos como vidicons e tiveram origem a partir de siste-
mas de televisão. A imagem é formada por tubo fotocondutivo (tubos de raios
catódicos) que é varrida por um feixe de elétrons e transformada em um conjunto
de sinais elétricos. Exemplo: o RBV -Return Beam Vidicon- do Landsat-1,2 e 3.
Sistema de varredura mecânica
(Eletromechanical Scanner)
Sistema que utiliza um espelho de varredura que oscila perpendicularmente
ao deslocamento da plataforma, transmitindo a reflectância dos materiais para o
sistema óptico e o detector. Os sinais são registrados linha a linha para formar a
imagem (Figura 10.B). Exemplo: MSS e TM do LANDSAT.
Sistema de varredura eletrô nica (Pushbroom Scanner)
Utiliza um arranjo linear de detectores amplificados por lente grande-an-
gular, o qual cobre toda a seção perpendicular à faixa imageada. (Figura 10.A)
O arranjo de detectores é organizado de modo que haja tantos detectores quanto
forem os elementos da linha, de modo que a reflectância de cada pixel é regis-
filme
obturador
Sistema de
lentes e
diafragma
objetiva
filtro
Figura 9 - Sistema fotográfico
24 ______________________________ Introdução ao processamento digital de imagens
trada por um detector. Desta forma, os dados de cada linha são captados
simultaneamente pelo conjunto de detectores e a imagem é formada através
do processo de varredura causado pelo deslocamento da plataforma. Este sis-
tema é utilizado pelo SPOT.
Sistemas não-imageadores
São os aparelhos que detectam a radiação na forma pontual e não tem capa-
cidade para formar imagens. Fazem parte desta categoria os radiômetros e espec-
troradiômetros
Plataformas orbitais
Os sensores são instalados em plataformas orbitais projetadas para finalida-
des específicas. As principais são:
•de observação da Terra;
•meteorológicas;
•de uso militar;
•de telecomunicação;e
•de posicionamento geodésico (GPS).
faixa
imageada
detector
sistema óptico
A - Varredura eletrônica B - Varredura mecânica
faixa
imageada
espelho lentes
detector
Figura 10 - Sistemas de varredura eletrônica e mecânica
Modificado de Mather, 1987.
Quadro 4 - Comparação entre os dois sistemas de varreduras
Varredura eletrônica Varredura mecânica
- menor e mais leve, requer menos
potência para operar
- não necesita de espelho móvel e
fornece dados com melhor fidelidade
geométrica
- melhor desempenho sinal-ruído
- capacidade de operar nas regiões além
do infravermelho próximo
Sistemas Sensores __________________________________________________________ 25
Tipos de orbita
• •• ••geoestacionária - mantém uma posição fixa em relação a um ponto na
superfície da terra.
• •• ••polar - circular de direção norte-sul, formando ângulo próximo de 90º com
a linha do equador.
• •• ••sincronizada com o Sol ou Sol-síncrona - é uma órbita quase-polar que
mantém um ângulo constante entre o Sol, a Terra e o satélite, o que garante
condições semelhantes de iluminação nas áreas de mesma latitude. Cruzam sem-
pre o equador no mesmo horário solar.
Evolução dos sistemas sensores
Das fotografias aéreas aos foguetes
Atribui-se a Wilbur Wright a primeira utilização de fotografias aéreas, em
1909. Em 1930, com o aperfeiçoamento dos processos de revelação e copiagem,
os Estados Unidos, Alemanha e Canadá realizaram as primeiras coberturas siste-
máticas completas de seus territórios.
Durante a 2
a
Guerra Mundial houve um desenvolvimento expressivo das téc-
nicas de sensoriamento remoto. As fotografias aéreas foram aperfeiçoadas, surgi-
ram a fotografia colorida e as películas infravermelhas (usadas na detecção de
camuflagem) e começaram-se a utilizar sensores à base de radar. Neste período
foram também desenvolvidos foguetes com propósitos bélicos.
O período da Guerra Fria foi marcado pela corrida espacial. Os foguetes
foram utilizados por especialistas russos e americanos, como plataformas para
instrumentos científicos, para sondagem de camadas superiores da atmosfera.
Este foi o início dos programas espaciais de pesquisa. Os avanços no desenvolvi-
mento de foguetes permitiu que eles pudessem ser utilizados para colocar satéli-
tes artificiais em órbita, a centenas de quilômetros da terra. O primeiro satélite
artificial - Sputnik 1 - foi lançado pela URSS, em 1957.
Em 1954, foram desenvolvidos sistemas de radares imageadores (Forward-
Looking Radar). Em 1961, foram fabricados os primeiros radares de visada
lateral (SLAR).
O lançamento do primeiro satélite meteorológico (TIRO S), em 1960, marcou
o início das observações orbitais sistemáticas da Terra. Este satélite usava um
sistema de câmara de televisão de resolução relativamente baixa. O último satélite
da série, o TIROS-10, foi lançado em 1965.
Até 1966, o desenvolvimento de aparelhos de SR se deu principalmente no
âmbito militar. Mas neste ano, um imageador infravermelho termal foi criado com
características que escapou da classificação de “segurança” pelo Ministério da
Defesa dos Estados Unidos. A partir daí, começaram os serviços comerciais de
sensoriamento remoto.
De 1960 a 1970, foram obtidas fotografias orbitais a partir de três programas
espaciais da NASA: os programas M ercury, Gemini e Apollo. Estas missões serviram
para demonstrar a viabilidade do imageamento orbital e necessidade de métodos
multiespectrais, tendo servido de base para o projeto ERTS - Earth Resources Techno-
logy Satellite Program (mais tarde denominado LANDSAT).
26 ______________________________ Introdução ao processamento digital de imagens
Em 1970, realizou-se recobrimento sistemático de todo o território brasileiro com
imagens de radar. As imagens foram obtidas através de sobrevôos, com o sistema SLAR -
Side Looking Airborne Radar - a partir dos quais foram compostos mosaicos na
escala 1:250 000. Estas imagens serviram de base para o mapeamento sistemático
(1:1 000 000) de cartografia, geologia, geomorfologia, pedologia e vegetação de todo o
Território Nacional realizados pelo PRO JETO RADAM BRASIL.
Sensores de baixa resolução espacial
NO AA/AVHRR
Os satélites para observações meteorológicas da série TIRO S - Television
and Infra-red Observation Satellite - foram lançados entre 1960 e 1965. A partir
de 1970, os sucessores passaram a chamar-se NO AA - National Ocean and At-
mosphere Administration -, entidade que assumiu a administração do Programa.
As principais aplicações são na meteorologia, temperatura da superfície do mar,
coberturas de gelo e neve e estudos das condições das vegetação global. Os
programas TIROS e NOAA foram beneficiados pelas pesquisas desenvolvidas pelo
programa NIMBUS, uma série de oito plataformas lançadas entre 1964 e 1978
para pesquisa de instrumentos espaciais usados em satélites.
O sensor AVHRR - Advanced Very High Resolution Radiometer -, a bordo do
NOAA, pode ser utilizado para estudos de recursos naturais de escala continental,
especialmente para o monitoramento de desmatamento e queimadas na Amazônia.
Nos satélites NOOA mais recentes outros sensores foram introduzidos para
monitorar a distribuição de ozônio na atmosfera.
Quadro 5 - Características do AVHRR
órbita quase-polar/sol sincrona
altitude 833-870 km
resolução espacial 1.1 km (nadir)
resolução radiométrica 10 bits (1 024 níveis)
abertura angular
+/- 56º
faixa imageada 3 000 km
ciclo de repetitividade 12 horas
Quadro 6 - Aplicações do Sensor AVHRR
Canal
Faixa espectral Função
1
2
3
4
5
0,58 - 0,68
0,725 - 1,10
3,53 - 3,93
10,3 - 11,3
11,5 - 12,5
mapeamento diurno de nuvens
água, vegetação e agricultura
nuvens, temperatura da superfície do mar,
queimadas e atividades vulcânicas
mapeamento (diurno e noturno) de nuvens,
temperatura do mar, umidade do solo e
atividades vulcânicas
temperatura do mar e umidade do solo
Sistemas Sensores __________________________________________________________ 27
Sensores de resolução espacial intermediária
LANDSAT
O LANDSAT da NASA foi o pioneiro entre os programas de SR para recursos
naturais. Os sensores são o MSS - Multiespectral Scanner -, com 80 metros de
resolução espacial e, a partir do LANDSAT-4, o TM - Thematic Mapper -, com 30
metros de resolução espacial. O sensor RBV (Return Beam Vidicon) foi utilizado
apenas nos três primeiros satélites da série.
O LANDSAT-4 apresentou problemas com o sistema de suprimento de ener-
gia, o que apressou o lançamento do LANDSAT-5. Este foi programado para um
tempo de vida de 3,5 anos, mas está operando até hoje (1998).
O LANDSAT-6, lançado em 1993, não conseguiu atingir sua órbita e caiu no
mar. O LANDSAT-7 está programado para o ano 2000.
Quadro 7 - Cronograma dos satélites LANDSAT
Satélite Lançamento Fim de operação Sensor
LANDSAT - 1
LANDSAT - 2
LANDSAT - 3
LANDSAT - 5
LANDSAT - 4
Jul./1972
Jan./1975
Mar./1978
Jul./1982
Mar./1984
Jan./1978
Jul./1983
Set./1983
em órbita
operando
MSS/RBV
MSS/RBV
MSS/RBV
MSS/TM
MSS/TM
Quadro 8 - Características orbitais do LANDSAT-5
e dos sensores MSS e TM
MSS TM
Características orbitais do LANDSAT 5
Canal
4
5
6
7
Resolução espacial
Resolução rad.
Canal
1
2
3
4
5
6
7
Resolução espacial
Resolução rad.
C. de onde ( m)
0,5 - 0,6
0,6 - 0,7
0,7 - 0,8
0,8 - 1,1
80 m
6 bits (64 níveis)
C. de onda ( m)
0,45 - 0,52
0,52 - 0,60
0,63 - 0,69
0,75 - 0,90
1,55 - 1,75
10,40 - 12,50
2,08 - 2,35
30 m (b6: 120)
8 bits (256 níveis)

Largura da faixa imageada: 185km
Órbita: quase polar, hélio-síncrona
Altitude: 705 km
Inclinação: 98,2º
Período: 99min
Hora de cruzamento do Equador: 09:45
Periodicidade: 16 dias
Abertura angular: 11,56º
28 ______________________________ Introdução ao processamento digital de imagens
SPOT
O programa SPO T - Systè-
me Probatoire d’Observation de la
Terre -, foi iniciado pela França em
1978, em parceria com a Suécia
e a Bélgica. O programa é geren-
ciado pela Agência Espacial Fran-
cesa - CNES.
O SPO T-1 foi lançado em
1986. O SPO T-2 em 1990. O
SPO T-3 em 1993. O SPO T-4, de-
verá incorporar outra banda ao
sensor multiespectral no interva-
lo de 1,58-1,75 µm, com 20 m.
de resolução. O SPO T-5, previsto
para 1999, terá a resolução es-
pacial do sensor pancromático au-
mentada para cinco metros e do
sensor multiespectral para dez metros. Incorporará também mais um instru-
mento para monitoramento da vegetação com 1 km de resolução.
Os satélites SPOTS carregam a bordo dois sistemas sensores idênticos -
High Resolution Visible - HRV - , que podem ser ativados independentemente.
Estes sensores operam no modo pancromático (0,51-0,73), com dez metros de
resolução e no modo multiespectral com 20 metros de resolução. Um dos
aspectos mais avançados do SPOT é a possibilidade de obtenção de visadas
fora do Nadir , permitindo a obtenção de pares estereoscópicos de imagens de
uma mesma cena (Figura 12).
Z
Y
Abertura
angular: 11,56º
Varredura de oeste para leste
6 linhas por banda
Direção de vôo
Figura 11 - Características do imageamento do
Thematic Mapper - TM
Quadro 9 - Características do SPOT
Sensor
Largura da faixa imageada
Resolução radiométrica
Resolução temporal
Hora de passagem pelo Equador
Abertura angular
Visada off-nadir
HRV (High Resolution Visible)
60 km + 60 km - overlap (3 km) = 117 km
8 bits (256 níveis)
26 dias
10:30
4,13º
até 27º (máximo 475 km)
Multiespectral
Canal 1
Canal 2
Canal 3
Resolução espacial
Resolução espacial
0,50 - 0,59 m
0,51 - 0,73 m
0,61 - 0,68 m
0,79 - 0,89 m
20 metros
10 metros
Pancromático
Canal
Sistemas Sensores __________________________________________________________ 29
As imagens do LANDSAT e do SPOT foram até recentemente as mais utiliza-
das no Brasil. Entretanto, uma série de novos sensores foram lançados recente-
mente ou estão em fase de construção, tanto com sistemas óticos como com
sistemas de microondas, aumentando substancialmente a gama de opções para
os usuários.
IRS (Indian Remote Sensing)
Os satélites indianos da série IRS foram lançados em 1989 (IRS-1A), 1991
(IRS-1B), 1994 (IRS-P2), 1995 (IRS-1C), 1996 (IRS-P3), 1996 (IRS-P4) e 1997
(IRS-P5). O satélite IRS-1C produz imagens de resolução espacial de cinco metros,
no modo pancromático. Este fato aliado aos canais multiespectrais semelhantes
aos do LANDSAT/TM, a possibilidade de apontamento para obter imagens off-
nadir e ainda a elevada resolução temporal (revisita de até cinco dias), tornam este
satélite um dos mais avançados do mercado.
Figura 12
HRV instruments
HRV 2 HRV 1
bit
1
1
7
k
m
6
0
k
m
6
0
k
m
3
1
k
m
6
0
k
m
8
0
k
m
9
5
0
k
m
(a) Os sensores do SPOT (b) O recurso do apontamento lateral
Quadro 10 - Especificações de satélite IRS - 1C
Sensor
Comprimento
de onda ( m)
Pixel
Faixa
imageada
Repetitividade
pancrom. 0,50 - 0,75 (visível) 5 m 70 km
24 (nadir) dias
5 (off-nadir) dias
LISS - 3
0,52 - 0,59 (verde)
0,62 - 0,68 (vermelho)
0,77 - 0,86 (IV próximo)
1,55 - 1,70 (IV médio)
25 m
25 m
25 m
70,5 m
142 km
142 km
142 km
148 km
24 dias
WiFS (wide)
0,62 - 0,68 (vermelho)
0,77 - 0,86 (IV próximo)
180 m
180 m
774 km
774 km
24/5 (overlap) dias
30 ______________________________ Introdução ao processamento digital de imagens
Os dados podem ser utilizados para várias finalidades: agricultura, monitora-
mento de secas, inundação, recursos hídricos, uso do solo, recursos marinhos,
florestais, planejamento urbano e geologia.
RESURS-01
Satélite russo com resolução espacial de 160 metros. Destina-se a preen-
cher a lacuna entre o LANDSAT/MSS e o NOOA/AVHRR. As cenas de 600 x 600
km são ideais para escalas entre 1:500 000 e 1:1 000 000. A possibilidade de
revisita é de quatro dias.
Programas de radar orbital
Até o início desta década todos os levantamentos à base de radar foram
realizados por aviões. A utilização do radar de abertura real em plataformas
orbitais era inviabilizado pela necessidade de uma antena muito longa. Este
problema foi superado pelo advento do Radar de Antena Sintética – SAR -, no
qual grandes antenas são matematicamente simuladas. Graças a este recurso,
a partir do início desta década os sensores à base de radar passaram a ser
utilizados em satélites.
ERS (European Remote Sensing Satellite)
Os satélites da série ERS - European Remote Sensing Satellite -, contêm
vários instrumentos sensores de microondas para estudo da superfície terres-
tre, e, mais especificamente, do oceano e do gelo, imageando na banda C(5,7 cm).
Por operar na faixa das microondas, os dados são interessantes também para
os países tropicais, onde há constante cobertura de nuvens. O ERS-1 foi lança-
do em 1991.
O ERS-2, lançado em 1995, leva a bordo também o Global Ozone Monito-
ring Experiment - GOME -, que mede traços dos constituintes da troposfera e
estratosfera.
JERS (Japan Earth Resources Satellite)
Os satélites da série JERS - Japan Earth Resources Satellite - possu-
em um sensor SAR, imageando na banda L (23,5 cm) e um sensor óptico
(OPS). Este tem recursos para observações estereoscópicas. O JERS-1 foi
lançado em 1992.
Quadro 11 - Características espectrais do RESURS - 01
Bandas Resolução espacial
0,5 - 0,6 m
0,6 - 0,7 m
0,7 - 0,8 m
0,8 - 1,1 m
10,4 - 12,6 m
160 m
160 m
160 m
160 m
600 m
Sistemas Sensores __________________________________________________________ 31
RADARSAT
O programa canadense RADARSAT, que teve início em 1995 com o RA-
DARSAT-1, é considerado o mais avançado sistema de imageamento orbital por
radar, operando em diferentes módulos para obter imagens de 500x500 km
até 50x50 km, com resolução espacial variando de 100 a 10 metros, para
atender às especificações dos usuários. Opera na banda C (5,6 cm de compri-
mento de onda), com polarização HH. As principais aplicações são o monitora-
mento do gelo, gelo flutuante, oceano, zonas costeiras, agricultura, florestas e
geologia.
Programas espaciais brasileiros
CBERS (Satélites Sino-Brasileiros de
Recursos Terrestres)
Resultado de um convênio entre o Brasil e a China para o desenvolvimento
de satélites de observação da terra.
A característica singular do CBERS é sua carga útil de múltiplos sensores,
com resoluções espaciais e freqüências de observação variadas. Os três sensores
imageadores são: imageador de visada larga (WFI), a câmara CCD de alta resolu-
ção e o varredor multiespectral infravermelho (IR-MSS). A câmara CCD tem a
capacidade de apontamento lateral, o que permite aumentar a freqüência das
observações e a visão estereoscópica.
M ECB (M issão Espacial Completa Brasileira)
A Missão Espacial Completa Brasileira – M ECB -, é um projeto do governo
brasileiro, coordenado pela Agência Espacial Brasileira – AEB - e executado pelo
INPE. O programa compreende o projeto, desenvolvimento, integração, testes e
operação em órbita de cinco satélites, três de coleta de dados (SCD1, SCD2 e
SCD3) e dois de sensoriamento remoto da terra (SSR1 e SSR2).
Quadro 12 - CBERS - China - Brazil Earth Resources Satellites
Sensores Câmara CCD IR - MSS WFI
Modo pancromático
Resolução espacial
Periodicidade
Larg. da visada
Parâmetros orbitais
do satélite
Altitude média: 778 km
Período de recobrimento: 26 dias
Órbita quase-polar, sincronizada com o Sol
Modo multiespectral
0,51 - 0,73 m 0,50 - 1,10 m
0,45 - 0,52 m
0,52 - 0,59

m
0,63 - 0,69 m
0,77 - 0,89 m

1,55 - 1,75 m
2,08 - 2,35 m
10,4 - 12,5 m

0,63 - 0,69 m
0,76 - 0,90 m

20 m
3 - 26 dias (nadir)
120 km
26 dias
260 m 80/160(termal)
3 - 5 dias
120 km 900 km
32 ______________________________ Introdução ao processamento digital de imagens
Sensores com alta resolução espacial
Uma nova geração de sensores, caracterizados pela alta resolução espa-
cial estão projetados para os próximos anos. Estes caracterizam-se também
pela alta repetitividade das observações, cobertura simultânea de imagens pan-
cromáticas e multiespectrais. A possibilidade de estereoscopia facilita a produ-
ção de ortofotos e Modelos Digitais de Terreno – MDT. Destinam-se ao planeja-
mento urbano e cartografia de precisão. Os principais projetos são:
EarlyBird e Quickbird
A empresa norte-americana EarthWatch pretende lançar dois satélites.
EarlyBird deverá carregar dois sensores: o primeiro, operando no modo pan-
cromático (0,45-0,80 µm) terá a resolução espacial de três metros, enquanto o
segundo sensor irá operar no modo multiespectral com três bandas nos intervalos
verde, vermelho e infravermelho próximo e resolução espacial de 15 metros.
O QuickBird terá resolução de um metro no modo pancromático e quatro
metros no modo multiespectral.
SPIN 2
Produto do consórcio entre a Aerial Images (USA) e a Sovinformsputnik (Rús-
sia). Carrega duas câmaras fotográficas capazes de produzir imagens de dois a
dez metros de resolução.
IKO NO S 1
Satélite da Space Imaging EO SAT com um sensor pancromático com um
metro de resolução e outro multiespectral (cinco bandas) com quatro metros
de resolução. Terá capacidade para produzir imagens pancromáticas e multies-
pectrais da mesma área, que poderão ser integradas, gerando um produto mul-
tiespectral colorido com um metro de resolução. Periodicidade de 14 dias e
com possibilidade de revisita de 1-3 dias pela utilização da visada lateral.
ERO S A e B
Satélites da West Indian Space pretendem colocar em órbita até 2002
oito satélites da série EROS. Os EROS A e B virão com resolução espacial de
1,5 e 1 metro, respectivamente, periodicidade de 15 dias e possibilidade de
revisita a cada três dias.
Quadro 13 - Características dos SSRs da MECB
- Sensor WiFS com 3 bandas no visível e uma no infravermelho (2,08 - 2,35 m).
-
- A resolução espacial no visível e infravermelho médio será de 100, 200, 300 e
400 metros, conforme o afastamento da posição Nadir.
- Periodicidade:

Órbita equatorial (0º), programada para cobrir uma faixa de 2 200 km, entre
as latitudes de 5º N e 15º S.
14 vezes ao dia
Sistemas Sensores __________________________________________________________ 33
O rb View
A Orbital Sciences Corporation lançará em 1999 e 2000, respectivamente,
os satélites Orb View 3 e 4, com imagens pancromáticas de um metro de resolu-
ção e multiespectrais de quatro metros.
Sensores de alta resolução espectral
As imagens com alta resolução espectral têm aplicações em exploração mi-
neral, agricultura, monitoramento ambiental e segurança.
NASA/TRW Hyperspectral Imager (Lewis)
Este sensor, conhecido como Hyperspectral Imager – HSI -, ou Lewis, cobrirá de
forma contínua o espectro EM entre 0,40 e 2,50 µm, através de 384 bandas espec-
trais com resolução espacial de 30 metros. Este sensor será combinado com outro,
no modo pancromático, com resolução espacial de cinco metros.
0,45 - 0,80
0,45 - 0,90
0,51 - 0,76
0,51 - 0,76
0,45 - 0,90
0,45 - 0,90
0,45 - 0,90
0,50 - 0,90
0,50 - 0,90
0,45 - 0,52
0,53 - 0,59
0,63 - 0,69
0,77 - 0,90
0,45 - 0,53
0,52 - 0,61
0,64 - 0,72
0,77 - 0,88
0,45 - 0,52
0,52 - 0,60
0,63 - 0,69
0,76 - 0,90
0,45 - 0,52
0,52 - 0,60
0,63 - 0,69
0,76 - 0,90
0,45 - 2,5
3,0 - 5,0
0,50 - 0,59
0,61 - 0,68
0,79 - 0,89
Aerial
Images/
Sovinform
sputinik
Earth
Watch
Early
Bird
20 dias
Pan
Pan
Pan
Pan
Pan
Pan
Pan
Multiesp.
Multiesp.
Multiesp.
Multiesp.
Multiesp.
Hiperesp.
1,5 - 2,5
dias
1,5 - 2,5
dias
Quadro 14 - Sistemas de alta resolução (Fonte: Schmidlin, 1988)
Empresa Satélite
Repetiti-
vidade
Revisita Modo
Resol.
Espacial
Resol.
Espectral
Faixa
imageada
Tamanho
da cena
3 m
15 m
6 km 36 km
2
30 km 900 km
2
Quick
Bird
20 dias
1 m
1 m
1 m
1 m
1 m
1,5 m
4 m
4 m
4 m
4 m
36 km
36 km
1 296 km
2
1 296 km
2
SPIN - 2
- -
Pan TK -
1000
Pan TK -
350
2 m
10 m
160 km 6 400 km
2
200 km
60 000 km
2
Space
Imaging/
EOSAT
IKONOS 1 14 dias
15 dias
15 dias
16 dias
16 dias
1 - 3
dias
3 dias
3 dias
< 3 dias
< 3 dias
11 km
11 km
14 km
20 km
121 km
2
121 km
2
196 km
2
400 km
2
West
Indian
EROS A
EROS B
Orbital
Sciences
Corporation
Orb
View - 3
Orb
View - 4
8 km
8 km
8 km
8 km
5 km
64 km
2
64 km
2
64 km
2
64 km
2
25 km
2
8 m
34 ______________________________ Introdução ao processamento digital de imagens
O rbview 4
Este satélite da série Orbview (Orbital Sciences Corporation), além da alta
resolução espacial (1 m no modo pancromático e 4 m no modo multiespectral),
carregará um instrumento para gerar imagens hiperespectrais em 280 canais.
Neste capítulo são apresentadas as características es-
pectrais gerais de alguns materiais da superfície da terra. A
reflectância dos materiais varia com o comprimento de onda.
O registro gráfico da reflectância ao longo do espectro eletro-
magnético fornece uma curva que descreve as propriedades
radiométricas de um determinado material. Esta curva típica
de cada material é chamada de assinatura espectral e consti-
tui um padrão para identificação dos alvos de estudo por sen-
soriamento remoto.
Comportamento espectral da
vegetação
As folhas são os elementos da vegetação que mais con-
tribuem para o sinal detectado. As propriedades espectrais de
uma folha são função de sua composição química, morfologia
e estrutura interna. Os constituintes mais importantes para a
radiação são: a celulose, os solutos (íons e moléculas), os es-
paços intercelulares e os pigmentos.
A Figura 13 mostra a curva espectral média da vegeta-
ção sadia. Observa-se que até 0,7 µm a reflectância é baixa
devido à absorção causada pelos pigmentos, com um pequeno
aumento na faixa do verde (máximo em 0,56 µm). De 0,7 µm
a 1,3 µm a reflectância é alta devido à interferência da estru-
tura celular. De 1,3 µm a 2,5 µm a influência maior é do con-
teúdo de água das folhas, com dois máximos de absorção em
1,4 µm e 1,95 µm.
Comportamento espectral
dos materiais
36 ______________________________ Introdução ao processamento digital de imagens
Comportamento espectral da água
A água apresenta um
comportamento espectral dis-
tinto conforme o estado físico
que se encontra (Figura 14). No
estado líquido apresenta uma
reflectância baixa entre 0,38 e
0,70 µm, absorvendo toda a ra-
diação acima de 0,7 µm. Toda-
via, este comportamento é afe-
tado pela concentração de ma-
teriais em suspensão e dissol-
vidos na água e pela profundi-
dade do corpo d’água, como
ilustra a Figura 15. O aumento
da concentração de materiais
em suspensão implica o aumen-
to da reflectância na faixa do
vermelho.
Na forma de nuvens, a
água apresenta altíssima reflec-
tância. As ondulações na cur-
va espectral são devidas à leve
absorção em torno de 1,3 µm e
2,0 µm. A neve possui uma re-
R
e
f
l
e
c
t
â
n
c
i
a
Água
Neve
Nuvens
Comprimento de onda
0,3 0, 5 1,0 1,5 2,0 2,5
Figura 14 - Comportamento espectral da água
Modificado de Bowker et al., 1985.
R
e
f
l
e
c
t
â
n
c
i
a
Pigmentos
da folha
Clorofilaca-
rotenóides
H O
absorção
2
H O
absorção
2
Estrutura
celular
Conteúdo de
água da folha
Comprimento de onda ( m)
0,3 0,5 1,0 1,5 2,0 2,5
Figura 13 - Assinatura espectral (média) da folha verde
Modificado de Bowker et alii; 1985.
Comportamento Espectral dos Materiais ______________________________________ 37
flectância altíssima no infravermelho próximo, mas decresce bruscamente no in-
fravermelho médio, com picos de absorção em 1,5 µm, 2,0 µm e 2,5 µm.
Comportamento espectral dos solos
Os solos são compostos de substâncias em três fases: só lida (minerais e
matéria orgânica), líquida (água) e gasosa (ar). As combinações e arranjos dos
materiais constituintes dos solos é que definem o seu comportamento espectral,
sendo que os principais fatores são:
•constituição mineral;
•proporção de matéria orgânica;
•granulometria (textura e estrutura); e
•umidade.
De forma simplificada são estes os efeitos dos constituintes dos solos sobre
a reflectância:
Água
O aumento no conteúdo de umidade implica uma diminuição da reflectância
em todo o espectro, sendo esta diminuição mais acentuada quanto menor for a
concentração de matéria orgânica.
Matéria orgânica
A reflectância diminui à medida que aumenta o conteúdo de matéria orgâni-
ca. Quando este conteúdo excede 2%, passa a mascarar as outras propriedades
nível
superficial
R
e
f
l
e
c
t
â
n
c
i
a
Comprimento de onda ( m)
20 m
0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1
Figura 15 - Reflectância da água superficial
e a 20 metros de profundidade
Fonte: Alföldi, 1982.
38 ______________________________ Introdução ao processamento digital de imagens
espectrais dos constituintes dos solos. É possível discriminar melhor o nível de
matéria orgânica no visível e no infravermelho próximo até 1,2 µm.
Minerais opacos e óxido de ferro
Diminuem a reflectância e mascaram as feições de absorção dos outros
constituintes.
Granulometria
Os solos arenosos tendem a apresentar maior reflectância do que os argilosos,
pois, também, são mais pobres em matéria orgânica, óxidos de ferro e minerais opa-
cos, ou seja, constituintes que reduzem a reflectância. A Figura 16 apresenta a curva
média da reflectância dos solos em relação à vegetação, à água, à areia e às nuvens.
Comportamento espectral das rochas
Em geral as rochas ricas em sílica (quartzo-feldspáticas) tendem a apresentar
alta reflectância, enquanto as rochas ricas em magnésio e ferro (máficas) caracte-
rizam-se pelas tonalidades escuras causadas pela baixa reflectância. Entretanto a
Quadro 15 - Regiões espectrais próprias ao estudo de
propriedades dos solos (segundo Novo, 1992)
Regiões espectrais Propriedades
0,57 m
0,7

m e 0,9 m
1,0 m
2,2 m

matéria orgânica em solos sem cobertura vegetal
conteúdo de composto de ferro férrico
conteúdo de composto de ferro ferroso
umidade do solo
%
0.6
0.4
0.2
0
nuvem
areia
vegetação
solo
água
0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 2,0
Comprimento de onda ( m)
R
e
f
l
e
c
t
â
n
c
i
a
Figura 16 - Comparação entre as curvas de
reflectância da água,
vegetação sadia, solo e areia
Comportamento Espectral dos Materiais ______________________________________ 39
presença de minerais opacos (ex.: magnetita), diminui substancialmente a reflec-
tância das rochas quartzo-feldspáticas.
As rochas sedimentares arenosas tendem a apresentar maior reflectância e
bandas de absorção mais bem definidas do que as argilosas. Os principais consti-
tuintes responsáveis pela resposta espectral das rochas sedimentares são o ferro,
o carbono orgânico total e as argilas.
Comportamento
espectral de áreas
construídas
Nas áreas construídas verifica-se,
para a maioria dos materiais, um ligei-
ro aumento da reflectância do visível
para o infravermelho próximo, sendo
que o concreto destaca-se pela reflec-
tância relativamente alta em relação
ao asfalto (Figura 17).
Critérios para
seleção das imagens
Na hora da seleção do sensor e
das bandas espectrais para um deter-
minado projeto, dois parâmetros são
fundamentais: a resolução espacial e
a resolução espectral. A resolução es-
pacial está relacionada com a escala de trabalho, enquanto a resolução espectral
está relacionada com a capacidade de discriminação dos alvos espectralmente
semelhantes. Por isso, o conhecimento da assinatura espectral auxilia na escolha
da melhor combinação de canais para a discriminação dos alvos. Quanto maior a
gama de opções em termos de canais (resolução espectral) maior será a capa-
cidade discriminatória do sensor. Algumas aplicações dos canais espectrais do
LANDSAT/TM são descritas no Quadro 17.
A Figura 18 ilustra a abrangência espectral dos sensores SPOT nos modos
multiespectral e pancromático e LANDSAT/TM e a relação inversa entre a resolu-
ção espacial e a resolução espectral destes três sensores. A resolução espectral
pode ser decisiva para a capacidade discriminatória de muitos alvos, devendo ser
levada em consideração no momento da aquisição das imagens. Portanto, o
analista deve balancear o maior poder discriminatório da resolução espectral
Quadro 16 - Regiões do espectro indicadas para estudos das
rochas e dos minerais (segundo Novo, 1992)
Região do espectro Propriedades
0,8 m a 1,0
1,60
m
m

m
2,17 m e 2,2
2,74 m

identificação de ferro
indicação de zonas de alteração hidrotermal ricas em argila
identificação de minerais de argila
detecção de minerais com presença de hidroxilas na estrutura
R
e
f
l
e
c
t
â
n
c
i
a
0,4 0,5 0,6 0,7 0,8 0,9
Comprimento de onda ( m)
%
Grama
Concreto
Areia
Cascalho
Terreno
baldio
Asfalto
Figura 17 - Comportamento espectral das
feições urbanas/suburbanas
Adaptação de ASP, 1983, in Viadana, 1995.
50
40
30
20
10
0
40 ______________________________ Introdução ao processamento digital de imagens
0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4
Comprimento de onda ( m)
SPOT
PAN
SPOT PANCROMÁTICO
Res.: 10 m
SPOT MULTIESPECTRAL
Res.: 20 m
LANDSAT TM
Res.: 30 m
1 2 3
1 2 3 4 5 7
Figura 18 - Resolução de espectral dos sensores SPOT e LANDSAT/TM
Banda Faixa espectral Aplicações
0,45 m - 0,52 m
(azul)

0,52 m - 0,60 m
(verde)

0,63 m - 0,69 m
(vermelho)

0,76 m - 0,90 m
(IV próximo)

1,55 m - 1,75 m
(IV médio)

10,40 m - 12,50 m
(IV distante)

2,08 m - 2,35 m
(IV médio)

Estudos de sedimentos na água
Mapeamento de águas costeiras
Diferenciação solo/vegetação
Estradas e áreas urbanas
Mapeamento de vegetação (maior reflectância dos canais do visível)
Estradas e áreas urbanas
Espécies vegetais (absorção da clorofila)
Levantamento da biomassa (pico da vegetação sadia)
Delineação de corpos d’água
Mapeamento de rios e corpos d’água
Umidade da vegetação e solos
Estresse térmico em vegetação
Propriedades termais dos solos e rochas
Estudos de rochas e minerais
Umidade do solo e vegetação
Quadro 17 - Algumas aplicações das bandas do LANDSAT/TM
1
2
3
4
5
6
7
do LANDSAT/TM com a melhor resolução espacial do SPOT, para, em função da
escala e objetivos do projeto, fazer a melhor seleção das imagens.
Um dos principais objetivos do PDI é a melhoria da qualida-
de visual da imagem para facilitar a interpretação. Para isso são
utilizadas técnicas denominadas genericamente de realces. Os
realces mais utilizados são produzidos através da manipulação do
contraste.
Histogramas de imagens
O histograma é
uma representação
gráfica da freqüência
de distribuição dos
NCs de uma imagem.
No histograma, o eixo
X representa os NCs,
cujo intervalo de valo-
res depende da reso-
lução radiométrica da
imagem, enquanto o
eixo Y representa a
freqüência relativa
dos NCs.
A maioria das
i magens produzem
histogramas unimo-
dais, com distribui-
ção normal (gaussi-
ana) ou lognormal.
Entretanto, cenas
M anipulação do
contraste
Níveis de cinza
0 255
%
F
r
e
q
ü
ê
n
c
i
a
Figura 19 - Histograma de uma imagem
A altura da barra mostra a freqüência dos pixels
com um determinado nível de cinza.
42 ______________________________ Introdução ao processamento digital de imagens
com áreas espectralmente muito distintas poderão produzir histogramas
bimodais ou multimodais.
Contraste e brilho da imagem
O contraste da imagem refere-se à distribuição dos NCs no intervalo radio-
métrico. Para um determinado sensor, o contraste depende da assinatura espectral
dos objetos presentes na cena imageada e varia com o comprimento de onda
(canal). Geralmente, os valores registrados pelo sensor ocupam uma pequena par-
te do intervalo possível de valores. Vamos exemplificar assumindo uma resolução
de oito bits, ou seja, um intervalo de NC de 0 a 255. Se, para um determinado
canal espectral, a cena incluir tanto materiais de baixa quanto de alta radiância, os
NCs ocuparão uma faixa larga do intervalo radiométrico (por exemplo, 24 a 210),
denotando um alto contraste. Se, por outro lado, na cena existirem apenas materi-
ais de baixa radiância neste canal, esta imagem aparecerá escura. Os NCs estarão
concentrados num pequeno intervalo (16 a 74, por exemplo), denotando um baixo
contraste.
A forma do histograma e os
parâmetros estatísticos fornecem
informações sobre o contraste e o
brilho da imagem. O contraste é di-
retamente proporcional ao espalha-
mento dos níveis de cinza, que é
dado pela largura da base do histo-
grama. Estatisticamente é expres-
so pela variância. O brilho dos pi-
xels é dado pela posição das bar-
ras verticais mais à direita (brilho
alto) ou mais à esquerda (brilho bai-
xo). A média pode ser o parâmetro
estatístico indicativo do brilho da
imagem. Os histogramas unimodais
de baixo contraste com média bai-
xa indicam predominância de ma-
teriais de fraca radiância, resultan-
do imagens de baixo brilho. A mé-
dia alta, ao contrário, representa
imagem de alto brilho (Figura 20).
Realces de contraste
Os níveis de cinza de uma imagem podem ser manipulados com o
objetivo de melhorar a visualização da cena e aumentar a quantidade de
informação que pode ser extraída visualmente. Estas técnicas são chama-
das de realces de contraste.
Os realces de contraste produzem uma ampliação do intervalo origi-
nal de níveis de cinza, de forma que eles são exibidos num intervalo maior.
O objetivo é apresentar a mesma informação contida nos dados brutos,
%
% %
%
a) Cena com baixa radiância
c) Cena de baixo contraste d) Cena de alto contraste
b) Cena com alta radiância
Nível de cinza
Nível de cinza Nível de cinza
Nível de cinza
Figura 20 - Contraste e brilho de imagens
Fonte: Schowengert, 1983.
Manipulação do Contraste ___________________________________________________ 43
porém de uma forma mais claramente visível ao intérprete. No exemplo da Figura
21, os NCs originais, concentrados no intervalo de 63 a 191, são remapeados de
forma que o NC 63 é convertido para 0 e o NC 191 é convertido para 255 e os
valores intermediários são redistribuídos segundo alguma função matemática. Desta
forma, todo o intervalo possível de valores é utilizado para aumentar o contraste e
conseqüentemente melhorar a aparência da imagem.
LUT
O realce é executado através de uma fun-
ção matemática, chamada de função de trans-
ferência de contraste (FTC) ou função de ma-
peamento, que transforma os valores originais
de níveis de cinza da imagem em novos valores,
implicando uma alteração do histograma. A FTC
pode ser linear (representada graficamente por
linha reta) ou não-linear (representada por al-
gum tipo de curva).
Nos sistemas de processamento de imagens
os realces são implementados através de tabelas
denominadas de LUT - Look-up Tables, as quais
armazenam a informação sobre os valores origi-
nais (entrada) e transformados (saída) para cada
NC, segundo a FTC escolhida. No exemplo da Fi-
gura 21, ao se aplicar a LUT, todos os NCs=63
na imagem de entrada serão convertidos em
NC=0 na imagem de saída, evitando a repetição do cálculo para cada pixel da
imagem e, portanto, agilizando o processo.
Realce linear
Consiste no aumento do espalhamento dos NCs, segundo uma função linear.
Os NCs da imagem original são linearmente redistribuídos, com manutenção de
suas posições relativas.
A FTC linear é uma reta e apenas dois parâmetros são controlados: a
inclinação da reta e o ponto de interseção com o eixo X. Quanto maior a
inclinação da reta, maior a expansão do contraste.
Um caso particular de realce linear é aquele no qual todo o intervalo
de NC é considerado, ou seja, o menor valor de NC da imagem (NCmin) é
convertido a zero e o maior valor (NCmax) é convertido a 255. Este é
denominado realce M inM ax (Figura 23). O mais comum, entretanto, é des-
prezar os extremos dos histogramas, de modo a realçar mais a porção cen-
tral. Neste caso, para valorizar mais os NCs mais freqüentes, desprezam-se
NCs pouco freqüentes, produzindo overflow.
O overflow é a transformação de um intervalo de NC em um único NC
(Figura 24). O overflow representa uma perda de informação em benefício de um
realce maior da porção central do histograma. No realce MinMax não há overflow.
255
191
127
63
0 63 127 191 255
N de cinza de entrada
o
N
d
e
c
i
n
z
a
d
e
s
a
í
d
a
o
Figura 21 - Representação gráfica
de uma FTC linear
Os NCs do intervalo 63-191 são
ampliados para o intervalo 0-255.
44 ______________________________ Introdução ao processamento digital de imagens
b
2
b
3
Histograma
f
3
f
2
FTC
a
3
a
2
NC
1
NC
1
NC
b
1
f
1
a
1
X
Y
N
í
v
e
l
d
e
c
i
n
z
a
t
r
a
n
s
f
o
r
m
a
d
o
Figura 22 - Realce linear
Em a a função f não altera o histograma original b ; em a a
função f promove espalhamento representado em b ;
em a a função f produz um espalhamento maior que f
representado em b
Fonte: Schowengerdt, 1983.
1 1 1 2
2 2
3 3 2
3
Manipulação do Contraste ___________________________________________________ 45
O realce linear por par-
tes (linear piecewise stretch)
consiste na aplicação do es-
palhamento linear, segundo
diferentes funções ao longo
do intervalo radiométrico, re-
sultando em dois ou mais
segmentos de reta com di-
ferente inclinação.
Realce de
equalização
Uma limitação do re-
alce linear é não levar em
conta a freqüência dos NCs.
O realce de equalização é
uma função de transferên-
cia não-linear que leva em
conta a freqüência dos ní-
veis de cinza, ou seja, o es-
palhamento será maior para
os NCs mais freqüentes. A
transformação do histogra-
ma é no sentido de uma ex-
pansão (aumento de con-
traste) dos intervalos cen-
trais e uma compressão
(perda de contraste) dos in-
tervalos laterais.
Realce
gaussiano
A característica da
di str i bui ção nor mal ou
Gaussiana é o histograma
na forma de sino, com os
dados assim distribuídos
em torno da média: 60,7%
contidos em um desvio pa-
drão (σ), 95,45% em dois
σ e 99,73% em três σ. O
método visa a enquadrar os dados, segundo uma distribuição gaussiana, tam-
bém chamada de normalização do histograma.
0 255
NCs originais
da imagem
NC da imagem
realçada
0 51 102 153 204 255
Figura 23 - Realce minmax
Fonte: PCI, 1997.
255
0
0 255
NC = 35
NC = 82
NC = 15
NC = 118
Histograma de entrada
H
i
s
t
o
g
r
a
m
a
d
e
s
a
í
d
a
Figura 24 - Overflow
Os NCs do intervalo 15-35 são transformados em 0;
Os NCs do intervalo 82-118 são transformados em 255; e
O intervalo de 35 a 82 é expandido.
46 ______________________________ Introdução ao processamento digital de imagens
O aumento do desvio
padrão produz um alarga-
mento da curva de distribui-
ção, com aumento do con-
traste. O efeito contrário
pode ser obtido pela redu-
ção do desvio padrão. Em
alguns softwares, a média
também pode ser desloca-
da ao longo do intervalo ra-
diométrico, o que permite
aumentar ou reduzir o bri-
lho da imagem.
A normal i zação do
histograma é particularmen-
te útil para equiparar ima-
gens diferentes em termos
de média e desvio padrão,
assim como em composições coloridas, para produzir um bom balanceamento
das cores das três bandas.
Realce de raiz quadrada
Os níveis de cinza são expandidos, segundo a função de raiz quadrada
promovendo um aumento do contraste, principalmente, na porção inferior do
histograma de entrada. Tende a conferir um aumento geral no brilho da
imagem.
Realce negativo
Produz a inversão dos valores de NC: as áreas escuras tornam-se claras e
vice-versa.
Realce de infreqüência
Esta função produz uma imagem de saída na qual os níveis de cinza me-
nos freqüentes recebem valores mais elevados de nível de cinza e vice-versa. A
FTC é expressa pela inversão do histograma da imagem de entrada.
Realce logarítmico
A curva de transferência é uma função logarítmica, com uma inclinação
maior na porção relativa aos NCs de baixa intensidade, a qual vai progressiva-
mente tendendo à horizontal nos NCs de alta intensidade. Visa a realçar a
informação contida nas porções mais escuras de uma imagem, às custas de
um baixo realce das porções mais claras.
0 255
NCs originais
da imagem
NC da imagem
realçada
0 51 102 153 204 255
Figura 25 - Realce de equalização
A população de maior freqüência é realçada enquanto a
população menos freqüente é comprimida.
Fonte: PCI, 1997.
Manipulação do Contraste ___________________________________________________ 47
Realce exponencial
Tem um efeito inverso ao do realce logarítmico. A curva de transferência
é mais suave nas porções inferiores e aumenta progressivamente, realçando as
porções mais claras da imagem, às custas de menor contraste nas porções
mais escuras.
Realce parcial (piecewise stretch)
Em algumas análises pode ser necessário examinar certas feições com maior
detalhe. Através desta técnica pode-se utilizar todo o intervalo para expandir os
níveis de cinza que representam uma determinada feição. Na Figura 28 o histogra-
ma bimodal pode representar feições aquáticas (NCs mais baixos) e feições terres-
tres (NCs mais altos). O realce parcial visa a destacar apenas as primeiras, despre-
zando, portanto, as informações terrestres.
%
0 255
(b) Histograma da imagem realçada
255
0
0 255
Níveis de cinza de entrada
(a) Função de transferência
N
d
e
c
i
n
z
a
d
e
s
a
í
d
a
o
Histograma
original
Figura 26 - Realce logarítmico
%
0 255
(b) Histograma da imagem realçada
Histograma
original
%
0 255
Níveis de cinza de entrada
(a) Função de transferência
Figura 27 - Realce exponencial
N
d
e
c
i
n
z
a
d
e
s
a
í
d
a
o
48 ______________________________ Introdução ao processamento digital de imagens
0 255
NCs originais
da imagem
NC da imagem
realçada
0 51 102 153 204 255
Figura 28 - Realce parcial
A população 1 (NCs mais baixos) é realçada, enquanto a população 2
(NCs mais altos) é toda convertida para o NC 255.
Fonte: PCI, 1997.
Limiarização (thresholding)
É uma técnica para
dividir os níveis de cinza de
uma imagem em uma ou
duas categorias, acima e
abaixo de um determinado
patamar. Este é um dos vá-
rios métodos para criar
uma máscara binária (bit-
map) para a imagem.
Na Figura 29 o histo-
grama da imagem (a) mos-
tra a existência de duas po-
pulações cujo limite situa-
se em NC=17. A transfor-
mação segundo a função
de transferência de con-
traste (b) reduz uma popu-
lação a 0 e a outra a 255.
A imagem resultante (c) é
composta por apenas dois
valores e pode também ser
representada por uma más-
cara binária, com valores
de 0 e 1.
% 255
17
0 255
0 17 255
Níveis de cinza
a
NC de entrada
b
N
C
d
e
s
a
í
d
a
c
água
terra
F
r
e
q
ü
ê
n
c
i
a
Figura 29 - Limiarização
Modificado de PCI, 1997.
O modelo RGB
Embora o olho humano possa perceber apenas 20 a 30 tons
de cinza, ele pode distinguir milhares de cores. As pesquisas de
Thomas Young (1773-1829) demonstraram que uma série de cores
pode ser obtida a partir de combinações do vermelho (R), verde
(G) e azul (B). Tipicamente, as seguintes cores foram produzidas:
•branco - como resultado da mistura das três cores;
•magenta - como resultado da mistura do vermelho e azul;
•ciano (cyan) - como resultado da mistura de verde e azul; e
•amarelo - como resultado da adição de verde e vermelho.
No modelo RGB, a produção de uma cor C a partir de cores
primárias aditivas pode ser definida pela equação:
C = r.R + g.G + b.B,
onde R,G,B são as cores primárias e r,g,b são os coeficien-
tes da mistura, que no caso das imagens digitais é dada pela
intensidade representada pelo NC do pixel (por exemplo, 0 a 255).
Portanto, variando-se a intensidade, uma enorme variedade de
cores pode ser produzida pela adição de vermelho, verde e azul.
Por isso elas foram chamadas de cores primárias aditivas.
Um efeito complementar pode ser obtido pela subtração de
vermelho, verde e azul da luz branca. Assim a subtração de ver-
melho produz ciano, subtração de verde produz magenta e sub-
tração de azul produz amarelo. Ciano, magenta e amarelo foram
chamadas de cores primárias subtrativas cujas combinações, em
diferentes proporções, também podem resultar numa gama imen-
sa de cores.
F ormação das cores
50 ______________________________ Introdução ao processamento digital de imagens
Os monitores de sistemas de processamento de imagens são, em geral, ca-
pazes de representar cada uma das cores primárias em 256 níveis de intensidade,
o que dá um total de 16 711 680 tonalidades. O sistema visual humano, porém,
não consegue perceber as variações muito sutis.
A Figura 30 mostra que os vértices do cubo representam as cores primá-
rias puras, com intensidade variando de 0 até o máximo. Cada lado do cubo é
formado por duas cores, contendo portanto todas as possíveis misturas das
cores que o definem. Se os níveis de cin-
za variam de 0 a 255, cada lado repre-
sentará 65 280 cores, formadas pela
combinação da intensidade possível de
cada cor. Notar que a luz branca é for-
mada pela soma dos máximos RGBs. A
linha mais espessa que liga os vértices
do preto ao branco representa cores for-
madas pela soma de iguais quantidades
de luz vermelha, verde e azul (r=g=b).
Este é o eixo acromático que representa
as tonalidades de cinza. Portanto, uma
imagem monocromática será formada
quando a intensidade de luz vermelha,
verde e azul for igual. Se a intensidade
de luz vermelha, verde e azul for desi-
gual, haverá a formação de uma cor.
Imagem monocromática/falsa/pseudocor
As imagens de sensoriamento remoto multiespectral, por registrarem da-
dos em várias faixas de espectro EM, permitem a combinação de bandas. A
forma mais usual de combinação é através da combinação de três imagens
(triplete), cada uma colocada num “filtro” ou “plano de cor”, resultando numa
composição colorida. Para isto são utilizadas as três cores primárias: vermelho,
verde e azul. Através desta técnica, a imagem colocada no plano de cor verme-
lha terá seus níveis de cinza convertidos em níveis de vermelho, o mesmo
ocorrendo com as imagens colocadas no verde e no azul. Esta é uma forma de
sintetizar três ima-
gens em uma e ao
mesmo tempo re-
presentá-l as em
cores. As cores re-
sultantes não têm
nada a ver com as
cores reai s dos
materiais no terre-
no, sendo por isso
denominadas de
composição falsa
cor (Figura 31).
azul ciano
magenta branco
preto verde
vermelho amarelo
Figura 30 - Cubo de cores
GREEN
BLUE
RED
Imagem
falsa cor
Imagem 1
Imagem 2
Imagem 3
Figura 31 - Formação da composição colorida (RGB)
Formação das Cores ________________________________________________________ 51
Na composição colorida cada pixel terá a cor resultante da combinação da
intensidade das cores primárias expressa pelo NC. Isto é ilustrado pela Figura 32,
na qual o pixel assinalado terá uma cor resultante de intensidade máxima de azul
com intensidade média de vermelho e nenhuma contribuição do verde.
A imagem monocromática é formada quando a mesma banda é colocada
nos três planos de cor, pois, neste caso, os pixels terão o mesmo NC no verme-
lho, verde e azul. Se, na Figura 32, a imagem I for colocada nos três planos de
cor, o pixel assinalado será formado pela intensidade igual (NC=102) de ver-
melho, verde e azul, resultando num cinza médio.
Pseudocor: É a transformação de uma imagem em preto e branco em
imagem colorida pela conversão dos níveis de cinza de imagem unidimensional
em três dimensões de cores.
A pseudocor é formada através da manipulação de Look-up Tables (LUTs)
como mostra a Figura 33. Na parte superior da figura (a) são mostradas as
LUTs nas quais a intensidade de cor corresponde ao NC da imagem. Se os NCs
forem iguais para os três planos de cor, o display será monocromático. A Figu-
ra 33 b, mostra as LUTs transformadas de forma que para um mesmo NC have-
rá uma intensidade de cor distinta em cada plano de cor, para a produção de
imagem pseudocor.
Imagem 1
Imagem 2
Imagem 3
Composição
colorida
Filtros de
cor
RED GREEN BLUE
108 104 101 98
109 114 104 100
110 102 107 111
9 7 4 3
3 2 5 1
2 0 2 1
238 236 244 241
247 250 248 251
252 255 250 253
Figura 32 - Formação das cores
52 ______________________________ Introdução ao processamento digital de imagens
Níveis de cinza
(a) LUT para monocromático display
I
n
t
e
n
s
i
d
a
d
e
d
e
c
o
r
255
0
0 255 0 255 0 255
Níveis de cinza
(b) Pseudocor
Vermelho Azul
0 255 0 255 0 255
I
n
t
e
n
s
i
d
a
d
e
d
e
c
o
r
255
0
Verde
Figura 33 - LUT para monocromático e pseudocor display
(a) A intensidade de cor corresponde ao NC da imagem.
(b) As LUTs são alteradas para produzir intensidade
de cor distinta em cada plano de cor.
Formação das Cores ________________________________________________________ 53
F atiamento (Density slicing)
É a subdivisão dos níveis de cinza de uma imagem monocromática em
intervalos que são representados por cores. Cada faixa do intervalo, como, por
exemplo, 75-90, é representado por um ponto no cubo RGB (Figura 34). A
Figura 35 mostra uma imagem composta por feições terrestres e aquáticas. As
feições aquáticas foram fatiadas, segundo os níveis de cinza correspondentes
à profundidade da água.
Transformação IHS (Intensity, Hue, Saturation)
O modelo do HSI ou do hexacone usa os conceitos de hue (H), saturation (S) e
intensity (I) para explicar a idéia de cor. Hue (matiz, nuança da cor) é o que a gente
percebe como cor (vermelho, azul, púrpura e rosa). É dado pelo comprimento de onda
dominante do espectro EM. Saturation (saturação) é o grau de pureza da cor; pode ser
considerado como a proporção de branco misturado com a cor. A cor pura é 100%
saturada. Intensity (intensidade) é a medida do brilho da cor.
Ciano Branco
Azul
Magenta
Preto Vermelho
Amarelo
b
1
b
2
g
1
g
2
P
75
90
Verde
Q
r
1
r
2
150
180
Figura 34 - Representação gráfica do fatiamento
O intervalo 75-90 de NC é representado pelo ponto P do cubo de cores,
enquanto o intervalo 150-180 é representado pelo ponto Q.
Fonte: Mather, 1987.
54 ______________________________ Introdução ao processamento digital de imagens
O sistema IHS
utiliza o hexacone in-
vertido para represen-
tar as cores, ao invés
do cubo como o sis-
tema RGB (Figura 36).
A intensidade varia de
0 a 1, do ápice à base.
A distância radial até
o eixo central repre-
senta a saturação,
que varia do branco
até a cor pura. Quan-
to mais distante do branco, maior
a saturação. O matiz é representa-
do como uma seqüência radial ao
redor do eixo da intensidade.
A vantagem do modelo IHS
é definir as cores por três atribu-
tos (I,H,S) ao invés da intensidade
das cores primárias. Estes atribu-
tos podem ser analisados e mani-
pulados individualmente, ao contrá-
rio do sistema RGB, onde eles es-
tão intrinsecamente interligados.
Esta independência permite proces-
sar os atributos separadamente, por
exemplo, realçar apenas a intensi-
dade (I). Tal procedimento não é
possível no modelo RGB.
A transformação IHS é feita
em múltiplas etapas, representadas
pela Figura 37. Primeiramente, nas
três bandas selecionadas, o progra-
ma faz a transformação matemáti-
ca para IHS, representando inten-
sidade, matiz e saturação do triple-
NC terra > 50
NC (Água)
0 - 15
15 - 30
30 - 50
Figura 35 - Imagem fatiada
As cores representam níveis de profundidade da água.
I
verde
ciano
amarelo
vermelho branco
magenta
azul
H
S 0,0
1,0
preto
Figura 36 - Modelo de hexacone
R
G
I
H
S
R
G
B
B
TM 1
TM 2
TM 3
Realce
Linear
Figura 37 - Transformação IHS
Formação das Cores ________________________________________________________ 55
te original. A seguir, aplica-se um aumento linear de contraste e faz-se a reversão
das três imagens para o espaço RGB.
Esta técnica é utilizada para duas finalidades: melhorar a utilização do espa-
ço de cores, principalmente quando a correlação interbandas é alta; e combinar
diferentes tipos de imagens ou mesmo imagens de natureza diferente. Exemplos:
a) fusão de imagem SPOT pancromática (composta por apenas uma banda)
com imagem TM (Figura 38), para produzir uma imagem colorida com a resolução
espacial de 10 metros.
b) fusão de imagem de radar com imagem ótica, para produzir uma compo-
sição colorida que apresente as estruturas e relevo presentes na imagem de radar.
c) fusão de imagem classificada com duas bandas espectrais para produzir
uma visualização das classes superposta aos tons da imagem.
O procedimento envolve:
a) calcular os componentes IHS das bandas originais;
b) aplicar o aumento de contraste nos componentes H e S e na imagem a ser
fundida (SPOT, radar ou classificada);
c) substituir o componente I pela imagem a ser fundida; e
d) aplicar a transformação inversa IHS → RGB.
I
H
S
R
G
B
R
G
R
G
B
B
TM 1
TM 2
TM 3
SPOT
PAN
Figura 38 - Fusão de três bandas de imagem TM com SPOT
O processamento digital permite operações aritméticas en-
tre imagens. As mais importantes são:
•Adição;
•Subtração;
•Multiplicação; e
•Divisão (razão espectral).
As operações aritméticas são utilizadas em análises
multiespectrais (diferentes canais espectrais de uma mes-
ma cena) e em análises multitemporais (a mesma imagem
em diferentes datas). As operações são efetuadas entre os
NCs dos pixels correspondentes nas diversas imagens. O
requisito básico para estas operações é que as imagens
estejam registradas, ou seja, que haja uma perfeita super-
posição de pixels correspondentes.
As operações aritméticas visam:
a) à redução da dimensionalidade dos dados que é obtida
através das técnicas de compressão;
b) ao realce das similaridades (adição e multiplicação); ou
c) ao realce das diferenças (subtração e divisão).
Adição
Consiste na soma, pixel a pixel, dos NCs e na divisão
pelo número de imagens somadas. É utilizada para:
Redefinir uma nova banda, formada pela média de bandas
adicionadas. Exemplo: soma das bandas 1,2,3 do LANDSAT/TM
O perações
aritméticas
com imagens
58 ______________________________ Introdução ao processamento digital de imagens
para produzir uma única banda da faixa do visível, que seria expressa pela
equação Bv = (b1 + b2 + b3) / 3. Neste caso o objetivo seria sintetizar toda
a informação das bandas situadas nos intervalos do azul, verde e vermelho do
espectro eletromagnético por uma única banda (Bv ).
Combinar imagens originais com imagens processadas. Exemplo: soma
de imagem filtrada (realce de borda) com a imagem original para combinar a
informação tonal da imagem original com a informação textural da imagem
filtrada.
Subtração
• •• ••Subtração de imagens de diferentes datas
A análise temporal baseia-se nas diferenças da resposta espectral, em
diferentes datas, devido a alterações ocorridas na superfície da terra. A subtra-
ção de imagens é utilizada para a detecção de alterações ocorridas na superfí-
cie da terra, tais como: desmatamento, mudanças no uso do solo, expansão de
áreas urbanas ou agrícolas, diferenças sazonais na vegetação.
Para a análise multitemporal, alguns cuidados devem ser tomados:
• as imagens devem ser registradas no mesmo Sistema de Projeção, Elip-
sóide e Datum;
• as imagens devem ser tomadas em horário solar próximo, para minimizar
os efeitos causados pelo ângulo de inclinação do sol; e
• para os sensores com apontamento lateral como o SPOT, as imagens
devem ter o mesmo ângulo de visada.
• •• ••Subtração de bandas de imagens da mesma data
É usada para a identificação de diferenças com base no comportamento
espectral dos materiais. Exemplos:
a) em estudos de vegetação e meio ambiente, a subtração do canal 7
(0.8-1.1µm) pelo canal 5 (0.6-0.7µm) do LANDSAT/MSS poderá realçar dife-
renças na cobertura vegetal; e
b) em pesquisa mineral a subtração do canal 3 (0.63-0.69 µm) pelo canal
1 (0.45-0.52 µm) do LANDSAT/TM serve para realçar minerais formados por
óxidos de ferro e formações lateríticas, os quais apresentam alta reflectância
no vermelho e baixa reflectância no azul.
A subtração de imagens com resolução radiométrica de oito bits produz
resultados no intervalo -255 a +255. Como somente os valores no intervalo
de 0 a 255 podem ser representados, é necessário fazer um ajuste. Um método
de ajuste é adicionar 255 ao resultado da subtração para transformar os valo-
res para o intervalo 0 a 510, que são então divididos por dois. Numa imagem
assim processada, os pixels nos quais não houve alteração significativa dos
NCs ficarão situados em torno do valor 127 (Figura 39). As diferenças são
detectadas pelo afastamento para cima ou para baixo deste valor central.
Operações Aritméticas com Imagens _________________________________________ 59
Razão
espectral
(Ratio)
P r o d u z
imagens geradas
pela divisão de
canais da mesma
cena. O resultado
é uma imagem
que melhor refle-
te as verdadeiras
características da
superfície. As principais vantagens da razão espectral são:
• minimizar as diferenças nas condições de iluminação de uma cena. O
resultado é a redução do efeito da topografia sobre a resposta espectral
(Figura 40).
• ressaltar a reflectância espectral de determinados alvos. Por exemplo,
para ressaltar corpos de água, uma banda do visível, onde a reflectância
da água é maior, seria dividida pela banda do infravermelho, onde a re-
flectância da água é menor. Na imagem produzida os pixels que represen-
tam água teriam NCs mais elevados, destacando os corpos d’água.
• muito utilizada nos estudos de vegetação, para determinação de índices
de biomassa, área foliar, detecção de fitopatologias, fenologia, etc. Para
isso foram desenvolvidos índices de vegetação, baseados no fato de que
a clorofila apresenta intensa absorção na região do visível (particularmen-
te na faixa do vermelho) e intensa reflectância na região do infravermelho
próximo. Portanto, o índice de vegetação mais simples seria dado pela
subtração do canal do infravermelho próximo pelo canal do vermelho
(Exemplo: MSS7-MSS5 ou TM4-TM3). Os valores mais elevados seriam
indicativos de vegetação sadia. As áreas de vegetação sadia são ressalta-
das (NCs mais altos), na imagem resultante.
• Em prospecção mineral, a razão de canais pode ser utilizada para identi-
ficação de zonas de alteração hidrotermal (minerais argilosos relaciona-
dos a concentrações minerais) que são realçados pela razão TM5/TM7.
Presença de óxidos de ferro (limonita) associados a minérios sulfetados
podem ser detectados pela razão TM3/TM1.
• O tipo mais comum de índice de vegetação é o Normalized Difference
Vegetation Index (NDVI) que é obtido pela equação:
NDVI = Biv - Bv / Biv + Bv
onde Biv e Bv são as bandas situadas no infravermelho e no visível, res-
pectivamente, de um determinado sensor. Assim, para o LANDSAT/MSS a equa-
ção será traduzida para MSS ⇒ NDVI = MSS7 - MSS5 / MSS7 + MSS5, e para
o NOOA/AVHRR será ⇒ NDVI = B2 - B1 / B2 + B1.
0 100 127 150 255
Nível de cinza
F
r
e
q
ü
ê
n
c
i
a
Figura 39 - Histograma de uma imagem de saída de subtração
Modificado de Crosta de 1993.
60 ______________________________ Introdução ao processamento digital de imagens
A razão de canais produz uma concentração dos valores em torno de linhas
de mesma razão (Figura 41 ). São números decimais, em geral situados entre 0 a
5. Estes valores devem ser convertidos para números inteiros e escalados para o
intervalo compatível (por exemplo, 0 a 255) para evitar a extrema compressão dos
NCs. Mesmo com a redistribuição dos valores para a escala de 0 a 255, é possível
que haja uma redução da variabilidade das respostas espectrais. Isto ocorre quan-
do objetos distintos são concentrados na mesma linha de razão, tornando-se deste
modo indistinguíveis, como ilustra a Figura 42. A razão de canais deve, portanto,
ser utilizada com cautela para evitar efeitos indesejáveis.
M ultiplicação
Realça as feições comuns às bandas que são multiplicadas. Como geral-
mente as zonas de sombras são comuns a todas as bandas, deduz-se que esta
operação realça as feições morfológicas, sendo útil para a geologia estrutural,
cartografia e geomorfologia.
A
B
Radiância:
Infravermelho
próximo: 160
Vermelho: 60
razão: 2,666
Radiância:
Infravermelho
próximo: 75
Vermelho: 28
razão: 2,678
SOL
Figura 40 - Redução do efeito da topografia
O mesmo material possui radiância em A muito superior à radiância em B
devido à posição em relação ao Sol. A transformação dos pixels em valores de
razão entre bandas elimina a distorção.
Modificado de Mather, 1987.
Operações Aritméticas com Imagens _________________________________________ 61
A multiplicação de imagens pode ser usada para combinar o primeiro princi-
pal componente (PC1), o qual contém a maior parte da informação morfológica
(textural), com os componentes PC2, PC3 e PC4, que possuem informações pre-
dominantemente tonais. A PC1 é chamada de componente acromática e as outras
são denominadas componentes cromáticas. Ao se combinar estas quatro imagens
através da multiplicação do PC1 pelos três outros, obtém-se uma imagem de qua-
tro dimensões: uma dimensão textural, com informação morfológica, e três di-
mensões tonais.
Da mesma forma pode-se combinar uma imagem SPOT com três imagens
TM não correlacionadas (ex.: três componentes principais ou três razões de ban-
das). A composição colorida resultante conterá a informação textural/morfológica
(dimensão acromática) com resolução espacial de 10 metros do SPOT e a informa-
ção espectral das três imagens (cromáticas) TM.
255 1
0,5
0,25
0 255
Imagem A
I
m
a
g
e
m
B
8 4 2
Figura 41 - Linhas de mesma razão
Áreas homogeneizadas pela razão de canais.
0 255
2
1
3
255
Imagem A
I
m
a
g
e
m
B
Figura 42 - Perda de informação
na razão de canais
Os círculos 1 e 2 representam materiais
distintos que ficaram situados em linhas de
mesma razão.
Modificado de Canas, 1987, e Crosta, 1993.
F iltragem de imagens
F reqüência espacial
As imagens apresentam áreas com diferentes respostas à
energia eletromagnética que são expressas pela tonalidade. O pa-
drão de arranjo dos elementos tonais é chamado de textura. O
elemento textural é a menor superfície contínua e homogênea
distinguível na imagem.
A freqüência espacial de uma imagem é dada pelas varia-
ções de intensidade (brilho) por unidade de distância. Se numa
determinada área da imagem há pouca variação de brilho, a fe-
qüência espacial é considerada baixa. De modo inverso, a alta
freqüência espacial é revelada pela grande variação de tonalida-
des por unidade de distância. Portanto, a freqüência espacial des-
creve as variações de brilho de uma imagem.
Numa imagem digital, os valores discretos dos NCs podem
ser linearmente ajustados segundo curvas. Ao se plotar em um
gráfico as variações lineares dos níveis de cinza de uma imagem,
obtém-se, geralmente, uma curva complexa. A Figura 43A mos-
tra uma curva representando as variações de NC ao longo de uma
linha da imagem. Esta pode ser decomposta em um conjunto de
componentes senoidais, com diferentes freqüências e amplitudes
(Figura 43B).
Os limites entre diferentes materiais (expressos pela to-
nalidade) podem ser bruscos ou suaves. Os limites são repre-
sentados graficamente, por gradientes tanto mais inclinados
quanto maiores forem as diferenças e mais bruscos os conta-
tos. Os limites com acentuado gradiente são denominados
bordas.
64 ______________________________ Introdução ao processamento digital de imagens
As bordas são mais freqüentes e nítidas em áreas com alta freqüência espa-
cial (cenas heterogêneas: áreas agrícolas com alta diversidade de cultivos, limites
entre áreas sombreadas e iluminadas, áreas urbanas, malha rodoviária, contatos
litológicos). Cenas com estas características produzem curvas com baixo compri-
mento e alta freqüência. As cenas homogêneas (vegetação natural, monocultu-
ras), por outro lado, apresentam variações gradacionais e podem ser vistas como
ondas de grande comprimento e baixa freqüência.
A filtragem espacial de freqüência consiste de operações espaciais que “fil-
tram” determinadas freqüências no sentido de suavizar (filtros de passa-baixas ou
low-pass filter) ou real-
çar a diversidade (filtros
de passa-altas ou high-
pass filter). As filtragens
são muito usadas para
realçar bordas, feições li-
neares e padrões de tex-
tura. Isto é feito através
da supressão ou realce
de determinadas fre-
qüências espaciais.
As filtragens po-
dem ser implementadas
através de dois proces-
sos, denominados:
a) Convolução; e
b) Análise de F ourier.
A análise de Fourier con-
siste de operações ma-
temáticas complexas
para separar os vários
componentes das fre-
qüências espaciais. A
convolução opera no do-
mínio espacial da ima-
gem e, apesar de mais
simples, é satisfatória
para os objetivos mais
comuns em PDI.
Convolução
Define-se uma janela composta por um número ímpar de linhas e colunas
que é referida como máscara (kernel). Chama-se convolução ao processo de filtra-
gem efetuado pelo deslocamento da máscara sobre a imagem pelo avanço de um
pixel por vez (Figura 44). Chama-se de operador ao tipo de processo matemático
ou estatístico característico de um determinado filtro, o qual define, para cada
pixel da máscara, um coeficiente ou peso representativo de alguma relação mate-
mática. A filtragem envolve o cálculo do valor do pixel central, em função do
B
r
i
l
h
o
B
r
i
l
h
o
Distância
Distância
A
B
Figura 43 - Curvas de freqüência espacial
(A) Curva representando as variações de NC ao longo de uma
linha da imagem.
(B) Decomposição em curvas senoidais com diferente comprimento
de onda e amplitudes. A adição do brilho das curvas superpostas
em cada ponto reproduz a curva original.
Fonte: Drury, 1987.
Filtragem de Imagens _______________________________________________________ 65
conjunto de pixels da área da imagem coberta pela máscara. O processo é
repetido através da convolução, resultando na transformação dos NCs da ima-
gem original.
As filtragens são operações de área ou vizinhança e não pontuais (como
os realces de contraste). Por isso, o NC de um pixel p após a transformação
depende do NC original de p e dos seus vizinhos na máscara e do operador
utilizado. Quanto maior a máscara utilizada, maior o efeito da filtragem.
Tipos básicos de filtros de convolução:
F iltros de passa-
baixas (low-pass
filter)
Eliminam as altas freqüências,
retirando detalhes, suavizando e ho-
mogeneizando a imagem. Por outro
lado, produzem um efeito indesejá-
vel que é o borramento ou perda da
nitidez. Quanto maior o tamanho da
máscara, maior a suavização. São
também utilizados na remoção de
ruídos eletrônicos. Os ruídos são
valores anômalos causados por fa-
lhas no sistema de transmissão ou
recepção de sinais.
Filtro de média
Substitui o NC do pixel origi-
nal pela média aritmética do NC dos
pixels da máscara, produzindo uma
suavização.
Filtro de média ponderada
É aquele que atribui pesos aos pixels em função de sua distância do pixel
central. Aumentando-se o peso do pixel central, reduz-se o efeito da suavização.
Filtro de moda
O pixel central é substituído
pelo valor de DN mais comum den-
tro da máscara. É bastante usado
como processo de pós-classificação,
para limpar pixels isolados dentro de
uma determinada classe.
Elemento
que deixa
a máscara
Elemento
que entra
na máscara
Figura 44 - Convolução
1/9
1/9 1/5
1/9
1/9 1/5
1/9 1/5
1/9 1/5
1/9
1/9 1/5
1/9
Figura 45 - Filtro de média
(a) Máscara quadrada (b) Máscara “+”
66 ______________________________ Introdução ao processamento digital de imagens
Filtro de mediana
O pixel central é substi-
tuído pela mediana dos pixels
da máscara, ou seja, o pixel de
NC intermediário.
Este filtro pode ser usa-
do para eliminar os drop-outs
(NCs anômalos causados por
ruídos da imagem).
F iltros de passa-
altas (high pass
filter)
Eliminam as feições de
baixa freqüência, realçando as
de alta freqüência. São usados
para realçar bordas, detalhes,
contatos, lineamentos, etc.
Filtro
Filtro
a
b
Ruído Atenuação
Borda Borramento
Figura 46 - Efeitos do filtro passa-baixas
(a) O valor anômalo de NC causado por ruído é atenuado.
(b) A borda entre dois objetos é atenuada pela perda de nitidez.
1/16 1/16
1/16 1/16
1/8
1/8
1/8 1/8 1/4
1/6
1/6
1/6 1/6 1/3
(a) Máscara quadrada (b) Máscara “+”
Figura 47 - Filtro de média ponderada
3 3
3 3
8 8
3 3
11 3
6 6
11 11
9 9
13 13
3, 3, 3, 6, 8, 9, 11, 11, 13
input output
Figura 48 - Exemplo de aplicação de filtro de moda
Filtragem de Imagens _______________________________________________________ 67
Filtros
laplacianos
Caracterizam-se por opera-
dores cuja soma dos pesos da
máscara é igual a zero.
Filtros
laplacianos +
imagem original
Os produtos das filtragens
de passa-altas são ricos em in-
formação textural, mas pobres
em informação tonal, dificultan-
do a interpretação. Entretanto,
é possível resgatar a informação
tonal adicionando-se a imagem
original à imagem filtrada. Isto
pode ser obtido numa única etapa de filtragem, adicionando-se, nos operadores da
Figura 50, a unidade ao valor central da máscara. Resultados interessantes podem
ser obtidos ao se atribuir um peso maior ainda à imagem original em relação à
imagem filtrada, o que pode ser implementado pela adição de mais unidades ao
pixel central do operador.
3 3
3
8 8
8
3 3
11
6 6
11 11
11 9 9
13 13
3, 3, 3, 6, (8), 9, 11, 11, 13
input output
Figura 49 - Exemplo de aplicação de filtro de mediana
0
4 8
-1 -1 -2
-2
-2 4 -2
-1 -1 -1
-1 1
1 -1
-1 -1
-1 1
1
-1 -1
0
0 0
Figura 50 - Exemplos de operadores de laplace
Filtro
Filtro
a
b
Ruído Ampliação
Borda Realce
Figura 51 - Efeitos do filtro de passa-altas
(a) ampliação do valor anômalo.
(b) realce de borda.
68 ______________________________ Introdução ao processamento digital de imagens
Filtros direcionais
São tipos especiais de filtros de passa-altas destinados a realçar lineamen-
tos, segundo direções predeterminadas (Figuras 52 e 53).
Subtração dos componentes de baixa
freqüência
O realce de bordas (edge enhancement) é uma das operações utilizadas com
freqüência para realçar feições lineares e contatos entre diferentes objetos. O real-
ce de borda pode ser alternativamente obtido pela subtração dos componentes de
baixa freqüência da imagem original.
Filtros de Sobel
N - S NE - SW E - W NW - SE
1 2 1 0 1 2 -1 0 1 -2 -1 0
0 0 0 -1 0 1 -2 0 2 -1 0 1
-1 -2 -1 -2 -1 0 -1 0 1 0 1 2
Figura 52
Filtros de Prewitt
N - S NE - SW E - W NW - SE
1
1 1
1 1
-1
-2
-1 -1
1
-1 1
1 1
-1
-2
1 -1
-1
-1 1
1 1
-1
-2
1 1
-1
-1 1
1 -1
1
-2
1 1
Figura 53
Variância e covariância de imagens
A variância é uma medida de dispersão que expressa a va-
riabilidade dos dados em torno da média. Quanto maior a variân-
cia, maior o espalhamento e portanto maior o contraste da ima-
gem. O procedimento para calcular a variância de uma proprieda-
de pode ser estendido para a variabilidade mútua de duas propri-
edades. A covariância é a variação conjunta de duas ou mais
variáveis em torno da média. Variáveis diretamente relacionadas
apresentam uma elevada covariância. Variáveis independentes
mostram baixa covariância. A covariância dá a medida de quanto
de informação contida em um par de bandas é comum a ambas.
Correlação
O grau de inter-relação entre variáveis é geralmente ex-
presso pelo coeficiente de correlação. A correlação indica o
grau de associação estatística entre as variáveis expressas no
intervalo de 0 a 1. É dada pela razão da covariância pelo pro-
duto dos desvios padrões das variáveis. Corresponde a uma
estandardização da covariância. A correlação pode ser positi-
va ou negativa (intervalo 1 a -1).
Gráfico de dispersão
O gráfico de dispersão (scatterplot), também denominado
de espaço de atributos, é um histograma bidimensional que re-
presenta as componentes de duas bandas de uma imagem multi-
dimensional e permite verificar a relação entre as mesmas. A Fi-
Análise de principais
componentes - APC
70 ______________________________ Introdução ao processamento digital de imagens
gura 54 representa duas variáveis (X,Y) alta-
mente correlacionadas, cujos dados se posici-
onam próximos ao eixo diagonal principal AB.
Quanto mais valores localizados próximos a
este eixo, maior a correlação entre as variá-
veis. A correlação próxima de 100% seria re-
presentada por uma linha reta. Por outro lado,
dados que se afastam do eixo AB, são menos
correlacionados e podem definir um outro eixo
(CD), perpendicular ao primeiro. Os eixos AB e
CD da Figura 54 configuram uma elipse. A re-
presentação de uma terceira variável (Z) per-
pendicular a X e Y, resultaria em um terceiro
eixo, definindo um elipsóide.
A Figura 55 mostra o gráfico de disper-
são de duas variáveis pouco correlacionadas.
A dispersão dos dados definem um eixo CD,
quase tão importante quanto o eixo AB, e a
figura se aproxima do círculo.
Correlação de imagens
O gráfico de dispersão é utilizado para
representar a correlação entre imagens. Duas
imagens são ditas correlacionadas quando,
dada a intensidade de um determinado pixel
em uma delas, pode-se deduzir com razoá-
vel aproximação a intensidade do pixel cor-
respondente à outra imagem. Isso é ilustra-
do pela Figura 56, na qual para um determi-
nado valor a da imagem A vai corresponder
a um valor no intervalo entre b e b’ na ima-
gem B. Este intervalo é inversamente pro-
porcional à correlação. Assim sendo, ban-
das altamente correlacionadas fornecem ba-
sicamente as mesmas informações enquan-
to bandas pouco correlacionadas fornecem
informações diferentes.
A correlação entre imagens costuma
ser representada através de uma matriz de
correlação como a do Quadro 18.
A Quadro 18 mostra que a correlação
entre a banda 6 (canal termal) e as bandas
refletivas é de modo geral baixa. Entre os ca-
nais refletivos, as bandas do visível (1,2 e 3)
são as que possuem maior correlação entre si
e a banda 4 (infravermelho próximo) é a que
exibe a mais baixa correlação com as demais.
Variável X
V
a
r
i
á
v
e
l
Y
B
A
D
C
Figura 55 - Gráfico de dispersão de duas
variáveis com baixa correlação
Variável X
V
a
r
i
á
v
e
l
Y
B
A
D
C
Figura 54 - Gráfico de dispersão
de duas variáveis altamente
correlacionadas
a
b
b’
Imagem A
I
m
a
g
e
m
B
Figura 56 - Imagens
correlacionadas
A partir de um valor de NC da Imagem A
pode-se deduzir um valor na Imagem B.
Modificado de Crosta, 1993.
Análise dos Principais Componentes - APC____________________________________ 71
Causas da existência de correlação
•Bandas que apresentam respostas espectrais semelhantes aos objetos pre-
sentes na cena.
•Sombreamento topográfico. Nos sensores multiespectrais que dependem
da iluminação solar, poderá haver um sombreamento devido ao relevo do terreno,
o qual afeta todas as bandas da mesma maneira, contribuindo para a correlação
interbandas. O sombreamento dificulta o processamento digital, especialmente a
classificação.
•A correlação de imagens devido ao sombreamento deverá ser menos ex-
pressiva com banda termal que expressa a energia emitida (banda 6 do TM).
A análise multiespectral baseia-se na peculiaridade do comportamento es-
pectral dos materiais. Todavia, se as bandas são altamente correlacionadas, a
informação contida nas mesmas será similar e a capacidade de discriminação dos
alvos será reduzida. Além disso o processamento de dados altamente correlacio-
nados representa desperdício de tempo e recursos computacionais, já que se trata
de informação redundante.
A transformação por principais componentes
A principal função da Análise de Principais Componentes - APC - é determi-
nar a extensão da correlação e removê-la. Um conjunto N de imagens de entrada
vai produzir, quando processadas através da APC, um outro conjunto de imagens
de saída, sem nenhuma correlação entre si.
O método para melhorar a separação dos dados é redistribuí-los, segundo
um outro conjunto de eixos no espaço multidimensional que maximize a separa-
ção dos dados. A APC é uma técnica estatística que rotaciona os eixos de uma
imagem no espaço multidimensional na direção dos eixos de maior variância. Tem
a função de definir a dimensionalidade dos dados e identificar os principais eixos
de variação. Estes eixos vão definir, no espaço multidimensional, o elipsó ide de
distribuição dos dados.
Considerando o gráfico de dispersão de duas imagens A e B, o parâmetro
mais simples de especificar é a posição do centró ide de distribuição (Figura 57). O
centróide representa o centro de gravidade da distribuição, definido pela média
Quadro 18 - Exemplo de matriz de correlação
(Imagem TM de Inglaterra) Derbyshire,
Banda 1 2 3 4 5 6 7
1
2
3
4
5
6
7
1,000
1,000
1,000
1,000
1,000
1,000
1,000
0,954
0,952 0,932
0,729
0,843
0,365
0,840
0,795
0,877
0,390
0,862
0,697
0,892
0,416
0,908
0,819
0,459
0,673
0,582
0,948 0,552
72 ______________________________ Introdução ao processamento digital de imagens
dos dois conjuntos de dados. O ta-
manho da distribuição é determina-
do através do cálculo do espalhamen-
to, ao longo de cada eixo, que é dado
pela variância.
Primeiro determina-se a direção
relativa ao centróide que possui má-
xima variância ou espalhamento, atri-
buindo-se a ela o eixo da 1
a
Principal
Componente (PC). Na Figura 58 essa
direção é representada pelo eixo prin-
cipal da elipse. Em seguida, determi-
na-se a direção relativa ao centróide
que possui a segunda maior variân-
cia, com a condição de que ela seja
ortogonal em relação à primeira. Atri-
bui-se a esta o eixo da 2
a
PC. Na
Figura 58 (bidimensional), há apenas
uma possibilidade para a 2
a
PC. No
espaço multidimensional, porém,
examina-se outras direções ortogo-
nais à 1
a
PC para determinar a 2
a
PC.
Este processo é então repetido tan-
tas vezes quanto for o número de ban-
das, até que todos os eixos sejam de-
terminados. Por último rotaciona-se
os eixos em volta do centróide, até
que cada uma das direções encon-
tradas fique paralela a um dos eixos
originais (Figura 59).
Através deste processo, a par-
tir de N imagens brutas é produzido
um novo conjunto de N imagens sem
correlação nenhuma (eixos ortogo-
nais). A PC1 irá conter a informação
que é comum a todas as bandas ori-
ginais; a PC2 irá conter as feições
mais relevantes do conjunto restante
e assim sucessivamente.
Autovetores e autovalores
Os principais componentes são derivados da matriz de correlação ou da
matriz de variância-covariância. Se existem p bandas, a matriz será simétrica e
composta de p linhas e p colunas. A APC produz uma transformação da matriz
de modo que a covariância entre as bandas é igualada a zero. Este processo de
correlação ainda redistribui os dados entre os novos (principais) componentes.
µA
Imagem A
I
m
a
g
e
m
B
µ (A,B) = intensidade média das imagens A e B.
(A,B) = desvio padrão das imagens A e B.
Modificado de Crosta, 1993.

µB
2 B
2 A
Centróide
Figura 57 - Parâmetros do elipsóide de distribuição
Imagem A
I
m
a
g
e
m
B
Centróide
Eixo PC2
Eixo PC1
Figura 58 - Determinação dos eixos das PCs
Modificado de Crosta, 1993.
Análise dos Principais Componentes - APC____________________________________ 73
O comprimento dos eixos das PCs, dado
pela variância, é chamado de autovalor
(eigenvalue). Os eigenvalues represen-
tam a proporção relativa da variância de
toda a cena representada em cada com-
ponente, ou seja, a quantidade de infor-
mação contida em cada PC. São medi-
dos em unidades de variância ou em per-
centagem da variância total (Quadro 19).
O maior autovalor define o primei-
ro componente principal, e assim suces-
sivamente. O primeiro principal compo-
nente geralmente contém a maior parte
da variância (geralmente mais de 90%)
e o maior contraste. Este é, portanto, o
componente que contém mais informa-
ção. O Quadro 19 mostra que, nesta
imagem, 96% da variância está contida nos três primeiros PCs. Por isso, teori-
camente, as sete bandas podem ser substituídas pelos estes três PCs, com
muito pouca perda de informação. Nas PCs subseqüentes, a quantidade de
informação decresce. Qualitativamente, porém, qualquer PC pode ser impor-
tante, uma vez que muitas vezes não são as feições comuns, mas as anômalas
que precisam ser ressaltadas.
Associados a cada autovalor, existe um conjunto de coordenadas, cha-
madas de autovetores (eigenvectors), que representam as direções dos ei-
xos das PCs. As p bandas originais são projetadas para n novos principais
componentes como combinações lineares aditivas, através dos autoveto-
res. Cada um destes é um fator do peso da contribuição de cada banda
para o PC. Portanto, os autovetores refletem a importância relativa das
bandas no componente principal. São estandardizados de modo que a soma
dos autovetores ao quadrado é igual a 1.
Eixo PC1 transladado
E
i
x
o
P
C
2
t
r
a
n
s
l
a
d
a
d
o
Eixo PC2
Eixo PC1
Figura 59 - Rotação dos eixos das PCs
Modificado de Crosta, 1993.
Principal componente
1
2
3
4
5
6
7
Quadro 19 - da Imagem de Eingenvalues Derbyshire
Eingenvalue % Variância
5,5324
0,7978
0,3886
0,1774
0,0534
0,0310
0,0193
79,03
11,40
5,55
2,53
0,76
0,44
0,28
74 ______________________________ Introdução ao processamento digital de imagens
O Quadro 20 mostra que o primeiro PC é formado pela contribuição de
todas as bandas, com predominância das bandas reflexivas. O segundo PC é
dominado pela informação da banda termal e no terceiro PC, a contribuição
maior é da banda quatro.
Interpretação de imagens PCs
A 1
a
PC é muito semelhante à vista pancromática da cena. Todas as demais
PCs são desprovidas de informação topográfica devido à ausência de sombrea-
mento. O ruído e outras informações anômalas são removidas das primeiras e
tendem a aparecer nas últimas PCs. Este efeito pode ser explorado pelo analista,
tanto para “limpar” certos ruídos como para detectar feições anômalas de interes-
se para certos temas.
O contraste de cada PC é dado pela variância do respectivo eixo. Pode-se,
entretanto, submeter as imagens PCs a aumentos de contraste (realces), no senti-
do de utilizar todo o espaço possível de NC. Quando combinadas em cores, a
ausência de correlação entre PCs faz com que as cores resultantes das composi-
ções coloridas sejam muito vivas, com ausência de tons de cinza. São cores puras
e intensamente saturadas, que necessitam atenção especial na hora de associá-
las às feições de interesse.
Principais componentes
1
2
2
3
3
4
4
5
5
6
6
7
7
Quadro 20 - da imagem de Eingenvectors Derbyshire
Banda 1
0,93 -0,24 -0,06 -0,21 0,16 -0,03 -0,01
-0,96 -0,21 0,01 -0,13 -0,07 0,10 0,07
0,95 -0,18 -0,17 -0,05 -0,14 -0,08 -0,04
0,84 0,03 0,54 0,04 -0,01 0,00 -0,04
0,97 0,08 0,01 0,21 0,03 -0,07 0,09
0,57 0,81 -0,06 -0,14 -0,01 0,00 0,00
0,94 0,04 -0,23 0,22 0,04 0,08 -0,06
A classificação automática dos pixels de uma imagem en-
volve a associação de cada pixel da imagem com um nome que
descreve um objeto real. Se a classificação é executada para to-
dos os pixels de uma imagem, o resultado é um mapa temático
mostrando a distribuição de categorias (vegetação, solo, uso da
terra, etc.) que são denominadas de classes. Uma imagem classi-
ficada é, portanto, um mapa temático digital, que, se for georre-
ferenciado, pode ser incorporado a um SIG.
A classificação é implementada com base nas diferenças
de comportamento dos materiais ao longo do espectro eletro-
magnético. A Figura 61 mostra a assinatura espectral das classes
Classificação
NC Cor Classe
1
50
100
150
200
250
Água
Manguezal
Floresta
Hortaliças
Cereais
Urbano
Figura 60 - Imagem classificada
76 ______________________________ Introdução ao processamento digital de imagens
A, B e C, que são captadas nos intervalos correspondentes aos seis canais
refletivos do LANDSAT/TM. Verifica-se que a classe A seria facilmente separá-
vel das classes B e C na banda quatro, enquanto a classe B seria separável das
classes A e C na banda sete. Estas duas bandas seriam, portanto, essenciais
para a separação destas classes.
Classificação supervisionada
Para implementação da classificação supervisionada o analista, a partir
do conhecimento da área ou por inferências, relaciona áreas da imagem com
as classes de cobertura da terra que deseja separar. Nestas áreas são selecio-
nadas amostras de treinamento que são um conjunto de pixels considerados
mais representativos das classes de interesse. As classes são, portanto, defini-
das a priori e o processo de classificação visa a enquadrar cada pixel a uma
classe. Todos os pixels das amostras de treinamento de uma dada classe cons-
tituem o conjunto de treinamento para aquela classe, o qual define um padrão
de comportamento espectral da classe, geralmente expresso pelos parâmetros
estatísticos. O enquadramento de um pixel a uma das classes é feito por vários
métodos, levando-se em consideração os valores de NC do pixel nas várias
bandas utilizadas e os padrões das classes.
Figura 61 - Assinatura Espectral
1 2 3 4 5 7
A
A
A
A
A
B
B
B
B
B
B
C
C
C
C
C
Classe B
Classe A
Classe C C
0,4 0,8 1,2 1,6 2,0 2,4
Comprimento de onda ( m)
R
e
f
l
e
c
t
â
n
c
i
a
(
%
)
Classes A, B e C nos seis canais reflexivos do LANDSAT/TM.
Fonte: PCI, 1997.
Classificação _______________________________________________________________ 77
Método da mínima distância
Este método toma como referência, para cada classe, um ponto no espaço
multidimensional definido pela média estatística em cada banda espectral consi-
derada. O algoritmo associa cada pixel desconhecido à classe cuja média está
mais próxima (Figura 63a).
M étodo do paralelepípedo
Os NCs máximos e mínimos de cada classe em cada vetor (banda utilizada)
definem “paralelepípedos” no espaço multidimensional. A Figura 63b ilustra a
formação de uma face dos paralelepípedos, no espaço bidimensional. Cada pixel é
escolhido em seqüência e seus valores nas diversas bandas são testados para ver
se caem dentro de um dos paralelepípedos. Aí ocorrem várias possibilidades:
•o pixel cai dentro de um só paralelepípedo;
•o pixel cai fora de todos; e
•o pixel cai dentro de mais do que um paralelepípedo (caso dos paralelepípe-
dos que se superpõem). Neste caso o programa deve apresentar um critério para
decidir entre os “concorrentes”. Esta regra deve ser a menor distância do centro
do paralelepípedo.
67
54
21
37
Área Urbana
111 99 78 09
Água
12 11 19 22
Floresta
62 50 22 35
Compara
Conjunto de imagens:
quatro bandas
Níveis
de cinza
Padrões das
classes
Imagem
classificada
1
2
3
4
Classifica
F F F A A A F
F F F F A A A
F F F A A A A
F F A A A U U
F A A A U U U
A A A U U U F
A A U U U F F
Figura 62 - Modelo da Classificação Supervisionada
Modificado de PCI, 1997.
78 ______________________________ Introdução ao processamento digital de imagens
Método da máxima verossimilhança
(MAXVER) ou maximum likelihood (ML)
A forma geométrica de um conjunto de pontos representando os pixels de uma
classe de interesse pode ser descrita, num gráfico de dispersão bidimensional, por
uma elipse. A localização, forma e tamanho da elipse, portanto, reflete a média, vari-
ância e covariância das duas variáveis, e a idéia pode facilmente ser estendida para
três ou mais dimensões. Portanto, considerando-se apenas duas bandas, pode-se
pensar no diagrama de dispersão como uma família de elipses concêntricas centradas
na média (Figura 63c). Estas elipses representam linhas de eqüiprobabilidade de um
pixel desconhecido pertencer à classe. Para um conjunto de três bandas, deve-se
pensar em termos de elipsóides concêntricos de eqüiprobabilidade. Definidos os parâ-
metros estatísticos, o algoritmo enquadra o pixel na classe para a qual apresenta a
mais alta probabilidade.
O M AXVER é uma técnica mais robusta do que o paralelepípedo e mínima
distância por levar em conta a covariância na definição das elipses de eqüiprobabi-
lidade. Isto é demonstrado pela Figura 64 na qual a probabilidade de pertencer às
A
B
B
A
Canal A
Mínima Distância
(a)
Canal A
Paralelepípedo
(b)
Canal A
Máxima Verossimilhança
(c)
C
a
n
a
l
B
C
a
n
a
l
B
C
a
n
a
l
B
Figura 63 - Técnicas de classificação supervisionada
Fonte: PCI, 1997.
Classificação _______________________________________________________________ 79
classes 1 e 2 é representada pelas respectivas elipses. O pixel de posição Q, mais
próximo da média da classe 1, seria corretamente classificado por qualquer um
dos três métodos, mas o pixel P seria enquadrado na classe 2 apesar de estar mais
próximo da média da classe 1. Pelos outros dois métodos este pixel seria erronea-
mente classificado.
Classificação não-supervisionada
(explorató ria)
A classificação não-supervisionada agrupa os pixels segundo as suas carac-
terísticas espectrais, organizando-os em agrupamentos denominados de clusters
(enxame, aglomeração). Os parâmetros mais utilizados para definir os clusters são
a média, variância e covariância, pelos quais a proximidade espectral dos pixels no
espaço multidimensional é definida. Os clusters constituem, portanto, classes es-
pectrais. Esta é uma importante diferença em relação à classificação supervisiona-
da, já que nesta cabe ao analista definir a priori as classes que deseja separar
(classes de interesse), enquanto na classificação não-supervisionada o analista
fornece apenas alguns parâmetros como o número mínimo e máximo de classes
desejadas e número de iterações. As classes espectrais geradas numa classifica-
Figura 64 - Critérios para classificação pela técnica ML
Classe 2
Classe 1
2
1
P
Q
Canal 1
C
a
n
a
l
2
Modificado de Mather, 1987.
80 ______________________________ Introdução ao processamento digital de imagens
ção não-supervisionada podem ou não coincidir com as classes de interesse. Tra-
ta-se, portanto, de uma operação exploratória para verificar o que é estatistica-
mente separável ou não, quais as classes mais evidentes e sua relação com o que
se deseja discriminar. Os padrões ou assinaturas geradas na classificação não-
supervisionada podem ser aproveitados para uma posterior classificação supervi-
sionada. A Isodata, uma das técnicas de classificação não-superviosionada mais
empregadas, é ilustrada pelas Figuras 65, 66 e 67.
Isodata
O isodata funciona através de itera-
ções, nas quais a imagem é sucessivamen-
te varrida e os clusters vão sendo modifi-
cados, com modificação dos parâmetros es-
tatísticos, agregação de novos pixels, divi-
são ou fusão de clusters. Na primeira itera-
ção são determinados um número N de pi-
xels (sementes) em torno dos quais come-
çam a ser gerados os primeiros clusters
(Figura 65).
As sementes funcionam como média
em torno das quais vão se formar os agru-
pamentos iniciais. Cada pixel da imagem é
então agrupado ao cluster cuja média está
mais próxima (Figura 66).
Na iteração seguinte as médias dos
clusters são recalculadas e os pixels rea-
grupados, como ilustra a Figura 67.
Todo o processo é repetido tantas ve-
zes quantas forem as iterações programa-
das, nas quais cada pixel pode ser reen-
quadrado em novos clusters, em função da
proximidade estatística. O processo pode
ser interrompido, porém, quando, numa de-
terminada iteração, não ocorrer modifica-
ção alguma em relação à iteração anterior,
indicando que a convergência foi atingida.
Após cada iteração os seguintes cri-
térios são aplicados:
• Clusters com desvio padrão muito
grande são subdivididos para formar clus-
ters menores;
• Clusters que estão estatisticamente muito próximos são fundidos; e
• Clusters com um número pequeno de pixels são eliminados.
n
n
n
n
n
Banda A
B
a
n
d
a
B

1 1

2 2
-

1 1

2
+

1

2
Figura 65 - Isodata (Iteração I)
Posição dos pixels iniciais ( ) sementes

2 2
+

1 1
+

2 2
-

1 1
-

2

1
Cluster 5
Cluster 4
Cluster 3
Cluster 2
Cluster 1
Banda A
B
a
n
d
a
B
Figura 66 - Isodata (Iteração II)
Classificação _______________________________________________________________ 81
O perações pó s-
classificação
Agregação de classes
Se, ao analisar o resultado da classifica-
ção, o analista observar confusão entre classes
espectralmente próximas, é possível fundi-las em
uma só através do processo de agregação de
classes.
Destaque de classe
Esta técnica consiste em destacar uma clas-
se das demais, exibindo-a isoladamente. A classe
pode ser representada na forma de bitmap (arquivo raster de 2 bits), no qual só os
pixels que representam a classe são evidenciados.
Homogeneização
É comum uma imagem classificada apresentar heterogeneidades como:
a) áreas maldefinidas (pixels contíguos assinalados a várias classes); e
b) pixels isolados e fora de contexto (island theme). Estes prováveis erros
de classificação são corrigidos através de filtro de moda, que promove o agru-
pamento dos pixels isolados à classe predominante na sua circunvizinhança.
Este processo de homogeneização poderá corrigir erros de classificação e me-
lhorar a apresentação.
Avaliação da classificação
Uma avaliação qualitativa da classificação pode ser feita visualmente, mas
para a quantificação do nível de acerto geralmente utiliza-se a matriz de confusão
ou matriz de erro (Quadro 60) a qual expressa, tomando como referência áreas de

2 2
+

1 1
+

2 2
-

1 1
-

2

1
Banda A
B
a
n
d
a
B
Figura 67 - Isodata (Iteração III)
Imagem classificada Pixel central da máscara 3x3
3 3 3 3 3 3
1 9 3 1 3 3
3 3 3 3 3 3
Filtro de
moda
Figura 68 - Homogeneização por filtro de moda
82 ______________________________ Introdução ao processamento digital de imagens
teste previamente selecionadas ou as próprias áreas de treino, (i) na diagonal, o
número de pixels corretamente classificados (pixel que pertence a i e é classifica-
do como i), nas linhas os erros de omissão (pixels que pertencem à classe i, mas
são classificados como outra classe) e nas colunas os erros de comissão (pixels
classificados como i, mas que pertencem à outra classe). Acurácia geral é dada
pela proporção de pixels corretamente classificados em relação ao total.
2 3 4 5 6 a b c d
Quadro 21 - Matriz de erro ou de confusão
(Linha: referência/colunas: resultado da classificação)
1
1
2
3
4
5
6
Soma
50
4
4
0
3
10
3
62
4
0
0
3
0
3
70
0
2
1
0
0
0
64
0
3
2
0
8
0
71
0
5
1
3
0
1
33
60
70
64
78
50
408
83,3
88,5
81,4
100,0
91,0
66,0
10
8
19
0
6
17
60
21
10
6
3
10
10
60
a) número de pixels;
b) percentagem de acertos (pixel que pertence a e é classificado como );
c) pertence à classe (referência), mas classificado como outra classe (
); e
d) pixel classificado como , mas que pertence à outra classe (
).
i i
i
i
erro de
omissão
erro de
comissão
86
Correções geométrica e
radiométrica
Correção radiométrica
A energia eletromagnética, ao atravessar a atmosfera, é
parcialmente absorvida, refletida ou espalhada. O espalhamento
ou dispersão (scattering) é a re-irradiação da energia em todas
as direções pelas partículas da atmosfera. Por isso, o sinal
registrado pelo sensor para cada pixel pode não corresponder
à verdadeira radiância da respectiva área, porque o sinal é ate-
nuado pela absorção ou desviado pela dispersão causada pela
atmosfera. No processo de espalhamento a imagem ganha bri-
lho, enquanto a absorção subtrai brilho. A absorção é causada
principalmente pelo vapor de água.
A Figura 69 mostra, de forma simplificada, os compo-
nentes do sinal recebido pelo sensor acima da atmosfera. O
espalhamento em S
2
e parte da reflectância do ponto Q que é
redirecionada em S
1
interferem no sinal captado pelo sensor, o
qual deveria provir exclusivamente de P.
Distorções adicionais podem ocorrer devido à geometria
da iluminação (elevação e azimute do sol), declividade do ter-
reno, direção das cristas de serras. As correções radiométricas
são importantes para várias aplicações:
Razão de canais
As imagens compreendidas na região do visível são alta-
mente sensíveis ao erro de espalhamento, enquanto as bandas
do infravermelho são praticamente livres de tais interferências.
Os efeitos da atmosfera aumentam inversamente ao comprimen-
to de onda. Assim sendo, a banda um do LANDSAT/TM é mais
84 ______________________________ Introdução ao processamento digital de imagens
afetada do que a banda três, enquanto a banda cinco é muito pouco afetada. A
razão entre estes canais, sem a correção radiométrica, produzirá resultados ten-
denciosos.
Estudos multitemporais
As condições da atmosfera variam de uma data para outra. Por isso, a corre-
ção radiométrica é importante nos estudos multitemporais.
Compensação pela dispersão atmosférica
(haze compensation)
O aumento generalizado na radiância produzida pelo espalhamento resul-
ta no aspecto difuso da imagem, referido em inglês como haze (neblina, bru-
ma), prejudicando a nitidez e o contraste. Este fenômeno ocorre com mais
intensidade nos canais situados na faixa de comprimento de onda do azul (ca-
nal 1 do LANDSAT/TM).
Vários métodos podem ser utilizados para estimar o aumento de radiância
causada pelo efeito atmosférico. Para isso, geralmente, utiliza-se comparação en-
tre os NCs de materiais que se caracterizam pela baixa reflectância, tanto no
infravermelho quanto no visível. Os mais típicos são as zonas de sombra e os
corpos d’água profundos. A comparação entre os NCs de pixels destas feições no
P Q
Sensor
Fonte
Alvo
s
1
s
2
Figura 69 - Componentes do sinal recebido pelo sensor
Modificado de Mather, 1987.
Correções Geométrica e Radiométrica ________________________________________ 85
visível (por exemplo banda um do TM) e no infravermelho (por exemplo, banda
quatro do TM) fornece um indicativo do efeito atmosférico. A simples comparação
dos histogramas destas duas
bandas fornece uma medida do
efeito da atmosfera sobre a res-
posta espectral.
Ainda com base na respos-
ta das zonas de sombra e cor-
pos d’água pode-se construir um
gráfico de regressão (Figura 70).
Plotando-se os valores de uma
banda da faixa do visível contra
uma banda do infravermelho, o
eixo de regressão, em imagens
livres do efeito de espalhamento
tenderia para a origem. O afas-
tamento da origem dá a medida
da distorção causada pelo espa-
lhamento atmosférico. A corre-
ção é feita pela subtração do
valor correspondente ao deslo-
camento a.
Correção geométrica
As imagens geradas por sensores remotos estão sujeitas a uma série de
distorções que podem ser corrigidas através de técnicas denominadas de correção
geométrica. Existem dois níveis de correção:
a) correção dos erros sistemáticos; e
b) correção de precisão.
Correção de erros
sistemáticos
(bulk or system correction)
Os erros sistemáticos são aqueles devidos
às características próprias do sensor, instabilida-
de da plataforma, distorção panorâmica e a dis-
torção causada pela curvatura e rotação da terra.
A distorção panorâmica é aquela devida ao afas-
tamento do ponto da superfície da terra direta-
mente abaixo do satélite e proporcional à abertu-
ra angular do sensor. A distorção causada pela
rotação da terra é ilustrada pela Figura 71. Todas
estas correções são feitas na estação de recep-
ção do satélite, usando dados de efemérides e as
especificações do sensor e da órbita.
a
linha de regressão
c
a
n
a
l
d
o
i
n
f
r
a
v
e
r
m
e
l
h
o
canal do visível
Figura 70 - Gráfico de regressão
O efeito da atmosfera é proporcional ao deslocamento a.
A B
C D
O
P Q C’ D’
N
Figura 71 - Efeito da rotação da Terra
Área da cena (ABCD) e área efetivamente
coberta pelo satélite (ABC’D’).
86 ______________________________ Introdução ao processamento digital de imagens
Correção de precisão
Esta é a correção geométrica propriamente dita, que remove os erros
residuais, depois que os erros sistemáticos foram corrigidos. A correção geo-
métrica produz o georreferenciamento da imagem, ou seja, estabelece uma
relação geométrica entre os pixels da imagem e as coordenadas cartográficas
da área correspondente. Através da correção de precisão a imagem adquire
propriedades de um mapa, com todos os pixels referenciados a um sistema de
Projeção Cartográfica. O registro é o ajuste de uma imagem ao sistema de
coordenadas de outra imagem.
A correção de precisão é necessária para:
• superposição de dados de imagens e mapas em Sistemas de Informações
Geográficas;
• ajuste de imagens obtidas em diferentes datas;
• integração de imagens obtidas por diferentes sensores; e
• composição de imagens tomadas em posições diferentes para obtenção de
estereoscopia.
O processo de correção geométrica compreende:
• determinação das relações entre os sistema de coordenadas de um mapa ou
de imagem corrigida (imagem de referência) e da imagem a ser corrigida
(imagem de ajuste);
• determinação de uma nova malha de linhas e colunas, orientadas, segundo
um Sistema de Projeção Geográfica. Este processo envolve a determinação
de uma nova posição para centros dos pixels na imagem corrigida (interpola-
ção espacial); e
• determinação da intensidade dos pixels na imagem corrigida (interpolação
de intensidade).
O método mais utilizado para a correção geométrica é por meio de pontos
de controle do terreno (GCP). Os GCPs são feições bem definidas e claramente
identificáveis que podem ser locados no mapa ou imagem de referência e na
imagem de ajuste. Na falta de mapas ou imagens de referência, a alternativa é
a tomada das coordenadas dos GCPs diretamente no terreno, através de GPS.
Interpolação espacial
As coordenadas dos GCPs, são expressas, na imagem de referência, pe-
las coordenadas cartográficas, e na imagem de ajuste pela posição do pixel em
termos de colunas e linhas. Adotando-se a simbologia (x,y) para longitude e
latitude, respectivamente, e (c,l) para colunas e linhas, respectivamente, usa-se
o método dos polinômios para converter (x,y) para (c,l) e vice-versa. O relacio-
namento entre estes parâmetros é dado na sua forma mais simples pelo polinô-
mio do 1
o
grau:
y a x a a c
2 1 0
+ + = (1)
y a x a a l
2 1 0
' ' ' + + = (2)
A correção de 1
o
grau é adequada para distorções de translação e rotação e
distorções de escala. Transformações com polinômio do 2
o
grau ou superiores
podem ser usadas para corrigir tipos mais complexos de distorção. O número
Correções Geométrica e Radiométrica ________________________________________ 87
mínimo de GCPs depende do grau do polinômio utilizado. Para o polinômio de grau
N precisa-se de no mínimo (N+1) x (N+2) /2 GCPs.
Interpolação da intensidade (reamostragem)
Quando os coeficientes de transformação forem computados a imagem cor-
rigida poderá ser produzida. Isso envolve a transferência do valor de intensidade
(NC) dos pixels da imagem original para a imagem corrigida. Como geralmente há
um rearranjo da posição dos pixels, com mudança na posição do centros, é neces-
sário recalcular a intensidade dos mesmos.
As três técnicas mais comuns de reamostragem são:
1 - vizinho mais próximo
Adota o NC do pixel (na imagem de ajuste) mais próximo do novo centro
(Figura 73).
+
+
+
+
+
+
+ +
+
+
+
+ +
+ +
+
+ +
+
+
+
+
+
+
+
+
+
+
+
+
+ + + + + + + + + + + + + + + +
+ + + + + + + + + + + + + + + +
Centro do pixel
na imagem
corrigida
Centro do pixel
na imagem bruta
P A Q
B
R
421 396
C S
402 953
E-W
384 555
D
N-S
403 053
e
n
Figura 72 - Transformação da imagem bruta (ABCD)
para a imagem corrigida (PQRS)
Fonte: Mather, 1987.
88 ______________________________ Introdução ao processamento digital de imagens
2 - interpolação bilinear
Adota o valor médio dos quatro pixels (janela de 2 x 2) mais próximos do
novo centro (Figura 74).
3 - convolução cúbica
Usa o valor médio dos 16 pixels (janela de 4 x 4) mais próximos.
A vantagem do primeiro método é requerer menos tempo de computação e
preservar os valores originais dos pixels. O segundo e terceiro métodos distribuem
Figura 73 - Reamostragem (vizinho mais próximo)
n
n’
e’
e
Imagem corrigida
Imagem bruta
r
r

c
c

e’ = f(c, r)
n’ = f(c,r)
Fonte: Mather, 1987.
pixel da imagem corrigida cujo
NC é formado pela média dos
pixels a, b, c, d.
imagem
de ajuste
imagem
corrigida
a
b
c d
Figura 74 - Reamostragem (interpolação bilinear)
Modificado de Curran, 1986.
Correções Geométrica e Radiométrica ________________________________________ 89
melhor o erro, porém exigem mais tempo de computação e produzem imagens
suavizadas, retirando detalhes.
Acurácia da correção geométrica
A correção geométrica inicia com a leitura das coordenadas dos GCPs nas
imagens e mapas e cálculo dos coeficientes dos polinômios da transformação de
(x,y) para (c,l), conforme equações 1 e 2.
Inspeção dos resíduos. Tendo calculado os coeficientes pode-se checar os
valores esperados na imagem de ajuste em função das coordenadas de referência.
A diferença entre as coordenadas originais (c,l) e as calculadas (c´,l’) são chama-
dos de resíduos. O resíduo X é dado pela diferença (c’-c) e o resíduo Y pela dife-
rença (l’-l). Um resíduo muito grande indica erro de leitura ou de identificação do
ponto. Neste caso, o ponto deve ser substituído. Os resíduos são também afeta-
dos pela ordem de transformação.
O resíduo (X,Y) ou distância considera os resíduos nas duas direções (x,y)
para informar, para cada pixel, a distância entre a localização original (c,l) e a
localização calculada (c’,l’).
resíduo (X,Y) =
2 2
) ' ( ) ' ( l l c c − + −
Os resíduos calculados para cada GCP são muito úteis para monitorar a
transformação, refazendo ou rejeitando GCPs que não se enquadram na margem
de erro aceitável. Estes parâmetros, expressos em pixels, são ainda importantes
indicativos da acurácia da transformação.
O RMSE (root mean square error) fornece uma visão conjunta da acurácia da
correção. É calculado pela equação:
RMSE (X) =
( )
2
1
2
) /( ) ' ( k n c c − −

RMSE (Y) =
( )
2
1
2
) /( ) ' ( k n l l − −

onde n é o número de GCPs e k é o número de termos da ordem do polinômio
usado (três para a 1
a
ordem, seis para a 2
a
ordem, dez para a 3
a
ordem). Da mesma
forma que os resíduos, o RMSE (X,Y) considera o RMSE nas direções X e Y con-
juntamente.
RMSE (X,Y) =
( ) ( )
2 2
) ( ) ( Y RMSE X RMSE +
A última etapa é a criação da imagem corrigida usando uma das técnicas de
interpolação de intensidade.
BOWKER, D. E. et al. Spectral reflectances of natural targets for
use in remote sensing studies. Hampton : NASA, 1985. (Re-
ference publication).
CANAS, A. C. Geosciences image processing. London : Imperial
College, 1987. 136 p.
CROSTA, A. P. Processamento digital de imagens de sensoria-
mento remoto. Campinas : UNICAMP, Instituto de Geociên-
cias, 1993. 170 p.
DRURY, S. A. Image interpretation in geology. London : Allen &
Anwin, 1987. 243 p.
GOETZ, A. F. H., ROWAN, L. C. Geologic remote sensing. Scien-
ce, Washington D.C., v. 211, n. 4484, p. 781-791, 1981.
LIMA, M. I. C. de . Introdução à interpretação radargeológica. Rio
de Janeiro : IBGE, 1995. 124 p. (Manuais técnicos em geo-
ciências, n. 3).
MATHER, P. M. Computer processing of remotely-sensed images.
Chichester : J. Wiley, 1987. 352 p.
NOVO, E. L. de M. Sensoriamento remoto : princípios e aplica-
ções. 2. ed. São Paulo : E. Blücher, 1992. 308 p.
SCHMIDLIN, D. Uma nova geração de imagens orbitais. InfoGeo,
Curitiba, v. 1, n. 1, p.48-52, maio/jun. 1998.
SCHOWENGERDT, R. A. Techniques for image processing and
classification in remote sensing. New York : Academic Press,
1983. 249 p.
STEFFEN, C. A., GAMA, F. F., NOVO, E. M. L. M. Teste operacio-
nal de aquisição de dados aerotransportados - SADA : o
experimento de Barra Bonita. São José dos Campos : INPE,
1992. (INPE-5451 - NCT/305).
Referências
bibliográficas
92 ______________________________ Introdução ao processamento digital de imagens
SWAIN, P. H., DAVIS, S. M. (Ed.). Remote sensing : the quantitative approach.
New York : McGraw-Hill, 1978.
USING PCI software. Ontario : Richmond Hill, 1997.
VERONESE, V. F. O uso de GPS para a correção geométrica de imagens de satélite :
análise comparativa [CD-ROM]. GISBRASIL‘97. Curitiba : Sagres, 1997.
í1 disco a laser ; 4 ¾ pol.
___. Acurácia da correção geométrica de imagens de satélite em função do méto-
do de aquisição dos pontos de controle [CD-ROM]. GISBRASIL‘98. Curitiba :
Sagres, 1998. 1 disco a laser ; 4 ¾ pol.

Instituto Brasileiro de Geografia e Estatística - IBGE Av. Franklin Roosevelt, 166 - Centro - 20021-120 - Rio de Janeiro, RJ - Brasil

ISSN 0103-9598 Manuais técnicos em geociências. Divulga os procedimentos metodológicos utilizados nos estudos e pesquisas de geociências. ISBN 85-240-0762-1 © IBGE, 2000

Equipe Técnica Departamento de Recursos Naturais e Estudos Ambientais - Primeira Divisão de Geociências do Nordeste - DGC
Coordenação

Valdir Francisco Veronese
Colaboradores

Romel Reis Maria Ivany Cardoso de Lima Projeto Editorial Gerência de Editoração - Departamento de Produção - DEPRO/CDDI
Estruturação Textual e Tabular Carmen Heloísa Rosinéa Lucena Ervilha Diagramação Tabular LGonzaga Copidesque e Revisão Iaracy Prazeres Gomes Anna Maria dos Santos Cristina Ramos Carlos de Carvalho José Luís Nicola Diagramação Tabular, Textual e Ilustrações LGonzaga

Normalização Bibliográfica e de Glossário Divisão de Documentação - DIDOC/CDDI
Aparecida Tereza Rodrigues Regueira Ana Raquel Gomes da Silva Diva de Assis Moreira

Impressão Centro de Documentação e Disseminação de Informações - CDDI/IBGE, em 2 000. Capa
xxxxxxxxxx - Divisão de Criação - DIVIC/CDDI

Introdução ao processamento digital de imagens / IBGE, Primeira Divisão de Geociências do Nordeste. - Rio de Janeiro : IBGE, 1999. 92 p. - (Manuais técnicos em geociências, ISSN 0103-9598 ; n.9) ISBN 85-240-0762-1 1. Processamento de imagens - Técnicas digitais. I. IBGE. Primeira Divisão de Geociências do Nordeste. II. Série. Divisão de Biblioteca e Acervos Especiais CDU 528.852:681.32 RJ/99-28 CART Impresso no Brasil / Printed in Brazil

Apresentação
Tradicionalmente, a extração de informações das imagens de sensoriamento remoto pelas equipes técnicas de geociências tem sido feita por métodos analógicos. Entretanto, a partir dos anos 90, constata-se uma utilização crescente do processamento digital. Esta mudança foi impulsionada pela vertiginosa evolução ocorrida na indústria da informática, marcada pelo aumento na capacidade de processamento e redução dos custos dos equipamentos, o que permite hoje o tratamento de imagens em computadores de mesa. Da mesma forma, um número cada vez maior de aplicativos dedicados ao processamento digital de imagens vem sendo disponibilizado no mercado. Por outro lado, verifica-se um crescimento acelerado na produção de dados geoespaciais destinados a atender às necessidades específicas das várias categorias de usuários. A manipulação e integração desta multiplicidade de dados, de características e fontes distintas, para transformá-los em informações relevantes à sociedade, seria extremamente difícil sem os recursos da informática, visto que o armazenamento, processamento e transmissão dos dados são feitos na forma digital. O processamento digital de imagens oferece uma gama de técnicas que propiciam a exploração de detalhes inacessíveis pelos métodos convencionais e permite realçar e destacar aspectos de interesse específico a determinados temas e objetivos. O processamento digital de imagens e os sistemas de informações geográficas constituem hoje ferramentas essenciais em várias áreas do conhecimento. Os profissionais de geociências não precisam estar permanentemente atentos a estas transformações no modus operandi, sob pena de perder informações,

procura descrever os conceitos e técnicas digitais mais utilizados para a extração de informações das imagens nos vários ramos das ciências da terra. Guido Gelli Diretor de Geociências .rapidez e eficiência. de forma concisa e em nível introdutório. cartografia e meio ambiente. Entendemos que esta iniciativa vem atender a uma necessidade e representa uma contribuição efetiva para o aprimoramento dos métodos de trabalho nos levantamentos de recursos naturais. Neste contexto insere-se a elaboração deste Manual. que.

.......................................... 33 .......................................................................................................... 22 Sistemas de Captação dos Dados ................................................................... 15 A Imagem Digital .............. 31 Sensores com Alta Resolução Espacial ........... 22 Plataformas Orbitais ............................ 30 Programas Espaciais Brasileiros ............................... 18 Resolução Espectral ........Sumário Siglas e Abreviaturas ................................................ 18 Resolução Espacial ................ 13 O Espectro Eletromagnético ..................................................................................... 25 Sensores de Baixa Resolução Espacial............................................ 21 Classificação dos Sensores ..................................................... 27 Programas de Radar Orbital ...................... 24 Tipos de Órbita ........................................................................................................ 14 As Janelas Atmosféricas .............. 26 Sensores de Resolução Espacial Intermediária . 19 Sistemas Sensores ..................................................... 21 Fonte de Energia ................................................................. 18 Resolução Radiométrica .......................... 32 Sensores de Alta Resolução Espectral ............................... 25 Das Fotografias Aéreas aos Foguetes ......... 25 Evolução dos Sistemas Sensores .................................................................. 22 Região Espectral ......................................... 16 Resolução das Imagens .......... 1 1 Características das Imagens de Sensoriamento Remoto ......................... 19 Resolução Temporal ....................................................................

............................. 45 Realce de Raiz Quadrada ........................ Hue.....6 ______________________________ Introdução ao processamento digital de imagens Comportamento Espectral dos Materiais............ 39 Critérios para Seleção das Imagens .............. 67 ......................................................................................................................................... 46 Realce Negativo ............. 39 Manipulação do Contraste .............. 46 Realce Exponencial............................................. 38 Comportamento Espectral de Áreas Construídas .................................... 50 Fatiamento (density slicing) .................. 41 Contraste e Brilho da Imagem ... 65 Filtro de Média Ponderada ................ 35 Comportamento Espectral da Vegetação .. 66 Filtros de Passa-Altas (high-pass filters) ......................................................................... 58 Razão Espectral (Ratio) .................................. 35 Comportamento Espectral da Água ......................... 46 Realce Logarítmico ............................................................... 66 Filtros Laplacianos ...................... 65 Filtro de Média ... 36 Comportamento Espectral dos Solos ........................... 42 Realces de Contraste .................................................... 47 Limiarização (tresholding) ............... 57 Adição ........................... 65 Filtro de Mediana ....................................................................................................................................................... 43 Realce Linear ........................................................ 41 Histogramas de Imagens .................................................................... 65 Filtro de Moda ....................... 49 Imagem Monocromática/Falsa/Pseudocor .... 53 Operações Aritméticas com Imagens .......... 57 Subtração .............................................................. 53 Transformação IHS (Intensity............................................................................................................................................................ 45 Realce Gaussiano ................................................................ 49 O Modelo RGB ................................... 42 LUT ....... 63 Freqüência Espacial ............................ 64 Filtros de Passa-Baixas (low-pass filters) ....................................... 59 Multiplicação .................. 47 Realce Parcial (piecewise stretch) ................................................................... Saturation) ....................................................................................................................................................................... 43 Realce de Equalização . 48 Formação das Cores ........................................................................ 60 Filtragem de Imagens ....................................................................................................................................................................................... 37 Comportamento Espectral das Rochas ............................. 63 Convolução ....... 46 Realce de Infreqüência .......................................................

.......................................................................... 71 A Transformação por Principais Componentes ...................................................... 72 Interpretação de Imagens PCs .................. 24 5 Características do AVHRR ........................... 69 Variância e Covariância de Imagens .................................... 71 Autovetores e Autovalores . 76 Método da Mínima Distância ...................................................... 68 Subtração dos Componentes de Baixa Freqüência .............Características das imagens de sensoriamento remoto _________________________ 7 Filtros Laplacianos + Imagem Original ......................... 78 Classificação Não-Supervisionada (Exploratória) ......................................... 79 ISODATA ................................................................ 83 Correção Radiométrica .............................................. 68 Análise de Principais Componentes ...................................................................... 17 2 Escalas de Trabalho Indicadas Algumas Imagens ............... 69 Correlação de Imagens..................... 26 ................................................... 85 Correção de Erros Sistemáticos (bulk or system correction) ....................................................... 74 Classificação .................................................................................... 91 Lista de Quadros 1 Representação dos Formatos de Gravação dos Dados ... 81 Avaliação da Classificação............................................................. 77 Método do Paralelepípedo .... 84 Compensação pela Dispersão Atmosférica (haze compensation) ............... 84 Correção Geométrica .......................................................................... 75 Classificação Supervisionada .......................................................................... 85 Correção de Precisão .. 80 Operações Pós-Classificação .................................................................. 83 Estudos Multitemporais ............................. 89 Referências Bibliográficas ..................................................................... 77 Método da Máxima Verossimilhança (MAXVER) ........................................... 81 Correções Geométrica e Radiométrica .......... 69 Gráfico de Dispersão ............................................ 86 Acurácia da correção geométrica ................. 70 Causas da Existência de Correlação ...... 21 4 Comparação entre os Dois Sistemas de Varredura.............................................................. 83 Razão de Canais .......................... 81 Agregação de Classes ................................................................................................ 81 Destaque de Classe ....................... 69 Correlação ............................................................................................. 81 Homogeneização ... 18 3 Tipos de Sensores ............................................. 67 Filtros Direcionais ..............................................

..Características do Imageamento do Thematic Mapper .......Instantaneous Field of View ................................................ 73 20 Eigenvectors da Imagem de Derbyshire ..................Comparação entre as Curvas de Reflectância da Água.Representação Esquemática da Captação de Dados por SR ....Representação Esquemática dos Dados de Três Bandas ........................................ 82 Lista de Figuras 1 ...........Assinatura Espectral (Média) da Folha Verde ... 15 3 ...... 71 19 Eigenvalues da Imagem de Derbyshire ...................................Espectro Óptico ............. 24 11 ............ 39 18 ......... 74 21 Matriz de Erro ou de Confusão .........................................Formato da Imagem Digital ......China-Brazil Earth Resources Satellite .......................... 38 16 Regiões do Espectro Indicadas para os Estudo das Rochas e dos Minerais ............................... 17 6 .....................................................(a) Os Sensores SPOT (b) O Recurso do ...... Solo e Areia.... 30 12 CBERS .. 36 15 .Comportamento Espectral da Água ........ 36 14 ............................................................................... 16 5 ............................ 26 7 Cronograma dos Satélites LANDSAT ...................................... 38 17 ...................... 31 13 Características dos SSRs da MECB ....Resolução Espectral dos Sensores SPOT e LANDSAT/TM ...........................Reflectância da Água Superficial e a 20 Metros de Profundidade ...Comportamento Espectral das Feições Urbanas/Suburbanas .. 40 19 ..................................................................... 14 2 ......... 33 15 Regiões Espectrais Próprias ao Estudo de Propriedades dos Solos .................... 40 18 Exemplo de Matriz de Correlação ..........................................................Transmitância Percentual da Atmosfera Terrestre ......... 41 ......Brilho do Pixel ......... 37 16 ..........8 ______________________________ Introdução ao processamento digital de imagens 6 Aplicações do Sensor AVHRR ..Sistema Fotográfico ......................TM .... 28 10 Especificações de Satélite IRS-1C .......... 32 14 Sistemas de Alta Resolução ........................................................... 22 9 .................................................. .. 17 7 ............ Vegetação Sadia....... 27 8 Características Orbitais do LANDSAT-5 e dos Sensores MSS e TM ................. 27 9 Características do SPOT ................................................ 29 13 . 18 8 .............Espectro Eletromagnético .................................. 23 10 .................. 28 12 ................................ 39 17 Algumas Aplicações das Bandas do LANDSAT/TM ...... 29 11 Características Espectrais do RESURS-01 ................................................... Apontamento Lateral ...Histograma de uma Imagem ..........Sistemas de Varredura Eletrônica e Mecânica ..................... 16 4 ....................................................

....................................... 54 38 .....................................................Perda de Informação na Razão de Canais .....................................Características das imagens de sensoriamento remoto _________________________ 9 20 .................Determinação dos Eixos das PCs ............................... 73 60 ................Modelo da Classificação Supervisionada ...Modelo do Hexacone ............................................Gráfico de Dispersão de Duas Variáveis com Baixa Correlação .. 61 42 ..........................................................Representação Gráfica do Fatiamento .........................Realce Parcial .Filtros de Prewitt ......................Realce MinMax . 64 44 .....................Formação das Cores .............. 52 34 .......................Convolução .Gráfico de Dispersão de Duas Variáveis Altamente Correlacionadas .... 50 32 ..... 68 54 .................................................................................Filtros de Sobel .............. 68 53 .................... 72 59 ..........Imagens Correlacionadas .......................................Redução do Efeito da Topografia .................Parâmetros do Elipsóide de Distribuição ..Transformação IHS ........ 43 22 ................................................Exemplo de Aplicação de Filtro de Moda ......................Filtro de Média Ponderada .. 60 41 ........... 53 35 ............. 70 56 ............Overflow ......................................................... 65 45 .............. 72 58 ............ 47 27 .................................... 78 64 ................................................................................ 45 25 ................................................ 67 52 ...............Exemplos de Operadores de Laplace .......... 70 57 ................................................... 48 29 ...... 42 21 ......Formação da Composição Colorida (RGB) ............................... 67 51 .. 61 43 ....................Exemplo de Aplicação de Filtro de Mediana ........................................................... 66 49 ....Histograma de uma Imagem de Saída de Subtração ..........................................Limiarização ............................... 79 ........................................................Efeitos do Filtro Passa-Baixas ....Curvas de Freqüência Espacial ............... 70 55 ....Representação Gráfica de uma FTC Linear ............................Linhas de Mesma Razão ............ 77 63 ........................... 54 37 ............Realce Logarítmico ...........................Assinatura Espectral .......... 59 40 . 48 30 .... 46 26 ................... 50 31 ...Critérios para Classificacão pela Técnica ML ...................................... 47 28 ... 75 61 .Imagem Fatiada.... 45 24 .. 76 62 ................... 55 39 ..Realce Linear .....Filtro de Média ...Fusão de três Bandas de Imagem TM com SPOT ........Imagem Classificada .............................................Cubo de Cores ..Efeitos do Filtro de Passa-Altas ...... 66 48 ...............Contraste e Brilho de Imagens ...... 54 36 ..LUT para Display Monocromático e Pseudocor .......Realce de Equalização ........ 66 47 ..................Realce Exponencial ... 51 33 .... 44 23 ..................Técnicas de Classificação Supervisionada .............................................. 65 46 ..................Rotação dos Eixos das PCs .... 67 50 .........................

........................Efeito da Rotação da Terra ............ 80 67 ........................Transformação da Imagem Bruta para a Imagem Corrigida ........................ 81 68 ........Componentes do Sinal Recebido pelo Sensor ...Reamostragem (Vizinho mais Próximo) . 85 71 ... 85 72 .....10 ______________________________ Introdução ao processamento digital de imagens 65 ......Reamostragem (Interpolação Bilinear) .................Gráfico de Regressão .............................. 87 73 ......Isodata (Iteração I) ......Isodata (Iteração II) .......................................... 88 74 .................... 81 69 ......... 80 66 .................Homogeneização por Filtro de Moda ........................................................... 88 ...... 84 70 ................Isodata (Iteração III) ..................................................

Instantaneous Field of View IHS .Máxima Verossimilhança MECB .Nível de Cinza NDVI .National Aeronautics and Space Administration (Estados Unidos) NC .Bits Per Inch BPS .Função de Transferência de Contraste GCP .Digital Number EM .Instituto Nacional de Pesquisas Espaciais IRS .China-Brazil Earth Resources Satellite DN .ground control point GPS .Siglas e Abreviaturas AEB .Iterative Self-Organizing Data Analysis Techniques JERS .Maximum Likelihood MSS .Análise de Principais Componentes AVHRR .Missão Espacial Completa Brasileira ML .Agência Espacial Brasileira APC .Japan Earth Resources Satellite LUT .Advanced Very High Resolution Radiometer BPI .Look-up Table MAXVER .Mutispectral Scanner NASA .Indian Remote Sensing IV .eletromagnético ERS .European Remote Sensing Satellite FTC .infravermelho ISODATA .Normalized Difference Vegetation Index NOOA .Intensity-Hue-Saturation INPE .National Ocean and Atmosphere Administration (Esta- .Global Positioning System IFOV .Bits Per Second CBERS .

Processamento Digital de Imagens RBV .Red-Green-Blue SIG .Système Probatoire d’Obsérvation de la Terre SR .dos Unidos) PAN .Principal Component/Componente Principal PDI .Return Beam Vidicon REM .Thematic Mapper UV .ultravioleta WFI .Radiação Eletromagnética RGB .Imageador de Visada Larga .Sistema de Informações Geográficas SLAR .Television and Infrared Observation Satellite TM .Sensoriamento Remoto TIROS .Pancromático PC .Side Looking Airborne Radar SPOT .

mais familiar e mais importante em SR é a energia solar. mais especificamente. e b) captação de parte desta energia por algum tipo de sensor após incidir sobre o alvo (Figura 1). A energia eletromagnética . sofre interações com o material que o compõe podendo ser parcialmente refletido. refletir. na forma de imagens. Todos os materiais (naturais ou artificiais) da superfície da terra.EM . A discriminação dos materiais por SR é feita com base no registro. Em sensoriamento remoto o fluxo radiante que deixa o objeto em direção ao sensor é denominado radiância do alvo.consiste na medição ou aquisição de dados sobre um objeto ou cena a distância ou. podem emitir. O processo envolve: a) existência de uma fonte de emissão de REM.REM. obtenção de informações sem entrar em contato direto com a área ou fenômeno sob investigação. absorvido ou transmitido pelo objeto. Um dos principais objetivos do SR é a aquisição de informações sobre a superfície da terra para mapeamento e avaliação de recursos terrestres e monitoramento ambiental.Características das imagens de sensoriamento remoto Sensoriamento Remoto . transmitir ou absorver seletivamente radiação eletromagnética . . A reflectância espectral de um objeto é dada pela razão entre a energia EM refletida pela energia incidente na superfície do mesmo. da REM refletida ou emitida pelos alvos e captada por Sistemas Sensores (ou simplesmente sensores). com temperatura superior a zero absoluto (0° K).SR . O fluxo de energia EM ao incidir sobre um objeto.

622 µm. Notar que o intervalo no qual o olho humano tem sensibilidade (visível) corresponde a uma faixa relativamente estreita do espectro EM (0.770 µm.39-0. O sol emite radiação no intervalo de 0. e 1Å = 10-1 nm.577 a 0.28 a 4 micrômetros.77 µm). A maior parte dos sensores de recursos terrestres operam nas seguintes regiões do espectro: visível. As unidades utilizadas são: milímetro (mm): micrômetro (µm): nanômetro (nm): Angstron (Å): 1mm = 10-3 m. o espectro solar abrange parte do ultravioleta . : 0. 1µm = 10-3 mm. A Figura 2 ilustra as principais regiões do espectro EM.e parte do infravermelho (IV).622 a 0. : 0. : 0.597 a 0.390 a 0.455 µm. A faixa da luz visível pode ser subdividida em: violeta azul verde amarelo laranja vermelho : 0.455 a 0. o qual é denominado de espectro solar. 1nm = 10-3 µm. compreendida dentro do espectro solar.14 ______________________________ Introdução ao processamento digital de imagens Figura 1 .Representação esquemática da captação de dados por SR Fonte Sensor Alvo O Espectro eletromagnético O espectro eletromagnético pode ser ordenado em função do seu comprimento de onda e sua freqüência. e : 0.577 µm.597 µm.492 a 0.492 µm. com seus respectivos intervalos de comprimento de onda. Além do visível. : 0.UV . . infravermelho e microondas.

A atmosfera contém vários gases (vapor de água.77 a 1. dada pela razão entre a REM que passa pelo total de energia incidente.Espectro eletromagnético 0. IV termal (Thermal Infra-red) : 7 a 15 µm. A emissão de ondas termais pela superfície terrestre é mais acentuada no intervalo de 7µm a 15 µm . As Janelas atmosféricas Antes de atingir o sensor instalado no satélite.3 a 3. atingindo o seu máximo em 9. b) aquecimento da superfície pelo sol. IV médio (Short Wave Infra-red) : 1.Características das Imagens de Sensoriamento Remoto ________________________ 15 Figura 2 . .3 m m Ultravioleta Raios gama 1A Raios X 10 nm Ultravioleta Visível 1m m Infravermelho 1 mm Microondas 1m Rádio 15 m m IV Distante 1 mm 4.7 µm.0 m m IV Termal 0. ozônio e dióxido de carbono) que interagem com a REM produzindo a absorção da energia em algumas faixas do espectro. e c) atividades humanas. A transmitância da atmosfera.3 m m IV Médio A faixa do infravermelho (IV) costuma ser dividida em: IV próximo (Very Near Infra-red) : 0.4 m m Azul Espectro Solar Vermelho 0. A energia termal é derivada das seguintes fontes: a) fluxo de calor radiogênico do interior da terra. varia com o comprimento de onda.0 µm.6 m m 0. a energia solar deve passar pela atmosfera terrestre duas vezes.3 µm.7 m m IV Próximo 1. uma no sentindo sol-superfície da terra e outra no sentido superfície da terra-satélite.5 m m Verde o 0. São denominadas de microondas as radiações EM produzidas por sistemas eletrônicos no intervalo de 1 mm a 1 metro. e IV distante (Far Infra-red) : 15 a 1000 µm.

4 0. A Imagem digital Figura 4 .16 ______________________________ Introdução ao processamento digital de imagens A Figura 3 mostra que aproximadamente 50% do espectro EM não se presta ao SR orbital. 1981.2 2.3 3. respectivamente. 0. já que a REM não consegue penetrar a atmosfera nestes intervalos. Linhas . Figura 3 . As faixas do espectro eletromagnético que permitem a passagem total ou parcial da REM são chamadas de janelas atmosféricas.2 3. a origem da imagem é sempre no canto superior esquerdo.Transmitância percentual da atmosfera terrestre 100 Transmitância 80 60 40 20 0 UV Visível IV PR IV Médio IV Termal 15 IV Dist. representadas por colunas e linhas.0 Comprimento de Onda (m m) 100 Transmitância 80 60 40 20 0 IV Distante 10m Microondas m Comprimento de Onda (m m) Modificado de Goetz & Roan.Formato da imagem digital Coordenada Superior Esquerda Colunas 1. As unidades ou células desta grade têm sua localização definida por um sistema de coordenadas “x” e “y”.1 1.2 Coordenada Inferior Direita A imagem digital (ou imagem discreta) é constituída por um arranjo de elementos (dígitos) sob a forma de malha ou grade regular.1 3.1 2.77 1.3 0. Por convenção.

Figura 6 .NC .ou digital number .ou pixel value .Representação dos formatos de gravação dos dados BIP (Band Interleaved by Pixel) BIL (Band Interleaved by Line) BSQ (Band Sequential) linha 1 ABCABCABCABC linha 1 AAAABBBBCCCC banda 1 AAAAaaaa linha 2 abcabcabcabc linha 2 aaaabbbbcccc banda 3 CCCCcccc banda 2 BBBBbbbb . portanto. que é caracterizada pela representação das feições em várias faixas do espectro. onde os valores de f são resultantes da intensidade (brilho) dos materiais da área correspondente ao pixel de coordenada (x..PDI .Brilho do pixel 255 255 255 255 255 255 255 255 255 255 255 255 255 255 255 255 255 255 0 255 255 0 0 0 0 0 0 255 255 0 255 255 255 255 255 255 255 255 255 255 255 255 255 255 255 255 255 255 a b (a) imagem hipotética composta pelos NCs mínimo e máximo. Esta intensidade.Representação esquemática dos dados de três bandas Linha 1 Linha 2 CCCC Linha 2 c c c c Linha 1 B B B B banda B Linha 2 b bbb A A A A banda A aaaa Linha 1 banda C Quadro 1 . denominada de nível de cinza . O pixel representa uma área da superfície da terra. representada por uma matriz f(x.y). referente à Figura 6. e (b) tonalidades preto e branco correspondentes. ou seja. O PDI tem capacidade para processar tanto dados de imagem monocromática.PV . CD-ROM e disco do computador). denominados de canais ou bandas. o menor elemento da grade é chamado de pixel (contração de picture element). quanto de imagem multiespectral. Exemplo: intensidade de luz refletida ou calor emitido. A cada pixel está associado um valor numérico que indica a intensidade da radiação eletromagnética da área da superfície da terra correspondente ao pixel. aquela que representa as feições em uma única faixa espectral. uma função bidimensional da intensidade de energia EM refletida ou emitida pela área imageada. Geralmente os dados das várias bandas são organizados em um dos formatos representados no Quadro 1.Características das Imagens de Sensoriamento Remoto ________________________ 17 Na imagem.y).ao conjunto de técnicas para a manipulação de imagens digitais no sentido de facilitar a extração de informações.DN . As imagens são gravadas em várias mídias (fitas magnéticas. é representada por tonalidades de cinza que variam do preto (nível mínimo) ao branco (nível máximo). A imagem digital é. Figura 5 . sendo também referida como o brilho do pixel (Figura 5). Denomina-se Processamento Digital de Imagens .

A resolução espacial pode ser definida como a habilidade que um sensor possui de distinguir objetos que são próximos espacialmente. que é a área do terreno “vista” pelo sensor em um dado instante.Instantaneous field of view sor. Em geral.18 ______________________________ Introdução ao processamento digital de imagens Resolução das imagens Resolução espacial Cada sensor é projetado para fornecer dados a um determinado nível de detalhe espacial. A referência mais usada para a resolução espacial.instantaneous field of view . Portanto. embora isso também dependa da reflectância e contraste entre os objetos próximos. é o tamanho do pixel. quanto maior o número de canais espectrais maior a . Uma premissa fundamental em SR é a possibilidade de discriminar materiais pela sua resposta espectral característica em diferentes faixas de comprimento de onda.Escalas de trabalho indicadas por algumas imagens Sensor NOOA/AVHRR RESURS-01 LANDSAT/MSS LANDSAT/TM SPOT MULTIESP SPOT PANCROMÁTICO Resolução espacial 1 km 160 m 80 m 30 m 20 m 10 m Escala < 1 000 000 1:500 000 a 1:1 000 000 1:250 000 a 1:500 000 1:100 000 a 1:250 000 1:50 000 a 1:100 000 1:25 000 a 1:50 000 Resolução espectral A capacidade de discriminação dos materiais da superfície da terra por SR fundamenta-se no comportamento dos mesmos ao longo do espectro eletromagnético. e as escalas de trabalho para as quais seriam mais indicadas. maior a resolução espacial. O Detector IFOV nominal é medido pelo ângulo do sistema ótico ou pela distância equiÓtica valente no terreno. só objetos maiores do que a área do pixel podem ser identificados. Quadro 2 . Quanto menor o objeto possível de ser identificado. a respectiva resolução espacial. Diferentes materiais podem ter respostas espectrais semelhantes em um determinado intervalo de comprimento de onda e respostas distintas em outra faixa do espectro.do senFigura 7 . O Quadro 2 relaciona algumas imagens disponíveis no mercado. O tamanho do pixel é definido pelo IFOV . IFOV Superfície da Terra Um dos fatores mais importantes para a escolha da imagem mais adequada a um projeto de levantamento de recursos terrestres é a resolução espacial.

resultando um arquivo de aproximadamente 41 Mb. A repetitividade é geralmente considerada em relação à posição de nadir. representados por níveis de cinza possíveis numa imagem e é expressa pelo número de dígitos binários (bits) necessários para armazenar o valor máximo de NC dos pixels. Por exemplo. A resolução temporal do LANDSAT/TM é de 16 dias. portanto. para armazenar 64 níveis são necessários 6 bits (26 =64). fora da posição de nadir. Os sensores com capacidade de imageamento lateral. portanto. A resolução radiométrica refere-se. Uma cena inteira do satélite LANDSAT é formada por aproximadamente 41 000 000 pixels (6 200 linhas por 6 600 colunas). ou seja. A resolução radiométrica implica diretamente no tamanho dos arquivos de imagem. a resolução de 8 bits (1 byte) permite representar 256 níveis (28 =256). é necessário um byte para cada pixel. Esta propriedade do sensor é referida como capacidade de revisita. a tomada da cena verticalmente abaixo do sensor. maior a resolução radiométrica. É também referida como periodicidade ou repetitividade. . Resolução temporal Refere-se à freqüência com que o sensor imageia uma determinada área. Quanto maior o intervalo entre os NCs máximo e mínimo. formando um certo ângulo com a vertical. A resolução espectral tem a ver com o número e a “finura” dos canais espectrais. apresentam a possibilidade de repetir o imageamento de uma certa área em um tempo menor do que em posição de nadir. enquanto a resolução temporal do SPOT é de 26 dias. aos níveis digitais. Para imagens com resolução de 8 bits.Características das Imagens de Sensoriamento Remoto ________________________ 19 capacidade discriminatória. Resolução radiométrica Os NCs dos pixels são representados por números inteiros que se enquadram dentro de um determinado intervalo. e é definida como a habilidade de separar coisas espectralmente semelhantes.

.

e c) o tipo de transformação sofrida pela radiação detectada.3 m m) termais (7 . Quadro 3 . b) a região do espectro em que operam. Os tipos de sensores podem ser classificados de acordo com: a) a fonte de energia.Tipos de sensores Critérios de classificação Fonte de energia Passivos Ativos ópticos microondas (1 mm a 1 m) Sistema de captação dos dados fotográficos eletroópticos não-imageadores refletivos (0.38 .15 m m) Sensor Região espectral . No caso específico do SR a energia utilizada é a radiação eletromagnética.Sistemas sensores Classificação dos sensores Usualmente os dados de sensoriamento remoto referemse a dados da superfície da terra coletados por sistemas sensores em satélites ou aviões. O sensor pode ser definido como um equipamento capaz de transformar alguma forma de energia em sinal que possa ser convertido em informação sobre o objeto sensoriado.

as ferramentas . visível próximo IV médio IV distante Sistemas de captação dos dados Sistemas fotográficos São câmeras fotográficas que possuem dispositivos para sincronizar o movimento do filme com o deslocamento do avião.38 0.22 ______________________________ Introdução ao processamento digital de imagens Fonte de energia Sensor passivo é aquele que depende de uma fonte de radiação externa para poder operar.0 croondas.3 3.38 µm a 3 µm e fluxo termal para os comEspectro óptico primentos de onda entre 7 e 15 µm (Figura Termal ou 8).0 7. no qual as radiações podem ser coletadas por sistemas ópticos.72 1. Enquadram-se nesta categoria os sensores à base de radar. Espectro óptico refere-se ao intervalo de 0. sendo por isso de fundamental importância em SR de recursos naturais. pela cobertura de nuvens e pelas condições atmosféricas.Espectro óptico radiação no intervalo de 0.3 0. O sensoriamento remoto óptico é aquele relacionado com duas categorias de radiação da superfície da terra: (a) a que incide nela e é absorvida ou refletida. São sensores ativos que podem operar 24 horas por dia. IV Os Sistemas de Microondas são sensores ativos à base de ondas de radar que operam na faixa das mi0. e (b) a que é emitida por ela. até recentemente. Os sensores fotográficos tiveram uma papel fundamental no desenvolvimento do sensoriamento remoto já que as fotografias aéreas tomadas através de sobrevôos especiais foram as primeiras e.0 15. 1978.38 a 15 µm. Enquadram-se nesta classificação todos os sensores que captam a radiação solar. Com base nestas Refletivo emissivo características os sensores ópticos são classificados como refletivos ou termais. Considera-se fluxo solar refletido a Figura 8 . Possuem a Comprimento de onda (m m) importante vantagem de não serem afetados Fonte: Swain e Davis. principalmente nas regiões tropicais. Os sensores ativos são os que produzem sua própria radiação. Região espectral Quanto à região espectral os sensores são classificados como ópticos ou de microondas.

A energia recebida pelo detector é então transformada em sinal elétrico. Exemplo: MSS e TM do LANDSAT. enquanto as fotografias aéreas necessitam de programas especiais de sobrevôo. Entretanto. (Figura 10. Existem três tipos de imageadores eletroópticos: sistema de quadro. transmitindo a reflectância dos materiais para o sistema óptico e o detector. Sistema de varredura eletrônica (Pushbroom Scanner) Utiliza um arranjo linear de detectores amplificados por lente grande-angular. Estes possuem uma repetitividade de imageamento. Os sistemas fotográficos atuam apenas numa parte restrita do espectro EM. Os sensores de quadro são também conhecidos como vidicons e tiveram origem a partir de sistemas de televisão. Os sinais são registrados linha a linha para formar a imagem (Figura 10. Possuem dois componentes básicos: o sistema óptico e o detector. transformado em valor digital e disposto numa matriz de colunas e linhas.Sistema fotográfico filme obturador objetiva Sistema de lentes e diafragma filtro Sistemas eletroópticos Nestes os dados são registrados na forma de sinal elétrico. A imagem é formada por tubo fotocondutivo (tubos de raios catódicos) que é varrida por um feixe de elétrons e transformada em um conjunto de sinais elétricos. Sistema de varredura mecânica (Eletromechanical Scanner) Sistema que utiliza um espelho de varredura que oscila perpendicularmente ao deslocamento da plataforma. Sistema de quadro (Frame System) A imagem da cena inteira é coletada de forma instantânea. Além disso. de varredura mecânica e de varredura eletrônica. Exemplo: o RBV -Return Beam Vidicon. que por sua vez é processado.B). as fotografias aéreas necessitam de mais manuseio para corrigir os deslocamentos off-nadir e os erros devidos à instabilidade do avião. o advento de sensores orbitais com alta resolução espacial e espectral tende a mudar este quadro. Figura 9 .A) O arranjo de detectores é organizado de modo que haja tantos detectores quanto forem os elementos da linha. entre o ultravioleta e o infravermelho próximo e não são utilizados nos sensores orbitais. O sistema óptico tem a função de focalizar a energia proveniente da cena sobre o detector.Sistemas Sensores __________________________________________________________ 23 mais utilizadas para os levantamentos cartográficos e de recursos naturais e para o planejamento urbano e regional. de modo que a reflectância de cada pixel é regis- .2 e 3.do Landsat-1. o qual cobre toda a seção perpendicular à faixa imageada.

menor e mais leve. •de uso militar. Quadro 4 . os dados de cada linha são captados simultaneamente pelo conjunto de detectores e a imagem é formada através do processo de varredura causado pelo deslocamento da plataforma. Desta forma. Este sistema é utilizado pelo SPOT.Varredura eletrônica detector sistema óptico detector B .Comparação entre os dois sistemas de varreduras Varredura eletrônica .Varredura mecânica espelho lentes faixa imageada faixa imageada Modificado de Mather.capacidade de operar nas regiões além do infravermelho próximo Figura 10 . •meteorológicas. Sistemas não-imageadores São os aparelhos que detectam a radiação na forma pontual e não tem capacidade para formar imagens.melhor desempenho sinal-ruído Varredura mecânica . 1987.não necesita de espelho móvel e fornece dados com melhor fidelidade geométrica . Fazem parte desta categoria os radiômetros e espectroradiômetros Plataformas orbitais Os sensores são instalados em plataformas orbitais projetadas para finalidades específicas.24 ______________________________ Introdução ao processamento digital de imagens trada por um detector. As principais são: •de observação da Terra.e •de posicionamento geodésico (GPS).Sistemas de varredura eletrônica e mecânica A . •de telecomunicação. . requer menos potência para operar .

em 1960. A partir daí. Em 1961. • sincronizada com o Sol ou Sol-síncrona . foram fabricados os primeiros radares de visada lateral (SLAR). a centenas de quilômetros da terra.Earth Resources Technology Satellite Program (mais tarde denominado LANDSAT). o que garante condições semelhantes de iluminação nas áreas de mesma latitude. começaram os serviços comerciais de sensoriamento remoto. Os foguetes foram utilizados por especialistas russos e americanos. Gemini e Apollo. surgiram a fotografia colorida e as películas infravermelhas (usadas na detecção de camuflagem) e começaram-se a utilizar sensores à base de radar. foram obtidas fotografias orbitais a partir de três programas espaciais da NASA: os programas Mercury. formando ângulo próximo de 90º com a linha do equador. os Estados Unidos. O primeiro satélite artificial . As fotografias aéreas foram aperfeiçoadas. Durante a 2a Guerra Mundial houve um desenvolvimento expressivo das técnicas de sensoriamento remoto. em 1909. O último satélite da série. Neste período foram também desenvolvidos foguetes com propósitos bélicos.Sistemas Sensores __________________________________________________________ 25 Tipos de orbita • geoestacionária . Alemanha e Canadá realizaram as primeiras coberturas sistemáticas completas de seus territórios. tendo servido de base para o projeto ERTS . em 1957. Este satélite usava um sistema de câmara de televisão de resolução relativamente baixa. o TIROS-10. Até 1966. foram desenvolvidos sistemas de radares imageadores (ForwardLooking Radar). marcou o início das observações orbitais sistemáticas da Terra. o desenvolvimento de aparelhos de SR se deu principalmente no âmbito militar. O lançamento do primeiro satélite meteorológico (TIROS). . Em 1930. Os avanços no desenvolvimento de foguetes permitiu que eles pudessem ser utilizados para colocar satélites artificiais em órbita. •polar . mantém um ângulo constante entre o Sol. para sondagem de camadas superiores da atmosfera. com o aperfeiçoamento dos processos de revelação e copiagem. Em 1954.é uma órbita quase-polar que Evolução dos sistemas sensores Das fotografias aéreas aos foguetes Atribui-se a Wilbur Wright a primeira utilização de fotografias aéreas. a Terra e o satélite. Mas neste ano.foi lançado pela URSS. um imageador infravermelho termal foi criado com características que escapou da classificação de “segurança” pelo Ministério da Defesa dos Estados Unidos. Este foi o início dos programas espaciais de pesquisa. O período da Guerra Fria foi marcado pela corrida espacial.circular de direção norte-sul. Cruzam sempre o equador no mesmo horário solar. como plataformas para instrumentos científicos.mantém uma posição fixa em relação a um ponto na superfície da terra.Sputnik 1 . De 1960 a 1970. Estas missões serviram para demonstrar a viabilidade do imageamento orbital e necessidade de métodos multiespectrais. foi lançado em 1965.

56º 3 000 km 12 horas quase-polar/sol sincrona Quadro 6 . O sensor AVHRR . .3 11. geomorfologia.5 Função mapeamento diurno de nuvens água.53 .National Ocean and Atmosphere Administration -. temperatura do mar. temperatura da superfície do mar. os sucessores passaram a chamar-se NOAA . temperatura da superfície do mar.3 . especialmente para o monitoramento de desmatamento e queimadas na Amazônia.Aplicações do Sensor AVHRR Canal 1 2 3 4 5 Faixa espectral 0.5 .0. Quadro 5 . a bordo do NOAA.58 . As imagens foram obtidas através de sobrevôos.10 3.1 km (nadir) 10 bits (1 024 níveis) +/.Características do AVHRR órbita altitude resolução espacial resolução radiométrica abertura angular faixa imageada ciclo de repetitividade 833-870 km 1. pode ser utilizado para estudos de recursos naturais de escala continental. Os programas TIROS e NOAA foram beneficiados pelas pesquisas desenvolvidas pelo programa NIMBUS.foram lançados entre 1960 e 1965.11. queimadas e atividades vulcânicas mapeamento (diurno e noturno) de nuvens.3. umidade do solo e atividades vulcânicas temperatura do mar e umidade do solo Nos satélites NOOA mais recentes outros sensores foram introduzidos para monitorar a distribuição de ozônio na atmosfera.26 ______________________________ Introdução ao processamento digital de imagens Em 1970.a partir dos quais foram compostos mosaicos na escala 1:250 000.68 0.Television and Infra-red Observation Satellite . geologia. pedologia e vegetação de todo o T erritório Nacional realizados pelo PROJETO RADAMBRASIL. realizou-se recobrimento sistemático de todo o território brasileiro com imagens de radar. entidade que assumiu a administração do Programa. vegetação e agricultura nuvens.725 .1. A partir de 1970.93 10. As principais aplicações são na meteorologia.12. uma série de oito plataformas lançadas entre 1964 e 1978 para pesquisa de instrumentos espaciais usados em satélites. com o sistema SLAR Side Looking Airborne Radar . coberturas de gelo e neve e estudos das condições das vegetação global. Estas imagens serviram de base para o mapeamento sistemático (1:1 000 000) de cartografia. Sensores de baixa resolução espacial NOAA/AVHRR Os satélites para observações meteorológicas da série TIROS .Advanced Very High Resolution Radiometer -.

/1984 Fim de operação Jan. 80 m 6 bits (64 níveis) Características orbitais do LANDSAT 5 Largura da faixa imageada: Órbita: Altitude: Inclinação: Período: Hora de cruzamento do Equador: Periodicidade: Abertura angular: 185km quase polar./1978 Jul.50 2.2º 99min 09:45 16 dias 11.4 LANDSAT .Thematic Mapper -.1 LANDSAT .0.6 .5 anos. O LANDSAT-6.7 ./1983 em órbita operando Sensor MSS/RBV MSS/RBV MSS/RBV MSS/TM MSS/TM O LANDSAT-4 apresentou problemas com o sistema de suprimento de energia.1 Canal 1 2 3 4 5 6 7 Resolução espacial Resolução rad.8 0.Multiespectral Scanner -. não conseguiu atingir sua órbita e caiu no mar.52 ./1975 Mar.0. o que apressou o lançamento do LANDSAT-5.7 0.60 0.3 LANDSAT . O sensor RBV (Return Beam Vidicon) foi utilizado apenas nos três primeiros satélites da série.55 .1. com 30 metros de resolução espacial.0. TM C.0. hélio-síncrona 705 km 98.12. com 80 metros de resolução espacial e. lançado em 1993. Os sensores são o MSS .56º .2 LANDSAT . de onde (m m) 0.69 0.75 10. de onda (m m) 0.5 Lançamento Jul./1983 Set.Sistemas Sensores __________________________________________________________ 27 Sensores de resolução espacial intermediária LANDSAT O LANDSAT da NASA foi o pioneiro entre os programas de SR para recursos naturais.45 . a partir do LANDSAT-4.2. mas está operando até hoje (1998). Este foi programado para um tempo de vida de 3.0.Características orbitais do LANDSAT-5 e dos sensores MSS e TM MSS Canal 4 5 6 7 C.35 30 m (b6: 120) 8 bits (256 níveis) Resolução espacial Resolução rad. o TM .Cronograma dos satélites LANDSAT Satélite LANDSAT . O LANDSAT-7 está programado para o ano 2000.5 .1.0.63 . Quadro 7 .52 0./1982 Mar.40 .6 0.90 1.0.8 .75 ./1978 Jul.08 ./1972 Jan. Quadro 8 .

59 m m 0. deverá incorporar outra banda ao sensor multiespectral no intervalo de 1. permitindo a obtenção de pares estereoscópicos de imagens de uma mesma cena (Figura 12).. Quadro 9 . O programa é gerenciado pela Agência Espacial Francesa . em parceria com a Suécia e a Bélgica. O SPOT-1 foi lançado em 1986.CNES.89 m m 20 metros 0.Système Probatoire d’Observation de la Terre -.0.75 µm. O SPOT-2 em 1990.68 m m 0.58-1.0. O SPOT-3 em 1993.HRV . terá a resolução esDireção de vôo pacial do sensor pancromático aumentada para cinco metros e do sensor multiespectral para dez metros. Estes sensores operam no modo pancromático (0.overlap (3 km) = 117 km 8 bits (256 níveis) 26 dias 10:30 4.0. com 20 m.51 .28 ______________________________ Introdução ao processamento digital de imagens Figura 11 . Varredura de oeste para leste 6 linhas por banda Os satélites SPOTS carregam a bordo dois sistemas sensores idênticos High Resolution Visible . de resolução.79 . foi iniciado pela França em 1978.Características do imageamento do Thematic Mapper .56º SPOT O programa SPOT .51-0. Incorporará também mais um instrumento para monitoramento da vegetação com 1 km de resolução.Características do SPOT Sensor Largura da faixa imageada Resolução radiométrica Resolução temporal Hora de passagem pelo Equador Abertura angular Visada off-nadir Multiespectral Canal 1 Canal 2 Canal 3 Resolução espacial Pancromático Canal Resolução espacial 0.TM Z Abertura angular: 11. O SPOT-5.0. com dez metros de resolução e no modo multiespectral com 20 metros de resolução. previsto Y para 1999. que podem ser ativados independentemente. O SPOT-4.73).13º até 27º (máximo 475 km) .61 . Um dos aspectos mais avançados do SPOT é a possibilidade de obtenção de visadas fora do Nadir .50 .73 m m 10 metros HRV (High Resolution Visible) 60 km + 60 km .

tornam este satélite um dos mais avançados do mercado. Quadro 10 .3 24 dias WiFS (wide) 24/5 (overlap) dias . 1991 (IRS-1B).50 .70 (IV médio) 0.0.68 (vermelho) 0. 1994 (IRS-P2). 1995 (IRS-1C).1C Sensor pancrom. O satélite IRS-1C produz imagens de resolução espacial de cinco metros.86 (IV próximo) 1.59 (verde) 0.0. aumentando substancialmente a gama de opções para os usuários.62 .75 (visível) 0.0.5 m 180 m 180 m Faixa imageada 70 km 142 km 142 km 142 km 148 km 774 km 774 km Repetitividade 24 (nadir) dias 5 (off-nadir) dias LISS .52 . tanto com sistemas óticos como com sistemas de microondas. Comprimento de onda (m m) 0.77 .Sistemas Sensores __________________________________________________________ 29 Figura 12 (a) Os sensores do SPOT HRV instruments (b) O recurso do apontamento lateral bit HRV 1 HRV 2 60 31 k km m 60 km km 60 km 117 95 80 k 0k m m As imagens do LANDSAT e do SPOT foram até recentemente as mais utilizadas no Brasil. 1996 (IRS-P4) e 1997 (IRS-P5). a possibilidade de apontamento para obter imagens offnadir e ainda a elevada resolução temporal (revisita de até cinco dias).77 .55 .Especificações de satélite IRS .0. Entretanto. 1996 (IRS-P3).1.0.62 . Este fato aliado aos canais multiespectrais semelhantes aos do LANDSAT/TM.68 (vermelho) 0.0. no modo pancromático. IRS (Indian Remote Sensing) Os satélites indianos da série IRS foram lançados em 1989 (IRS-1A).86 (IV próximo) Pixel 5m 25 m 25 m 25 m 70. uma série de novos sensores foram lançados recentemente ou estão em fase de construção.

7 m m 0. monitoramento de secas.GOME -. uso do solo.7 cm).8 . leva a bordo também o Global Ozone Monitoring Experiment . As cenas de 600 x 600 km são ideais para escalas entre 1:500 000 e 1:1 000 000. lançado em 1995.6 m m 0. Por operar na faixa das microondas. planejamento urbano e geologia. florestais.5 cm) e um sensor óptico (OPS). . Este tem recursos para observações estereoscópicas.5 .0.Características espectrais do RESURS .7 . Destina-se a preencher a lacuna entre o LANDSAT/MSS e o NOOA/AVHRR. JERS (Japan Earth Resources Satellite) Os satélites da série JERS . os dados são interessantes também para os países tropicais.12. e. inundação. O ERS-2.1.0.Japan Earth Resources Satellite . A utilização do radar de abertura real em plataformas orbitais era inviabilizado pela necessidade de uma antena muito longa. que mede traços dos constituintes da troposfera e estratosfera. contêm vários instrumentos sensores de microondas para estudo da superfície terrestre. ERS (European Remote Sensing Satellite) Os satélites da série ERS .4 . A possibilidade de revisita é de quatro dias.European Remote Sensing Satellite -. mais especificamente. RESURS-01 Satélite russo com resolução espacial de 160 metros. onde há constante cobertura de nuvens.possuem um sensor SAR. Este problema foi superado pelo advento do Radar de Antena Sintética – SAR -.01 Bandas 0. no qual grandes antenas são matematicamente simuladas. recursos marinhos. recursos hídricos.6 m m Resolução espacial 160 m 160 m 160 m 160 m 600 m Programas de radar orbital Até o início desta década todos os levantamentos à base de radar foram realizados por aviões. Quadro 11 .1 m m 10.30 ______________________________ Introdução ao processamento digital de imagens Os dados podem ser utilizados para várias finalidades: agricultura. imageando na banda C(5. O ERS-1 foi lançado em 1991.0. do oceano e do gelo. Graças a este recurso. imageando na banda L (23.8 m m 0. a partir do início desta década os sensores à base de radar passaram a ser utilizados em satélites.6 . O JERS-1 foi lançado em 1992.

59 m 0. da visada Parâmetros orbitais do satélite 120 km 120 km Altitude média: 778 km Período de recobrimento: 26 dias Órbita quase-polar. com resolução espacial variando de 100 a 10 metros. é considerado o mais avançado sistema de imageamento orbital por radar.69 m 0.52 .5 dias 900 km WFI Resolução espacial Periodicidade Larg. com resoluções espaciais e freqüências de observação variadas.2.63 .1. O programa compreende o projeto. a câmara CCD de alta resolução e o varredor multiespectral infravermelho (IR-MSS). sincronizada com o Sol A característica singular do CBERS é sua carga útil de múltiplos sensores.0.0.63 .MSS 0. para atender às especificações dos usuários.08 . Opera na banda C (5.10 m m 1. o que permite aumentar a freqüência das observações e a visão estereoscópica. é um projeto do governo brasileiro.5 m m 80/160(termal) 26 dias 0.75 m m 2.Brazil Earth Resources Satellites Sensores Modo pancromático Modo multiespectral Câmara CCD 0.52 m 0.35 m m 10.50 .0.12.4 .89 m 20 m 3 .0.6 cm de comprimento de onda). coordenado pela Agência Espacial Brasileira – AEB . desenvolvimento.Sistemas Sensores __________________________________________________________ 31 RADARSAT O programa canadense RADARSAT. que teve início em 1995 com o RADARSAT-1.1. testes e operação em órbita de cinco satélites.CBERS . zonas costeiras. SCD2 e SCD3) e dois de sensoriamento remoto da terra (SSR1 e SSR2).26 dias (nadir) m m m m IR . agricultura.0. .51 .45 .77 . gelo flutuante. MECB (Missão Espacial Completa Brasileira) A Missão Espacial Completa Brasileira – MECB -.73 m m 0. Quadro 12 .69 m m 0.0. florestas e geologia. com polarização HH. As principais aplicações são o monitoramento do gelo.76 . A câmara CCD tem a capacidade de apontamento lateral. três de coleta de dados (SCD1.90 m m 260 m 3 .55 .China .e executado pelo INPE. integração.0. Os três sensores imageadores são: imageador de visada larga (WFI). oceano. operando em diferentes módulos para obter imagens de 500x500 km até 50x50 km. Programas espaciais brasileiros CBERS (Satélites Sino-Brasileiros de Recursos Terrestres) Resultado de um convênio entre o Brasil e a China para o desenvolvimento de satélites de observação da terra.

periodicidade de 15 dias e possibilidade de revisita a cada três dias. Os principais projetos são: EarlyBird e Quickbird A empresa norte-americana EarthWatch pretende lançar dois satélites.2.32 ______________________________ Introdução ao processamento digital de imagens Quadro 13 .Sensor WiFS com 3 bandas no visível e uma no infravermelho (2. EarlyBird deverá carregar dois sensores: o primeiro.Periodicidade: 14 vezes ao dia Sensores com alta resolução espacial Uma nova geração de sensores.80 µm) terá a resolução espacial de três metros. programada para cobrir uma faixa de 2 200 km.08 . Os EROS A e B virão com resolução espacial de 1.5 e 1 metro. conforme o afastamento da posição Nadir.Características dos SSRs da MECB . 200. . 300 e 400 metros. que poderão ser integradas. SPIN 2 Produto do consórcio entre a Aerial Images (USA) e a Sovinformsputnik (Rússia). Destinam-se ao planejamento urbano e cartografia de precisão. caracterizados pela alta resolução espacial estão projetados para os próximos anos. . . respectivamente. Estes caracterizam-se também pela alta repetitividade das observações. entre as latitudes de 5º N e 15º S.35 m m). IKONOS 1 Satélite da Space Imaging EOSAT com um sensor pancromático com um metro de resolução e outro multiespectral (cinco bandas) com quatro metros de resolução.45-0.A resolução espacial no visível e infravermelho médio será de 100. Terá capacidade para produzir imagens pancromáticas e multiespectrais da mesma área. A possibilidade de estereoscopia facilita a produção de ortofotos e Modelos Digitais de Terreno – MDT. gerando um produto multiespectral colorido com um metro de resolução. enquanto o segundo sensor irá operar no modo multiespectral com três bandas nos intervalos verde.Órbita equatorial (0º). operando no modo pancromático (0. EROS A e B Satélites da West Indian Space pretendem colocar em órbita até 2002 oito satélites da série EROS. Periodicidade de 14 dias e com possibilidade de revisita de 1-3 dias pela utilização da visada lateral. . Carrega duas câmaras fotográficas capazes de produzir imagens de dois a dez metros de resolução. cobertura simultânea de imagens pancromáticas e multiespectrais. vermelho e infravermelho próximo e resolução espacial de 15 metros. O QuickBird terá resolução de um metro no modo pancromático e quatro metros no modo multiespectral.

0.45 .0.90 0.90 0.2.45 . Espectral imageada 0.50 µm.0.76 .60 0.90 0.Sistemas Sensores __________________________________________________________ 33 Quadro 14 .52 .61 0.88 0. conhecido como Hyperspectral Imager – HSI -.0. Resol.63 .52 0.5 3.0.5.2.0.77 .52 .0. Pan TK 1000 Pan TK 350 Pan IKONOS 1 14 dias 1-3 dias Multiesp. monitoramento ambiental e segurança.45 .52 0.3 Orbital Sciences Corporation Orb View .0.63 .0. Sensores de alta resolução espectral As imagens com alta resolução espectral têm aplicações em exploração mineral.4 16 dias < 3 dias Multiesp.45 .0.0.53 0. com imagens pancromáticas de um metro de resolução e multiespectrais de quatro metros.5 m 1m 1m 4m 1m 4m 8m 160 km 200 km 11 km 11 km 14 km 20 km 8 km 8 km 8 km 8 km 5 km 6 400 km 2 2 60 000 km 121 km 121 km 196 km 400 km 64 km 64 km 64 km 64 km 25 km 2 2 EROS A EROS B 15 dias 15 dias 3 dias 3 dias Pan Pan Pan 2 2 2 Orb View . 2 Pan 16 dias < 3 dias Multiesp.90 0.0.0.80 0.72 0. Hiperesp.90 0.90 0.0.0.45 .90 0.90 0.45 .0 .0.52 0.77 .59 0.0.0.0. no modo pancromático. Este sensor será combinado com outro.68 0.5 dias Pan Multiesp.5 .0 6 km 30 km 36 km 36 km Tamanho da cena 36 km 2 900 km 2 1 296 km 1 296 km 2 2 Aerial Images/ Sovinform sputinik Space Imaging/ EOSAT West Indian SPIN .50 .0.90 0.63 .2.0.89 0. 1988) Empresa Satélite Repetitividade Revisita Modo Pan Early Bird Earth Watch Quick Bird 20 dias 1. 2 2 2 Orb View A Orbital Sciences Corporation lançará em 1999 e 2000. 1m 4m 20 dias 1.0.0.69 0.0.51 .61 .53 .59 0.40 e 2.45 .64 . com resolução espacial de cinco metros.76 0.79 . ou Lewis. cobrirá de forma contínua o espectro EM entre 0. .76 0.60 0.0.0. NASA/TRW Hyperspectral Imager (Lewis) Este sensor.50 .0.5 .45 . agricultura.45 .Sistemas de alta resolução (Fonte: Schmidlin.76 . respectivamente.52 .45 .0.69 0.69 0. os satélites Orb View 3 e 4. Espacial 3m 15 m Faixa Resol. através de 384 bandas espectrais com resolução espacial de 30 metros.2 - - 2m 10 m 1m 4m 1.50 .51 .5 dias Multiesp.

. carregará um instrumento para gerar imagens hiperespectrais em 280 canais. além da alta resolução espacial (1 m no modo pancromático e 4 m no modo multiespectral).34 ______________________________ Introdução ao processamento digital de imagens Orbview 4 Este satélite da série Orbview (Orbital Sciences Corporation).

7 µm a reflectância é baixa devido à absorção causada pelos pigmentos. As propriedades espectrais de uma folha são função de sua composição química.56 µm).5 µm a influência maior é do conteúdo de água das folhas.3 µm a reflectância é alta devido à interferência da estrutura celular. morfologia e estrutura interna.95 µm. Os constituintes mais importantes para a radiação são: a celulose. A Figura 13 mostra a curva espectral média da vegetação sadia. De 0.7 µm a 1. Observa-se que até 0. os espaços intercelulares e os pigmentos. .Comportamento espectral dos materiais Neste capítulo são apresentadas as características espectrais gerais de alguns materiais da superfície da terra. Esta curva típica de cada material é chamada de assinatura espectral e constitui um padrão para identificação dos alvos de estudo por sensoriamento remoto. Comportamento espectral da vegetação As folhas são os elementos da vegetação que mais contribuem para o sinal detectado. De 1. com um pequeno aumento na faixa do verde (máximo em 0. com dois máximos de absorção em 1. os solutos (íons e moléculas).3 µm a 2.4 µm e 1. O registro gráfico da reflectância ao longo do espectro eletromagnético fornece uma curva que descreve as propriedades radiométricas de um determinado material. A reflectância dos materiais varia com o comprimento de onda.

36 ______________________________ Introdução ao processamento digital de imagens Figura 13 . No estado líquido apresenta uma reflectância baixa entre 0.70 µm. O aumento da concentração de materiais em suspensão implica o aumento da reflectância na faixa do vermelho. 1985.0 1.5 Modificado de Bowker et alii. Na forma de nuvens.0 2.5 2.5 Comprimento de onda Modificado de Bowker et al. A neve possui uma re- Nuvens Reflectância Neve Água 0.3 0. este comportamento é afetado pela concentração de materiais em suspensão e dissolvidos na água e pela profundidade do corpo d’água.Comportamento espectral da água A água apresenta um comportamento espectral distinto conforme o estado físico que se encontra (Figura 14).5 1. como ilustra a Figura 15. .5 1. Comportamento espectral da água Figura 14 .Assinatura espectral (média) da folha verde Pigmentos da folha Reflectância Estrutura celular Conteúdo de água da folha Clorofilacarotenóides H2O absorção H2O absorção 0.0 µm.0 2. a água apresenta altíssima reflectância..0 1.38 e 0.3 0. Todavia.3 µm e 2. 1985.7 µm.5 Comprimento de onda (m m) 2. As ondulações na curva espectral são devidas à leve absorção em torno de 1. absorvendo toda a radiação acima de 0.

e •umidade.5 µm. • granulometria (textura e estrutura).9 1.Reflectância da água superficial e a 20 metros de profundidade Reflectância 20 m nível superficial 0. Quando este conteúdo excede 2%. sendo esta diminuição mais acentuada quanto menor for a concentração de matéria orgânica.0 1. líquida (água) e gasosa (ar).5 0.Comportamento Espectral dos Materiais ______________________________________ 37 flectância altíssima no infravermelho próximo. mas decresce bruscamente no infravermelho médio.7 0. com picos de absorção em 1. •proporção de matéria orgânica.8 0. sendo que os principais fatores são: •constituição mineral.6 0. As combinações e arranjos dos materiais constituintes dos solos é que definem o seu comportamento espectral. Figura 15 .5 µm. 2. De forma simplificada são estes os efeitos dos constituintes dos solos sobre a reflectância: Água O aumento no conteúdo de umidade implica uma diminuição da reflectância em todo o espectro.0 µm e 2. Matéria orgânica A reflectância diminui à medida que aumenta o conteúdo de matéria orgânica.4 0. Comportamento espectral dos solos Os solos são compostos de substâncias em três fases: sólida (minerais e matéria orgânica). passa a mascarar as outras propriedades .1 Comprimento de onda (m m) Fonte: Alföldi. 1982.

38 ______________________________ Introdução ao processamento digital de imagens espectrais dos constituintes dos solos. enquanto as rochas ricas em magnésio e ferro (máficas) caracterizam-se pelas tonalidades escuras causadas pela baixa reflectância.8 1.57 m m 0. óxidos de ferro e minerais opacos.6 0.0 m m 2.9 m m 1.Regiões espectrais próprias ao estudo de propriedades dos solos (segundo Novo. 1992) Regiões espectrais 0.2 solo água 0 0. pois. É possível discriminar melhor o nível de matéria orgânica no visível e no infravermelho próximo até 1. à água. Entretanto a .8 2. Granulometria Os solos arenosos tendem a apresentar maior reflectância do que os argilosos.4 areia vegetação 0. Minerais opacos e óxido de ferro Diminuem a reflectância e mascaram as feições de absorção dos outros constituintes. vegetação sadia. Figura 16 .6 nuvem Reflectância 0.2 1. à areia e às nuvens.6 1. solo e areia % 0. ou seja.0 Comprimento de onda (m m) Quadro 15 .2 m m Propriedades matéria orgânica em solos sem cobertura vegetal conteúdo de composto de ferro férrico conteúdo de composto de ferro ferroso umidade do solo Comportamento espectral das rochas Em geral as rochas ricas em sílica (quartzo-feldspáticas) tendem a apresentar alta reflectância. A Figura 16 apresenta a curva média da reflectância dos solos em relação à vegetação.7 m m e 0. também.0 1.4 0.2 µm. são mais pobres em matéria orgânica.Comparação entre as curvas de reflectância da água.4 1. constituintes que reduzem a reflectância.

74 m m Propriedades identificação de ferro indicação de zonas de alteração hidrotermal ricas em argila identificação de minerais de argila detecção de minerais com presença de hidroxilas na estrutura m m Comportamento espectral de áreas construídas Nas áreas construídas verifica-se.4 0. enquanto a resolução espectral está relacionada com a capacidade de discriminação dos alvos espectralmente semelhantes.2 m 2.8 0.Comportamento Espectral dos Materiais ______________________________________ 39 presença de minerais opacos (ex. A resolução espacial está relacionada com a escala de trabalho.0 m 1. in Viadana.: magnetita). fundamentais: a resolução espacial e a resolução espectral. As rochas sedimentares arenosas tendem a apresentar maior reflectância e bandas de absorção mais bem definidas do que as argilosas. Os principais constituintes responsáveis pela resposta espectral das rochas sedimentares são o ferro. Quadro 16 .9 das bandas espectrais para um deterComprimento de onda (m m) minado projeto. Por isso.7 0. dois parâmetros são Adaptação de ASP. devendo ser levada em consideração no momento da aquisição das imagens. diminui substancialmente a reflectância das rochas quartzo-feldspáticas.Comportamento espectral das feições urbanas/suburbanas % 50 Grama 40 Concreto Reflectância 30 Areia 20 Cascalho Terreno baldio Critérios para seleção das imagens 10 Asfalto Na hora da seleção do sensor e 0.Regiões do espectro indicadas para estudos das rochas e dos minerais (segundo Novo. o analista deve balancear o maior poder discriminatório da resolução espectral 0 . para a maioria dos materiais.6 0. o carbono orgânico total e as argilas. 1992) Região do espectro 0. Portanto. 1995.8 m m a 1. A resolução espectral pode ser decisiva para a capacidade discriminatória de muitos alvos. 1983. um ligeiro aumento da reflectância do visível para o infravermelho próximo.5 0. Algumas aplicações dos canais espectrais do LANDSAT/TM são descritas no Quadro 17.60 m m 2. Quanto maior a gama de opções em termos de canais (resolução espectral) maior será a capacidade discriminatória do sensor. o conhecimento da assinatura espectral auxilia na escolha da melhor combinação de canais para a discriminação dos alvos. sendo que o concreto destaca-se pela reflectância relativamente alta em relação ao asfalto (Figura 17).17 m m e 2. A Figura 18 ilustra a abrangência espectral dos sensores SPOT nos modos multiespectral e pancromático e LANDSAT/TM e a relação inversa entre a resolução espacial e a resolução espectral destes três sensores. Figura 17 .

8 1. em função da escala e objetivos do projeto.0 1.63 m m .0 2.08 m m .52 m m .2.5 0.50 m m (IV distante) 2.Resolução de espectral dos sensores SPOT e LANDSAT/TM SPOT PAN SPOT PANCROMÁTICO Res.90 m (IV próximo) 1.: 10 m 3 1 2 SPOT MULTIESPECTRAL Res.0. fazer a melhor seleção das imagens.69 m m (vermelho) m 0.7 0.3 2. Figura 18 .40 ______________________________ Introdução ao processamento digital de imagens do LANDSAT/TM com a melhor resolução espacial do SPOT.75 m m (IV médio) 10.0.4 1.Algumas aplicações das bandas do LANDSAT/TM Banda 1 2 3 4 5 6 7 Faixa espectral 0.4 0.8 1.9 1.40 m m .0.3 1.52 m m (azul) 0.76 m m .60 m m (verde) 0.6 1.5 1.2 1.35 m m (IV médio) Aplicações Estudos de sedimentos na água Mapeamento de águas costeiras Diferenciação solo/vegetação Estradas e áreas urbanas Mapeamento de vegetação (maior reflectância dos canais do visível) Estradas e áreas urbanas Espécies vegetais (absorção da clorofila) Levantamento da biomassa (pico da vegetação sadia) Delineação de corpos d’água Mapeamento de rios e corpos d’água Umidade da vegetação e solos Estresse térmico em vegetação Propriedades termais dos solos e rochas Estudos de rochas e minerais Umidade do solo e vegetação . para.0.12.1.6 0.1 2.1 0.9 2.2 2.55 m m .45 m m .4 Quadro 17 .: 30 m 0.7 Comprimento de onda (m m) 1.: 20 m 5 7 1 2 3 4 LANDSAT TM Res.

cujo intervalo de valores depende da resolução radiométrica da imagem. . No histograma. enquanto o eixo Y representa a freqüência relativa dos NCs. c e n a s Figura 19 . Entre ta nto . Os realces mais utilizados são produzidos através da manipulação do contraste. Para isso são utilizadas técnicas denominadas genericamente de realces. o eixo X representa os NCs. Histogramas de imagens O histograma é uma representação gráfica da freqüência de distribuição dos NCs de uma imagem.Histograma de uma imagem % Freqüência 0 Níveis de cinza 255 A altura da barra mostra a freqüência dos pixels com um determinado nível de cinza. A maioria das imagens produzem histogramas unimodais. com distribuição normal (gaussiana) ou lognormal.Manipulação do contraste Um dos principais objetivos do PDI é a melhoria da qualidade visual da imagem para facilitar a interpretação.

Contraste e brilho de imagens a) Cena com baixa radiância b) Cena com alta radiância % % Nível de cinza Nível de cinza c) Cena de baixo contraste d) Cena de alto contraste % % Nível de cinza Nível de cinza Fonte: Schowengert. a cena incluir tanto materiais de baixa quanto de alta radiância. 24 a 210). Os histogramas unimodais de baixo contraste com média baixa indicam predominância de materiais de fraca radiância. por outro lado. O brilho dos pixels é dado pela posição das barras verticais mais à direita (brilho alto) ou mais à esquerda (brilho baixo). que é dado pela largura da base do histograma. A forma do histograma e os parâmetros estatísticos fornecem informações sobre o contraste e o brilho da imagem. denotando um baixo contraste. por exemplo). os valores registrados pelo sensor ocupam uma pequena parte do intervalo possível de valores. de forma que eles são exibidos num intervalo maior. para um determinado canal espectral. ao contrário. Geralmente.42 ______________________________ Introdução ao processamento digital de imagens com áreas espectralmente muito distintas poderão produzir histogramas bimodais ou multimodais. os NCs ocuparão uma faixa larga do intervalo radiométrico (por exemplo. na cena existirem apenas materiais de baixa radiância neste canal. O objetivo é apresentar a mesma informação contida nos dados brutos. A média pode ser o parâmetro estatístico indicativo do brilho da imagem. Contraste e brilho da imagem O contraste da imagem refere-se à distribuição dos NCs no intervalo radiométrico. Estas técnicas são chamadas de realces de contraste. ou seja. Vamos exemplificar assumindo uma resolução de oito bits. Os realces de contraste produzem uma ampliação do intervalo original de níveis de cinza. esta imagem aparecerá escura. Os NCs estarão concentrados num pequeno intervalo (16 a 74. representa imagem de alto brilho (Figura 20). Estatisticamente é expresso pela variância. Realces de contraste Os níveis de cinza de uma imagem podem ser manipulados com o objetivo de melhorar a visualização da cena e aumentar a quantidade de informação que pode ser extraída visualmente. . denotando um alto contraste. um intervalo de NC de 0 a 255. Se. o contraste depende da assinatura espectral dos objetos presentes na cena imageada e varia com o comprimento de onda (canal). Se. Figura 20 . Para um determinado sensor. O contraste é diretamente proporcional ao espalhamento dos níveis de cinza. resultando imagens de baixo brilho. 1983. A média alta.

para valorizar mais os NCs mais freqüentes. implicando uma alteração do histograma. ao se aplicar a LUT. Figura 21 . o . O overflow representa uma perda de informação em benefício de um realce maior da porção central do histograma. as quais 0 63 127 191 255 o N de cinza de entrada armazenam a informação sobre os valores originais (entrada) e transformados (saída) para cada Os NCs do intervalo 63-191 são NC. chamada de função de transferência de contraste (FTC) ou função de mapeamento. desprezam-se NCs pouco freqüentes.Manipulação do Contraste ___________________________________________________ 43 porém de uma forma mais claramente visível ao intérprete. Os NCs da imagem original são linearmente redistribuídos. gura 21. evitando a repetição do cálculo para cada pixel da imagem e. todo o intervalo possível de valores é utilizado para aumentar o contraste e conseqüentemente melhorar a aparência da imagem. portanto. O overflow é a transformação de um intervalo de NC em um único NC (Figura 24). ou seja. é desprezar os extremos dos histogramas. são remapeados de forma que o NC 63 é convertido para 0 e o NC 191 é convertido para 255 e os valores intermediários são redistribuídos segundo alguma função matemática. agilizando o processo. Um caso particular de realce linear é aquele no qual todo o intervalo de NC é considerado. A FTC linear é uma reta e apenas dois parâmetros são controlados: a inclinação da reta e o ponto de interseção com o eixo X. O mais comum. LUT O realce é executado através de uma função matemática. que transforma os valores originais de níveis de cinza da imagem em novos valores.Representação gráfica de uma FTC linear 255 N de cinza de saída 191 127 63 Nos sistemas de processamento de imagens os realces são implementados através de tabelas denominadas de LUT . com manutenção de suas posições relativas. segundo a FTC escolhida. todos os NCs=63 na imagem de entrada serão convertidos em NC=0 na imagem de saída. segundo uma função linear. Neste caso. Realce linear Consiste no aumento do espalhamento dos NCs.Look-up Tables. entretanto. produzindo overflow. No realce MinMax não há overflow. No exemplo da Fiampliados para o intervalo 0-255. maior a expansão do contraste. concentrados no intervalo de 63 a 191. A FTC pode ser linear (representada graficamente por linha reta) ou não-linear (representada por algum tipo de curva). No exemplo da Figura 21. os NCs originais. o menor valor de NC da imagem (NCmin) é convertido a zero e o maior valor (NCmax) é convertido a 255. Desta forma. de modo a realçar mais a porção central. Este é denominado realce MinMax (Figura 23). Quanto maior a inclinação da reta.

.44 ______________________________ Introdução ao processamento digital de imagens Figura 22 . em a2 a função f2 promove espalhamento representado em b2. 1983. em a3 a função f3 produz um espalhamento maior que f2 representado em b3 Fonte: Schowengerdt.Realce linear Y NC 1 a1 f1 b1 NC a2 f2 X NC 1 Nível de cinza transformado b2 a3 f3 b3 FTC Histograma Em a1 a função f1 não altera o histograma original b1.

segundo uma distribuição gaussiana. 1997. O método visa a enquadrar os dados.Realce minmax NCs originais da imagem 255 NC da imagem realçada 0 51 102 153 204 255 Realce de equalização Uma limitação do realce linear é não levar em conta a freqüência dos NCs. A transformação do histograma é no sentido de uma expansão (aumento de contraste) dos intervalos centrais e uma compressão (perda de contraste) dos intervalos laterais. e contidos em um desvio paO intervalo de 35 a 82 é expandido. segundo diferentes funções ao longo do intervalo radiométrico. resultando em dois ou mais segmentos de reta com diferente inclinação. com os Histograma de entrada dados assim distribuídos em torno da média: 60. drão (σ). 95. O realce de equalização é uma função de transferência não-linear que leva em conta a freqüência dos níveis de cinza. 0 Figura 23 . Os NCs do intervalo 82-118 são transformados em 255. ou seja. Figura 24 .45% em dois σ e 99. Fonte: PCI. .7% Os NCs do intervalo 15-35 são transformados em 0. o espalhamento será maior para os NCs mais freqüentes. também chamada de normalização do histograma.Overflow 255 Histograma de saída NC = 15 NC = 35 NC = 82 NC = 118 0 0 255 Realce gaussiano A característica da distribuição normal ou Gaussiana é o histograma na forma de sino.Manipulação do Contraste ___________________________________________________ 45 O realce linear por partes (linear piecewise stretch) consiste na aplicação do espalhamento linear.73% em três σ.

46

______________________________ Introdução ao processamento digital de imagens

Figura 25 - Realce de equalização

NCs originais da imagem 0 255 NC da imagem realçada 0 51 102 153 204 255

O aumento do desvio padrão produz um alargamento da curva de distribuição, com aumento do contraste. O efeito contrário pode ser obtido pela redução do desvio padrão. Em alguns softwares, a média também pode ser deslocada ao longo do intervalo radiométrico, o que permite aumentar ou reduzir o brilho da imagem.

A normalização do histograma é particularmente útil para equiparar imaFonte: PCI, 1997. gens diferentes em termos de média e desvio padrão, assim como em composições coloridas, para produzir um bom balanceamento das cores das três bandas.
A população de maior freqüência é realçada enquanto a população menos freqüente é comprimida.

Realce de raiz quadrada
Os níveis de cinza são expandidos, segundo a função de raiz quadrada promovendo um aumento do contraste, principalmente, na porção inferior do histograma de entrada. Tende a conferir um aumento geral no brilho da imagem.

Realce negativo
Produz a inversão dos valores de NC: as áreas escuras tornam-se claras e vice-versa.

Realce de infreqüência
Esta função produz uma imagem de saída na qual os níveis de cinza menos freqüentes recebem valores mais elevados de nível de cinza e vice-versa. A FTC é expressa pela inversão do histograma da imagem de entrada.

Realce logarítmico
A curva de transferência é uma função logarítmica, com uma inclinação maior na porção relativa aos NCs de baixa intensidade, a qual vai progressivamente tendendo à horizontal nos NCs de alta intensidade. Visa a realçar a informação contida nas porções mais escuras de uma imagem, às custas de um baixo realce das porções mais claras.

Manipulação do Contraste ___________________________________________________

47

Figura 26 - Realce logarítmico
255 %

No de cinza de saída

Histograma original

0 0

Níveis de cinza de entrada

255

0

(b) Histograma da imagem realçada

255

(a) Função de transferência

Realce exponencial
Tem um efeito inverso ao do realce logarítmico. A curva de transferência é mais suave nas porções inferiores e aumenta progressivamente, realçando as porções mais claras da imagem, às custas de menor contraste nas porções mais escuras.

Figura 27 - Realce exponencial
%
No de cinza de saída

%

Histograma original

0

Níveis de cinza de entrada (a) Função de transferência

255

0 (b) Histograma da imagem realçada

255

Realce parcial (piecewise stretch)
Em algumas análises pode ser necessário examinar certas feições com maior detalhe. Através desta técnica pode-se utilizar todo o intervalo para expandir os níveis de cinza que representam uma determinada feição. Na Figura 28 o histograma bimodal pode representar feições aquáticas (NCs mais baixos) e feições terrestres (NCs mais altos). O realce parcial visa a destacar apenas as primeiras, desprezando, portanto, as informações terrestres.

48

______________________________ Introdução ao processamento digital de imagens

Figura 28 - Realce parcial

NCs originais da imagem 0 255 NC da imagem realçada 0 51 102 153 204 255

A população 1 (NCs mais baixos) é realçada, enquanto a população 2 (NCs mais altos) é toda convertida para o NC 255. Fonte: PCI, 1997.

Limiarização (thresholding)
Figura 29 - Limiarização
% 255

17

É uma técnica para dividir os níveis de cinza de uma imagem em uma ou duas categorias, acima e abaixo de um determinado patamar. Este é um dos vários métodos para criar uma máscara binária (bitmap) para a imagem.
255 NC de entrada b

NC de saída

Freqüência

0

Níveis de cinza a

255

0

17

terra água

c

Modificado de PCI, 1997.

Na Figura 29 o histograma da imagem (a) mostra a existência de duas populações cujo limite situase em NC=17. A transformação segundo a função de transferência de contraste (b) reduz uma população a 0 e a outra a 255. A imagem resultante (c) é composta por apenas dois valores e pode também ser representada por uma máscara binária, com valores de 0 e 1.

Por isso elas foram chamadas de cores primárias aditivas. •magenta .R + g.como resultado da adição de verde e vermelho.G. também podem resultar numa gama imensa de cores. ele pode distinguir milhares de cores.como resultado da mistura de verde e azul. verde (G) e azul (B). verde e azul. uma enorme variedade de cores pode ser produzida pela adição de vermelho. em diferentes proporções. Um efeito complementar pode ser obtido pela subtração de vermelho. Tipicamente. verde e azul da luz branca.b são os coeficientes da mistura. . •ciano (cyan) . a produção de uma cor C a partir de cores primárias aditivas pode ser definida pela equação: C = r.B são as cores primárias e r.B. Assim a subtração de vermelho produz ciano. As pesquisas de Thomas Young (1773-1829) demonstraram que uma série de cores pode ser obtida a partir de combinações do vermelho (R). 0 a 255). as seguintes cores foram produzidas: •branco . variando-se a intensidade. Portanto. onde R.g. Ciano.Formação das cores O modelo RGB Embora o olho humano possa perceber apenas 20 a 30 tons de cinza.como resultado da mistura das três cores. No modelo RGB.como resultado da mistura do vermelho e azul.G + b. subtração de verde produz magenta e subtração de azul produz amarelo. magenta e amarelo foram chamadas de cores primárias subtrativas cujas combinações. que no caso das imagens digitais é dada pela intensidade representada pelo NC do pixel (por exemplo. e •amarelo .

por registrarem dados em várias faixas de espectro EM. em geral. Este é o eixo acromático que representa as tonalidades de cinza. O sistema visual humano. cada lado representará 65 280 cores. A forma mais usual de combinação é através da combinação de três imagens (triplete). o mesmo ocorrendo com as imagens colocadas no verde e no azul. A linha mais espessa que liga os vértices do preto ao branco representa cores forbranco madas pela soma de iguais quantidades preto verde de luz vermelha. Esta é uma forma de sintetizar três imagens em uma e ao Figura 31 . Através desta técnica.Formação da composição colorida (RGB) mesmo tempo representá-las em cores. não consegue perceber as variações muito sutis. verde e azul for igual.50 ______________________________ Introdução ao processamento digital de imagens Os monitores de sistemas de processamento de imagens são. Notar que a luz branca é formada pela soma dos máximos RGBs. Para isto são utilizadas as três cores primárias: vermelho. Cada lado do cubo é formado por duas cores. formadas pela combinação da intensidade possível de azul ciano cada cor. magenta vermelho Imagem monocromática/falsa/pseudocor As imagens de sensoriamento remoto multiespectral.Cubo de cores za variam de 0 a 255. permitem a combinação de bandas. Se a intensidade de luz vermelha. Portanto. a imagem colocada no plano de cor vermelha terá seus níveis de cinza convertidos em níveis de vermelho. As cores reImagem 1 RED sultantes não têm nada a ver com as cores reais dos Imagem Imagem 2 materiais no terreGREEN falsa cor no. porém. com intensidade variando de 0 até o máximo. sendo por isso denominadas de Imagem 3 composição falsa BLUE cor (Figura 31). uma imagem monocromática será formada quando a intensidade de luz vermelha. contendo portanto todas as possíveis misturas das cores que o definem. verde e azul for desiamarelo gual. verde e azul (r=g=b). Se os níveis de cinFigura 30 . . A Figura 30 mostra que os vértices do cubo representam as cores primárias puras. cada uma colocada num “filtro” ou “plano de cor”. resultando numa composição colorida. haverá a formação de uma cor. o que dá um total de 16 711 680 tonalidades. capazes de representar cada uma das cores primárias em 256 níveis de intensidade. verde e azul.

A pseudocor é formada através da manipulação de Look-up Tables (LUTs) como mostra a Figura 33. na Figura 32. para a produção de imagem pseudocor. A Figura 33 b. pois. Se os NCs forem iguais para os três planos de cor. verde e azul. o display será monocromático. mostra as LUTs transformadas de forma que para um mesmo NC haverá uma intensidade de cor distinta em cada plano de cor. o pixel assinalado será formado pela intensidade igual (NC=102) de vermelho. resultando num cinza médio. Isto é ilustrado pela Figura 32. . os pixels terão o mesmo NC no vermelho.Formação das cores Imagem 1 108 109 110 104 114 102 101 104 107 98 100 111 9 3 2 Imagem 2 7 2 0 4 5 2 3 1 1 238 247 252 Imagem 3 236 250 255 244 248 250 241 251 253 Filtros de cor RED GREEN BLUE Composição colorida A imagem monocromática é formada quando a mesma banda é colocada nos três planos de cor. Se. na qual o pixel assinalado terá uma cor resultante de intensidade máxima de azul com intensidade média de vermelho e nenhuma contribuição do verde.Formação das Cores ________________________________________________________ 51 Na composição colorida cada pixel terá a cor resultante da combinação da intensidade das cores primárias expressa pelo NC. Pseudocor: É a transformação de uma imagem em preto e branco em imagem colorida pela conversão dos níveis de cinza de imagem unidimensional em três dimensões de cores. verde e azul. neste caso. Figura 32 . Na parte superior da figura (a) são mostradas as LUTs nas quais a intensidade de cor corresponde ao NC da imagem. a imagem I for colocada nos três planos de cor.

(b) As LUTs são alteradas para produzir intensidade de cor distinta em cada plano de cor. .LUT para display monocromático e pseudocor Vermelho Verde Azul 255 Intensidade de cor 0 0 255 0 255 0 255 Níveis de cinza (a) LUT para display monocromático 255 Intensidade de cor 0 0 255 0 255 0 255 Níveis de cinza (b) Pseudocor (a) A intensidade de cor corresponde ao NC da imagem.52 ______________________________ Introdução ao processamento digital de imagens Figura 33 .

Intensity (intensidade) é a medida do brilho da cor. Hue (matiz. segundo os níveis de cinza correspondentes à profundidade da água. Saturation) O modelo do HSI ou do hexacone usa os conceitos de hue (H). azul. Hue. Transformação IHS (Intensity. por exemplo. As feições aquáticas foram fatiadas. enquanto o intervalo 150-180 é representado pelo ponto Q. nuança da cor) é o que a gente percebe como cor (vermelho. púrpura e rosa). é representado por um ponto no cubo RGB (Figura 34). Fonte: Mather. como.Representação gráfica do fatiamento Ciano Azul Magenta Branco 180 150 P b1 90 75 Q b2 Verde g2 g1 Preto Vermelho Amarelo r1 r2 O intervalo 75-90 de NC é representado pelo ponto P do cubo de cores. saturation (S) e intensity (I) para explicar a idéia de cor. É dado pelo comprimento de onda dominante do espectro EM. Saturation (saturação) é o grau de pureza da cor. 1987. 75-90. pode ser considerado como a proporção de branco misturado com a cor. A cor pura é 100% saturada. A Figura 35 mostra uma imagem composta por feições terrestres e aquáticas.Formação das Cores ________________________________________________________ 53 Fatiamento (Density slicing) É a subdivisão dos níveis de cinza de uma imagem monocromática em intervalos que são representados por cores. Figura 34 . Cada faixa do intervalo. .

nas três bandas selecionadas. que varia do branco até a cor pura. O matiz é representaFigura 36 .50 o eixo central representa a saturação. ao invés do cubo como o sis0 . I Figura 35 . Esta independência permite processar os atributos separadamente. matiz e saturação do triple- H 0.Transformação IHS TM 1 I TM 2 TM 3 H S Realce Linear R G B R G B . representadas pela Figura 37.0 branco vermelho azul magenta A vantagem do modelo IHS é definir as cores por três atributos (I. Estes atributos podem ser analisados e manipulados individualmente. A transformação IHS é feita em múltiplas etapas.54 ______________________________ Introdução ao processamento digital de imagens O sistema IHS utiliza o hexacone invertido para represenNC (Água) tar as cores.H. As cores representam níveis de profundidade da água.S) ao invés da intensidade das cores primárias. ao contrário do sistema RGB.30 0 a 1. Primeiramente. Tal procedimento não é possível no modelo RGB. representando intensidade. por exemplo. A intensidade varia de NC terra > 50 15 .Modelo de hexacone do como uma seqüência radial ao redor do eixo da intensidade. Quanto mais distante do branco.15 tema RGB (Figura 36). onde eles estão intrinsecamente interligados. maior a saturação. realçar apenas a intensidade (I). do ápice à base.0 preto S Figura 37 . o programa faz a transformação matemática para IHS.Imagem fatiada verde amarelo ciano 1. A distância radial até 30 .

b) fusão de imagem de radar com imagem ótica. b) aplicar o aumento de contraste nos componentes H e S e na imagem a ser fundida (SPOT.Fusão de três bandas de imagem TM com SPOT SPOT PAN R G B TM 3 I H S R G B TM 1 R G B TM 2 . e d) aplicar a transformação inversa IHS → RGB. Exemplos: a) fusão de imagem SPOT pancromática (composta por apenas uma banda) com imagem TM (Figura 38). O procedimento envolve: a) calcular os componentes IHS das bandas originais. Figura 38 .Formação das Cores ________________________________________________________ 55 te original. c) fusão de imagem classificada com duas bandas espectrais para produzir uma visualização das classes superposta aos tons da imagem. para produzir uma imagem colorida com a resolução espacial de 10 metros. e combinar diferentes tipos de imagens ou mesmo imagens de natureza diferente. principalmente quando a correlação interbandas é alta. Esta técnica é utilizada para duas finalidades: melhorar a utilização do espaço de cores. c) substituir o componente I pela imagem a ser fundida. A seguir. aplica-se um aumento linear de contraste e faz-se a reversão das três imagens para o espaço RGB. radar ou classificada). para produzir uma composição colorida que apresente as estruturas e relevo presentes na imagem de radar.

.

Adição Consiste na soma. O requisito básico para estas operações é que as imagens estejam registradas.3 do LANDSAT/TM . •Subtração. que haja uma perfeita superposição de pixels correspondentes. As operações aritméticas visam: a) à redução da dimensionalidade dos dados que é obtida através das técnicas de compressão. b) ao realce das similaridades (adição e multiplicação). e •Divisão (razão espectral). pixel a pixel. As operações aritméticas são utilizadas em análises multiespectrais (diferentes canais espectrais de uma mesma cena) e em análises multitemporais (a mesma imagem em diferentes datas).Operações aritméticas com imagens O processamento digital permite operações aritméticas entre imagens. Exemplo: soma das bandas 1. ou c) ao realce das diferenças (subtração e divisão). formada pela média de bandas adicionadas. As mais importantes são: •Adição. dos NCs e na divisão pelo número de imagens somadas.2. ou seja. As operações são efetuadas entre os NCs dos pixels correspondentes nas diversas imagens. É utilizada para: Redefinir uma nova banda. •Multiplicação.

e • para os sensores com apontamento lateral como o SPOT. a subtração do canal 7 (0. Para a análise multitemporal. • Subtração de bandas de imagens da mesma data É usada para a identificação de diferenças com base no comportamento espectral dos materiais. Exemplo: soma de imagem filtrada (realce de borda) com a imagem original para combinar a informação tonal da imagem original com a informação textural da imagem filtrada. Elipsóide e Datum.63-0. que são então divididos por dois. diferenças sazonais na vegetação. As diferenças são detectadas pelo afastamento para cima ou para baixo deste valor central.45-0. alguns cuidados devem ser tomados: • as imagens devem ser registradas no mesmo Sistema de Projeção. os quais apresentam alta reflectância no vermelho e baixa reflectância no azul. Combinar imagens originais com imagens processadas. é necessário fazer um ajuste.6-0.7µm) do LANDSAT/MSS poderá realçar diferenças na cobertura vegetal. os pixels nos quais não houve alteração significativa dos NCs ficarão situados em torno do valor 127 (Figura 39). expansão de áreas urbanas ou agrícolas.1µm) pelo canal 5 (0.8-1. para minimizar os efeitos causados pelo ângulo de inclinação do sol. devido a alterações ocorridas na superfície da terra. em diferentes datas.69 µm) pelo canal 1 (0. Numa imagem assim processada. mudanças no uso do solo. Exemplos: a) em estudos de vegetação e meio ambiente.52 µm) do LANDSAT/TM serve para realçar minerais formados por óxidos de ferro e formações lateríticas. Como somente os valores no intervalo de 0 a 255 podem ser representados. .58 ______________________________ Introdução ao processamento digital de imagens para produzir uma única banda da faixa do visível. que seria expressa pela equação Bv = (b1 + b2 + b3) / 3. A subtração de imagens com resolução radiométrica de oito bits produz resultados no intervalo -255 a +255. verde e vermelho do espectro eletromagnético por uma única banda (Bv ). as imagens devem ter o mesmo ângulo de visada. • as imagens devem ser tomadas em horário solar próximo. tais como: desmatamento. Subtração • Subtração de imagens de diferentes datas A análise temporal baseia-se nas diferenças da resposta espectral. e b) em pesquisa mineral a subtração do canal 3 (0. Um método de ajuste é adicionar 255 ao resultado da subtração para transformar os valores para o intervalo 0 a 510. Neste caso o objetivo seria sintetizar toda a informação das bandas situadas nos intervalos do azul. A subtração de imagens é utilizada para a detecção de alterações ocorridas na superfície da terra.

etc.MSS5 / MSS7 + MSS5. Presença de óxidos de ferro (limonita) associados a minérios sulfetados podem ser detectados pela razão TM3/TM1. te as verdadeiras características da superfície. onde a reflectância da água é menor. onde a reflectância da água é maior. destacando os corpos d’água. As principais vantagens da razão espectral são: Freqüência Razão espectral (Ratio) Figura 39 . . Na imagem produzida os pixels que representam água teriam NCs mais elevados. baseados no fato de que a clorofila apresenta intensa absorção na região do visível (particularmente na faixa do vermelho) e intensa reflectância na região do infravermelho próximo.Histograma de uma imagem de saída de subtração 255 • minimizar as diferenças nas condições de iluminação de uma cena. • Em prospecção mineral. e para o NOOA/AVHRR será ⇒ NDVI = B2 . fenologia. • O tipo mais comum de índice de vegetação é o Normalized Difference Vegetation Index (NDVI) que é obtido pela equação: NDVI = Biv . na imagem resultante. respectivamente. Para isso foram desenvolvidos índices de vegetação. uma banda do visível. As áreas de vegetação sadia são ressaltadas (NCs mais altos). Assim. o índice de vegetação mais simples seria dado pela subtração do canal do infravermelho próximo pelo canal do vermelho (Exemplo: MSS7-MSS5 ou TM4-TM3). Por exemplo. • muito utilizada nos estudos de vegetação. de um determinado sensor. Portanto. O resultado 0 100 127 150 é uma imagem Nível de cinza que melhor refleModificado de Crosta de 1993. para o LANDSAT/MSS a equação será traduzida para MSS ⇒ NDVI = MSS7 . O resultado é a redução do efeito da topografia sobre a resposta espectral (Figura 40). detecção de fitopatologias. Os valores mais elevados seriam indicativos de vegetação sadia.Operações Aritméticas com Imagens _________________________________________ 59 P ro d u z imagens geradas pela divisão de canais da mesma cena. seria dividida pela banda do infravermelho. a razão de canais pode ser utilizada para identificação de zonas de alteração hidrotermal (minerais argilosos relacionados a concentrações minerais) que são realçados pela razão TM5/TM7. área foliar. para ressaltar corpos de água.B1 / B2 + B1. • ressaltar a reflectância espectral de determinados alvos. para determinação de índices de biomassa.Bv / Biv + Bv onde Biv e Bv são as bandas situadas no infravermelho e no visível.

portanto. em geral situados entre 0 a 5. Multiplicação Realça as feições comuns às bandas que são multiplicadas. deduz-se que esta operação realça as feições morfológicas. São números decimais. cartografia e geomorfologia. A transformação dos pixels em valores de razão entre bandas elimina a distorção. sendo útil para a geologia estrutural.678 A B O mesmo material possui radiância em A muito superior à radiância em B devido à posição em relação ao Sol. é possível que haja uma redução da variabilidade das respostas espectrais. 1987. A razão de canais produz uma concentração dos valores em torno de linhas de mesma razão (Figura 41 ). ser utilizada com cautela para evitar efeitos indesejáveis. Isto ocorre quando objetos distintos são concentrados na mesma linha de razão. . Modificado de Mather. tornando-se deste modo indistinguíveis. como ilustra a Figura 42. Mesmo com a redistribuição dos valores para a escala de 0 a 255.666 SOL Radiância: Infravermelho próximo: 75 Vermelho: 28 razão: 2. Como geralmente as zonas de sombras são comuns a todas as bandas.60 ______________________________ Introdução ao processamento digital de imagens Figura 40 . 0 a 255) para evitar a extrema compressão dos NCs. Estes valores devem ser convertidos para números inteiros e escalados para o intervalo compatível (por exemplo.Redução do efeito da topografia Radiância: Infravermelho próximo: 160 Vermelho: 60 razão: 2. A razão de canais deve.

1987. 1993. e Crosta.Operações Aritméticas com Imagens _________________________________________ 61 A multiplicação de imagens pode ser usada para combinar o primeiro principal componente (PC1). com informação morfológica. Da mesma forma pode-se combinar uma imagem SPOT com três imagens TM não correlacionadas (ex. . Modificado de Canas.: três componentes principais ou três razões de bandas). Os círculos 1 e 2 representam materiais distintos que ficaram situados em linhas de mesma razão. A composição colorida resultante conterá a informação textural/morfológica (dimensão acromática) com resolução espacial de 10 metros do SPOT e a informação espectral das três imagens (cromáticas) TM. com os componentes PC2. A PC1 é chamada de componente acromática e as outras são denominadas componentes cromáticas. obtém-se uma imagem de quatro dimensões: uma dimensão textural. Ao se combinar estas quatro imagens através da multiplicação do PC1 pelos três outros.Linhas de mesma razão 255 8 4 2 1 2 Imagem B 0.25 0 Imagem A 255 0 Imagem A 255 Áreas homogeneizadas pela razão de canais. Figura 42 . PC3 e PC4.Perda de informação na razão de canais 255 Figura 41 . o qual contém a maior parte da informação morfológica (textural). que possuem informações predominantemente tonais.5 Imagem B 1 3 0. e três dimensões tonais.

.

uma curva complexa. Portanto. a alta freqüência espacial é revelada pela grande variação de tonalidades por unidade de distância. . os valores discretos dos NCs podem ser linearmente ajustados segundo curvas. a feqüência espacial é considerada baixa. Numa imagem digital. com diferentes freqüências e amplitudes (Figura 43B).Filtragem de imagens Freqüência espacial As imagens apresentam áreas com diferentes respostas à energia eletromagnética que são expressas pela tonalidade. Os limites são representados graficamente. De modo inverso. a freqüência espacial descreve as variações de brilho de uma imagem. O elemento textural é a menor superfície contínua e homogênea distinguível na imagem. A freqüência espacial de uma imagem é dada pelas variações de intensidade (brilho) por unidade de distância. Os limites entre diferentes materiais (expressos pela tonalidade) podem ser bruscos ou suaves. por gradientes tanto mais inclinados quanto maiores forem as diferenças e mais bruscos os contatos. geralmente. A Figura 43A mostra uma curva representando as variações de NC ao longo de uma linha da imagem. Esta pode ser decomposta em um conjunto de componentes senoidais. obtém-se. Ao se plotar em um gráfico as variações lineares dos níveis de cinza de uma imagem. Os limites com acentuado gradiente são denominados bordas. Se numa determinada área da imagem há pouca variação de brilho. O padrão de arranjo dos elementos tonais é chamado de textura.

A convolução opera no domínio espacial da imagem e. Convolução Define-se uma janela composta por um número ímpar de linhas e colunas que é referida como máscara (kernel). monoculturas).Curvas de freqüência espacial de passa-altas ou highpass filter). Chama-se de operador ao tipo de processo matemático ou estatístico característico de um determinado filtro. Isto é feito através da supressão ou realce de determinadas freA qüências espaciais. limites entre áreas sombreadas e iluminadas. A filtragem espacial de freqüência consiste de operações espaciais que “filtram” determinadas freqüências no sentido de suavizar (filtros de passa-baixas ou low-pass filter) ou realçar a diversidade (filtros Figura 43 . o qual define. apresentam variações gradacionais e podem ser vistas como ondas de grande comprimento e baixa freqüência. Chama-se convolução ao processo de filtragem efetuado pelo deslocamento da máscara sobre a imagem pelo avanço de um pixel por vez (Figura 44). Distância Brilho As filtragens podem ser implementadas através de dois processos. áreas urbanas. A análise de Fourier consiste de operações matemáticas complexas para separar os vários componentes das freqüências espaciais. 1987. (B) Decomposição em curvas senoidais com diferente comprimento de onda e amplitudes. um coeficiente ou peso representativo de alguma relação matemática. A adição do brilho das curvas superpostas em cada ponto reproduz a curva original. por outro lado. para cada pixel da máscara. As cenas homogêneas (vegetação natural.64 ______________________________ Introdução ao processamento digital de imagens As bordas são mais freqüentes e nítidas em áreas com alta freqüência espacial (cenas heterogêneas: áreas agrícolas com alta diversidade de cultivos. Cenas com estas características produzem curvas com baixo comprimento e alta freqüência. é satisfatória para os objetivos mais comuns em PDI. malha rodoviária. Brilho B Distância (A) Curva representando as variações de NC ao longo de uma linha da imagem. em função do . As filtragens são muito usadas para realçar bordas. apesar de mais simples. Fonte: Drury. denominados: a) Convolução. feições lineares e padrões de textura. A filtragem envolve o cálculo do valor do pixel central. e b) Análise de Fourier. contatos litológicos).

Filtro de moda O pixel central é substituído pelo valor de DN mais comum dentro da máscara. produzindo uma suavização. São também utilizados na remoção de ruídos eletrônicos. Tipos básicos de filtros de convolução: Filtros de passabaixas (low-pass filter) Eliminam as altas freqüências. Os ruídos são valores anômalos causados por falhas no sistema de transmissão ou recepção de sinais. suavizando e homogeneizando a imagem.Filtragem de Imagens _______________________________________________________ 65 conjunto de pixels da área da imagem coberta pela máscara. O processo é repetido através da convolução. Quanto maior a máscara utilizada. Figura 44 . Quanto maior o tamanho da máscara. retirando detalhes.Convolução Elemento que deixa a máscara Elemento que entra na máscara Filtro de média Substitui o NC do pixel original pela média aritmética do NC dos pixels da máscara. Por isso. para limpar pixels isolados dentro de uma determinada classe. resultando na transformação dos NCs da imagem original. maior o efeito da filtragem. É bastante usado como processo de pós-classificação. reduz-se o efeito da suavização. As filtragens são operações de área ou vizinhança e não pontuais (como os realces de contraste). 1/9 1/9 1/9 1/9 1/9 1/9 Figura 45 . o NC de um pixel p após a transformação depende do NC original de p e dos seus vizinhos na máscara e do operador utilizado. Por outro lado.Filtro de média (a) Máscara quadrada 1/9 1/9 1/9 1/5 (b) Máscara “+” 1/5 1/5 1/5 1/5 . maior a suavização. Aumentando-se o peso do pixel central. Filtro de média ponderada É aquele que atribui pesos aos pixels em função de sua distância do pixel central. produzem um efeito indesejável que é o borramento ou perda da nitidez.

6. Este filtro pode ser usado para eliminar os drop-outs (NCs anômalos causados por ruídos da imagem). 3. o pixel de NC intermediário. 8. (b) A borda entre dois objetos é atenuada pela perda de nitidez. 3.Exemplo de aplicação de filtro de moda input 3 3 8 3 11 6 11 9 13 3 output 3 3 6 11 9 13 Filtros de passaaltas (high pass filter) Eliminam as feições de baixa freqüência. contatos.66 ______________________________ Introdução ao processamento digital de imagens Figura 46 . lineamentos. ou seja. 3. detalhes. 9.Filtro de média ponderada (a) Máscara quadrada 1/16 1/8 1/16 1/8 1/4 1/8 1/16 1/8 1/16 1/6 (b) Máscara “+” Filtro de mediana O pixel central é substituído pela mediana dos pixels da máscara. Borramento Figura 47 . realçando as de alta freqüência. 11.Efeitos do filtro passa-baixas Filtro a Ruído Atenuação Filtro b Borda (a) O valor anômalo de NC causado por ruído é atenuado. 11. 13 3 8 . etc. 1/6 1/3 1/6 1/6 Figura 48 . São usados para realçar bordas.

11. 9. 6. Resultados interessantes podem ser obtidos ao se atribuir um peso maior ainda à imagem original em relação à imagem filtrada. b Realce .Efeitos do filtro de passa-altas Filtros laplacianos + imagem original 1 -2 1 Filtro Ruído a Ampliação Filtro Borda (a) ampliação do valor anômalo. adicionando-se. Entretanto. o que pode ser implementado pela adição de mais unidades ao pixel central do operador.Filtragem de Imagens _______________________________________________________ 67 Filtros laplacianos Caracterizam-se por operadores cuja soma dos pesos da máscara é igual a zero. 3. Figura 49 . Figura 51 . (8). Isto pode ser obtido numa única etapa de filtragem. 11. (b) realce de borda. 3. é possível resgatar a informação 0 0 -1 -1 -1 -1 -2 1 tonal adicionando-se a imagem original à imagem filtrada. dificultan4 8 4 -1 -1 -1 -1 -2 do a interpretação. 13 11 8 Figura 50 .Exemplos de operadores de laplace Os produtos das filtragens de passa-altas são ricos em informação textural.Exemplo de aplicação de filtro de mediana input 3 11 8 3 3 6 11 9 13 3 output 3 8 6 11 9 13 3. mas pobres 0 -1 -1 -1 -1 1 -2 0 em informação tonal. nos operadores da Figura 50. a unidade ao valor central da máscara.

O realce de borda pode ser alternativamente obtido pela subtração dos componentes de baixa freqüência da imagem original.SW 1 0 -1 2 1 0 -1 -2 -1 E-W 0 0 0 1 2 1 -2 -1 0 NW . segundo direções predeterminadas (Figuras 52 e 53).SW 1 -2 -1 1 1 1 -1 -1 -1 E-W 1 -2 1 1 1 1 -1 -1 1 NW . Figura 52 Filtros de Sobel N-S 1 0 -1 2 0 -2 1 0 -1 0 -1 -2 NE . .SE -1 -2 1 1 1 1 Subtração dos componentes de baixa freqüência O realce de bordas (edge enhancement) é uma das operações utilizadas com freqüência para realçar feições lineares e contatos entre diferentes objetos.68 ______________________________ Introdução ao processamento digital de imagens Filtros direcionais São tipos especiais de filtros de passa-altas destinados a realçar lineamentos.SE -1 0 1 0 1 2 Figura 53 Filtros de Prewitt N-S 1 1 -1 1 -2 -1 1 1 -1 1 -1 -1 NE .

APC Variância e covariância de imagens A variância é uma medida de dispersão que expressa a variabilidade dos dados em torno da média. A correlação indica o grau de associação estatística entre as variáveis expressas no intervalo de 0 a 1. é um histograma bidimensional que representa as componentes de duas bandas de uma imagem multidimensional e permite verificar a relação entre as mesmas. Correlação O grau de inter-relação entre variáveis é geralmente expresso pelo coeficiente de correlação. Gráfico de dispersão O gráfico de dispersão (scatterplot). A Fi- . também denominado de espaço de atributos. A correlação pode ser positiva ou negativa (intervalo 1 a -1). A covariância é a variação conjunta de duas ou mais variáveis em torno da média.Análise de principais componentes . Variáveis diretamente relacionadas apresentam uma elevada covariância. O procedimento para calcular a variância de uma propriedade pode ser estendido para a variabilidade mútua de duas propriedades. Corresponde a uma estandardização da covariância. A covariância dá a medida de quanto de informação contida em um par de bandas é comum a ambas. Variáveis independentes mostram baixa covariância. maior o espalhamento e portanto maior o contraste da imagem. Quanto maior a variância. É dada pela razão da covariância pelo produto dos desvios padrões das variáveis.

Gráfico de dispersão de duas A dispersão dos dados definem um eixo CD. na qual para um determinado valor a da imagem A vai corresponder a um valor no intervalo entre b e b’ na imagem B. maior a correlação entre as variáveis. Figura 55 . e a figura se aproxima do círculo. Isso é ilustrado pela Figura 56. dados que se afastam do eixo AB. Este intervalo é inversamente proporcional à correlação. bandas altamente correlacionadas fornecem basicamente as mesmas informações enquanto bandas pouco correlacionadas fornecem informações diferentes. variáveis com baixa correlação quase tão importante quanto o eixo AB. A correlação próxima de 100% seria representada por uma linha reta. A representação de uma terceira variável (Z) perpendicular a X e Y.Y) altamente correlacionadas. A Figura 55 mostra o gráfico de dispersão de duas variáveis pouco correlacionadas. perpendicular ao primeiro. Entre os canais refletivos. pode-se deduzir com razoável aproximação a intensidade do pixel correspondente à outra imagem. A correlação entre imagens costuma ser representada através de uma matriz de correlação como a do Quadro 18. A Quadro 18 mostra que a correlação entre a banda 6 (canal termal) e as bandas refletivas é de modo geral baixa. as bandas do visível (1. Os eixos AB e CD da Figura 54 configuram uma elipse. .70 ______________________________ Introdução ao processamento digital de imagens Figura 54 . cujos dados se posicionam próximos ao eixo diagonal principal AB.2 e 3) são as que possuem maior correlação entre si e a banda 4 (infravermelho próximo) é a que exibe a mais baixa correlação com as demais. são menos correlacionados e podem definir um outro eixo (CD).Imagens correlacionadas Imagem B b’ b a Imagem A A partir de um valor de NC da Imagem A pode-se deduzir um valor na Imagem B. C B Correlação de imagens O gráfico de dispersão é utilizado para representar a correlação entre imagens. dada a intensidade de um determinado pixel em uma delas. Variável Y A Variável X D Figura 56 . Por outro lado. Quanto mais valores localizados próximos a este eixo. definindo um elipsóide. 1993. resultaria em um terceiro eixo. Assim sendo. Duas imagens são ditas correlacionadas quando. Modificado de Crosta.Gráfico de dispersão de duas variáveis altamente correlacionadas B C Variável Y D A Variável X gura 54 representa duas variáveis (X.

Análise dos Principais Componentes - APC ____________________________________

71

Quadro 18 - Exemplo de matriz de correlação (Imagem TM de Derbyshire, Inglaterra)
Banda 1 2 3 4 5 6 7 1 1,000 0,954 0,932 0,729 0,843 0,365 0,840 1,000 0,952 0,795 0,877 0,390 0,862 1,000 0,697 0,892 0,416 0,908 1,000 0,819 0,459 0,673 1,000 0,582 0,948 1,000 0,552 1,000 2 3 4 5 6 7

Causas da existência de correlação
sentes na cena.

•Bandas que apresentam respostas espectrais semelhantes aos objetos pre-

•Sombreamento topográfico. Nos sensores multiespectrais que dependem da iluminação solar, poderá haver um sombreamento devido ao relevo do terreno, o qual afeta todas as bandas da mesma maneira, contribuindo para a correlação interbandas. O sombreamento dificulta o processamento digital, especialmente a classificação.
pressiva com banda termal que expressa a energia emitida (banda 6 do TM).

• A correlação de imagens devido ao sombreamento deverá ser menos ex-

A análise multiespectral baseia-se na peculiaridade do comportamento espectral dos materiais. Todavia, se as bandas são altamente correlacionadas, a informação contida nas mesmas será similar e a capacidade de discriminação dos alvos será reduzida. Além disso o processamento de dados altamente correlacionados representa desperdício de tempo e recursos computacionais, já que se trata de informação redundante.

A transformação por principais componentes
A principal função da Análise de Principais Componentes - APC - é determinar a extensão da correlação e removê-la. Um conjunto N de imagens de entrada vai produzir, quando processadas através da APC, um outro conjunto de imagens de saída, sem nenhuma correlação entre si. O método para melhorar a separação dos dados é redistribuí-los, segundo um outro conjunto de eixos no espaço multidimensional que maximize a separação dos dados. A APC é uma técnica estatística que rotaciona os eixos de uma imagem no espaço multidimensional na direção dos eixos de maior variância. Tem a função de definir a dimensionalidade dos dados e identificar os principais eixos de variação. Estes eixos vão definir, no espaço multidimensional, o elipsóide de distribuição dos dados. Considerando o gráfico de dispersão de duas imagens A e B, o parâmetro mais simples de especificar é a posição do centróide de distribuição (Figura 57). O centróide representa o centro de gravidade da distribuição, definido pela média

72

______________________________ Introdução ao processamento digital de imagens

Figura 57 - Parâmetros do elipsóide de distribuição dos dois conjuntos de dados. O tamanho da distribuição é determinado através do cálculo do espalhamen2s A to, ao longo de cada eixo, que é dado pela variância.
µB 2s B

Imagem B

Centróide

Imagem A

µA

µ (A,B) = intensidade média das imagens A e B. s (A,B) = desvio padrão das imagens A e B. Modificado de Crosta, 1993.

Figura 58 - Determinação dos eixos das PCs

Eixo PC1

Imagem B

Centróide

Primeiro determina-se a direção relativa ao centróide que possui máxima variância ou espalhamento, atribuindo-se a ela o eixo da 1a Principal Componente (PC). Na Figura 58 essa direção é representada pelo eixo principal da elipse. Em seguida, determina-se a direção relativa ao centróide que possui a segunda maior variância, com a condição de que ela seja ortogonal em relação à primeira. Atribui-se a esta o eixo da 2a PC. Na Figura 58 (bidimensional), há apenas uma possibilidade para a 2a PC. No espaço multidimensional, porém, examina-se outras direções ortogonais à 1a PC para determinar a 2a PC. Este processo é então repetido tantas vezes quanto for o número de bandas, até que todos os eixos sejam determinados. Por último rotaciona-se os eixos em volta do centróide, até que cada uma das direções encontradas fique paralela a um dos eixos originais (Figura 59). Através deste processo, a partir de N imagens brutas é produzido um novo conjunto de N imagens sem correlação nenhuma (eixos ortogonais). A PC1 irá conter a informação que é comum a todas as bandas originais; a PC2 irá conter as feições mais relevantes do conjunto restante e assim sucessivamente.

Eixo PC2

Imagem A

Modificado de Crosta, 1993.

Autovetores e autovalores
Os principais componentes são derivados da matriz de correlação ou da matriz de variância-covariância. Se existem p bandas, a matriz será simétrica e composta de p linhas e p colunas. A APC produz uma transformação da matriz de modo que a covariância entre as bandas é igualada a zero. Este processo de correlação ainda redistribui os dados entre os novos (principais) componentes.

Análise dos Principais Componentes - APC ____________________________________

73

Eixo PC2 transladado

O comprimento dos eixos das PCs, dado pela variância, é chamado de autovalor (eigenvalue). Os eigenvalues representam a proporção relativa da variância de toda a cena representada em cada componente, ou seja, a quantidade de informação contida em cada PC. São medidos em unidades de variância ou em percentagem da variância total (Quadro 19).

Figura 59 - Rotação dos eixos das PCs

Eixo PC1

O maior autovalor define o primeiro componente principal, e assim sucesEixo PC2 sivamente. O primeiro principal componente geralmente contém a maior parte da variância (geralmente mais de 90%) Eixo PC1 transladado e o maior contraste. Este é, portanto, o Modificado de Crosta, 1993. componente que contém mais informação. O Quadro 19 mostra que, nesta imagem, 96% da variância está contida nos três primeiros PCs. Por isso, teoricamente, as sete bandas podem ser substituídas pelos estes três PCs, com muito pouca perda de informação. Nas PCs subseqüentes, a quantidade de informação decresce. Qualitativamente, porém, qualquer PC pode ser importante, uma vez que muitas vezes não são as feições comuns, mas as anômalas que precisam ser ressaltadas. Associados a cada autovalor, existe um conjunto de coordenadas, chamadas de autovetores (eigenvectors), que representam as direções dos eixos das PCs. As p bandas originais são projetadas para n novos principais componentes como combinações lineares aditivas, através dos autovetores. Cada um destes é um fator do peso da contribuição de cada banda para o PC. Portanto, os autovetores refletem a importância relativa das bandas no componente principal. São estandardizados de modo que a soma dos autovetores ao quadrado é igual a 1.

Quadro 19 - Eingenvalues da Imagem de Derbyshire
Principal componente 1 2 3 4 5 6 7 Eingenvalue 5,5324 0,7978 0,3886 0,1774 0,0534 0,0310 0,0193 % Variância 79,03 11,40 5,55 2,53 0,76 0,44 0,28

22 5 0.04 0.16 -0.04 6 -0. Este efeito pode ser explorado pelo analista.01 0.06 O Quadro 20 mostra que o primeiro PC é formado pela contribuição de todas as bandas.14 0.01 -0.01 0.06 0.08 0.00 -0.74 ______________________________ Introdução ao processamento digital de imagens Quadro 20 . com predominância das bandas reflexivas.10 -0.01 0.95 0.03 0. O contraste de cada PC é dado pela variância do respectivo eixo.05 0.94 2 -0.08 7 -0.17 0.00 0.01 -0.06 -0.96 0. .04 3 -0.18 0.13 -0.09 0.07 -0.08 0. entretanto.54 0.03 -0. submeter as imagens PCs a aumentos de contraste (realces).07 -0. que necessitam atenção especial na hora de associálas às feições de interesse.03 0.93 -0.04 -0. tanto para “limpar” certos ruídos como para detectar feições anômalas de interesse para certos temas.Eingenvectors da imagem de Derbyshire Principais componentes Banda 1 2 3 4 5 6 7 1 0. Todas as demais PCs são desprovidas de informação topográfica devido à ausência de sombreamento.21 -0. Quando combinadas em cores. Pode-se.57 0.07 0.97 0.81 0.84 0. a ausência de correlação entre PCs faz com que as cores resultantes das composições coloridas sejam muito vivas. com ausência de tons de cinza. O ruído e outras informações anômalas são removidas das primeiras e tendem a aparecer nas últimas PCs.04 0. Interpretação de imagens PCs A 1a PC é muito semelhante à vista pancromática da cena.23 4 -0. O segundo PC é dominado pela informação da banda termal e no terceiro PC. a contribuição maior é da banda quatro.21 -0. no sentido de utilizar todo o espaço possível de NC.21 -0. São cores puras e intensamente saturadas.24 -0.00 -0.14 -0.

pode ser incorporado a um SIG. se for georreferenciado. um mapa temático digital. o resultado é um mapa temático mostrando a distribuição de categorias (vegetação.) que são denominadas de classes. Figura 60 . solo. uso da terra.Imagem classificada NC 1 50 100 150 200 250 Cor Classe Água Manguezal Floresta Hortaliças Cereais Urbano A classificação é implementada com base nas diferenças de comportamento dos materiais ao longo do espectro eletromagnético. que. Uma imagem classificada é. A Figura 61 mostra a assinatura espectral das classes .Classificação A classificação automática dos pixels de uma imagem envolve a associação de cada pixel da imagem com um nome que descreve um objeto real. Se a classificação é executada para todos os pixels de uma imagem. portanto. etc.

6 2. Estas duas bandas seriam.8 1. levando-se em consideração os valores de NC do pixel nas várias bandas utilizadas e os padrões das classes.2 1.76 ______________________________ Introdução ao processamento digital de imagens A. relaciona áreas da imagem com as classes de cobertura da terra que deseja separar. o qual define um padrão de comportamento espectral da classe. que são captadas nos intervalos correspondentes aos seis canais refletivos do LANDSAT/TM. essenciais para a separação destas classes. a partir do conhecimento da área ou por inferências. Classificação supervisionada Para implementação da classificação supervisionada o analista.Assinatura Espectral 1 2 3 4 A A B C C B B C A B 5 7 Reflectância (%) B B C C A Classe B A C Classe A Classe C 0. O enquadramento de um pixel a uma das classes é feito por vários métodos. As classes são. B e C nos seis canais reflexivos do LANDSAT/TM. B e C. . portanto.0 2. definidas a priori e o processo de classificação visa a enquadrar cada pixel a uma classe. Todos os pixels das amostras de treinamento de uma dada classe constituem o conjunto de treinamento para aquela classe.4 0. Figura 61 . Verifica-se que a classe A seria facilmente separável das classes B e C na banda quatro. portanto. 1997. enquanto a classe B seria separável das classes A e C na banda sete. Nestas áreas são selecionadas amostras de treinamento que são um conjunto de pixels considerados mais representativos das classes de interesse. Fonte: PCI. geralmente expresso pelos parâmetros estatísticos.4 Comprimento de onda (m m) Classes A.

e •o pixel cai dentro de mais do que um paralelepípedo (caso dos paralelepípe- . Cada pixel é escolhido em seqüência e seus valores nas diversas bandas são testados para ver se caem dentro de um dos paralelepípedos. Método do paralelepípedo Os NCs máximos e mínimos de cada classe em cada vetor (banda utilizada) definem “paralelepípedos” no espaço multidimensional. Neste caso o programa deve apresentar um critério para decidir entre os “concorrentes”. Esta regra deve ser a menor distância do centro do paralelepípedo. A Figura 63b ilustra a formação de uma face dos paralelepípedos. Método da mínima distância Este método toma como referência.Classificação _______________________________________________________________ 77 Figura 62 . no espaço bidimensional. •o pixel cai fora de todos. •o pixel cai dentro de um só paralelepípedo.Modelo da Classificação Supervisionada Conjunto de imagens: quatro bandas Níveis de cinza Padrões das classes Imagem classificada F 67 54 Área Urbana 111 99 78 09 Água 12 11 19 22 Floresta 62 50 22 35 F F F F A A F F F F A A A F F F A A A U A F A A A U U A A A A U U U A A A U U U F F A A U U F F 1 2 3 4 21 37 Compara Classifica Modificado de PCI. para cada classe. um ponto no espaço multidimensional definido pela média estatística em cada banda espectral considerada. 1997. Aí ocorrem várias possibilidades: dos que se superpõem). O algoritmo associa cada pixel desconhecido à classe cuja média está mais próxima (Figura 63a).

o algoritmo enquadra o pixel na classe para a qual apresenta a mais alta probabilidade. Definidos os parâmetros estatísticos. e a idéia pode facilmente ser estendida para três ou mais dimensões. Método da máxima verossimilhança (MAXVER) ou maximum likelihood (ML) A forma geométrica de um conjunto de pontos representando os pixels de uma classe de interesse pode ser descrita. considerando-se apenas duas bandas. pode-se pensar no diagrama de dispersão como uma família de elipses concêntricas centradas na média (Figura 63c). reflete a média. Estas elipses representam linhas de eqüiprobabilidade de um pixel desconhecido pertencer à classe. Portanto. forma e tamanho da elipse. Para um conjunto de três bandas. O MAXVER é uma técnica mais robusta do que o paralelepípedo e mínima distância por levar em conta a covariância na definição das elipses de eqüiprobabilidade. por uma elipse. portanto. variância e covariância das duas variáveis. deve-se pensar em termos de elipsóides concêntricos de eqüiprobabilidade. Isto é demonstrado pela Figura 64 na qual a probabilidade de pertencer às .Técnicas de classificação supervisionada B Canal B Canal B A Canal A Mínima Distância (a) Canal A Paralelepípedo (b) B Canal B A Canal A Máxima Verossimilhança (c) Fonte: PCI. A localização. num gráfico de dispersão bidimensional. 1997.78 ______________________________ Introdução ao processamento digital de imagens Figura 63 .

portanto. já que nesta cabe ao analista definir a priori as classes que deseja separar (classes de interesse). O pixel de posição Q. classes 1 e 2 é representada pelas respectivas elipses. Pelos outros dois métodos este pixel seria erroneamente classificado.Classificação _______________________________________________________________ 79 Figura 64 . enquanto na classificação não-supervisionada o analista fornece apenas alguns parâmetros como o número mínimo e máximo de classes desejadas e número de iterações. Classificação não-supervisionada (exploratória) A classificação não-supervisionada agrupa os pixels segundo as suas características espectrais. pelos quais a proximidade espectral dos pixels no espaço multidimensional é definida. Os clusters constituem. organizando-os em agrupamentos denominados de clusters (enxame. Esta é uma importante diferença em relação à classificação supervisionada. As classes espectrais geradas numa classifica- . aglomeração). Os parâmetros mais utilizados para definir os clusters são a média. mais próximo da média da classe 1. variância e covariância. classes espectrais. mas o pixel P seria enquadrado na classe 2 apesar de estar mais próximo da média da classe 1. seria corretamente classificado por qualquer um dos três métodos.Critérios para classificação pela técnica ML Classe 2 m 2 Canal 2 Q P m 1 Classe 1 Canal 1 Modificado de Mather. 1987.

Após cada iteração os seguintes critérios são aplicados: Clusters com desvio padrão muito grande são subdivididos para formar clusters menores. agregação de novos pixels. . Isodata Figura 65 . nas quais cada pixel pode ser reenquadrado em novos clusters. Cada pixel da imagem é então agrupado ao cluster cuja média está mais próxima (Figura 66). 66 e 67. de uma operação exploratória para verificar o que é estatisticamente separável ou não. indicando que a convergência foi atingida. nas quais a imagem é sucessivamente varrida e os clusters vão sendo modificados. porém. não ocorrer modificação alguma em relação à iteração anterior. A Isodata. uma das técnicas de classificação não-superviosionada mais empregadas.1s 1 m 1 m + 1s 1 Banda A Posição dos pixels iniciais (sementes) Figura 66 . quando.Isodata (Iteração I) m 2 + s 2 n n m 2 n n O isodata funciona através de iterações.80 ______________________________ Introdução ao processamento digital de imagens ção não-supervisionada podem ou não coincidir com as classes de interesse. As sementes funcionam como média em torno das quais vão se formar os agrupamentos iniciais. com modificação dos parâmetros estatísticos. O processo pode ser interrompido. quais as classes mais evidentes e sua relação com o que se deseja discriminar. divisão ou fusão de clusters. Os padrões ou assinaturas geradas na classificação nãosupervisionada podem ser aproveitados para uma posterior classificação supervisionada.Isodata (Iteração II) m 2 + s 2 Cluster 5 Banda B Cluster 4 m 2 Cluster 3 m 2 s 2 Cluster 2 Cluster 1 m 1 s - 1 m 1 m 1 s + 1 • Banda A • Clusters que estão estatisticamente muito próximos são fundidos. e • Clusters com um número pequeno de pixels são eliminados. em função da proximidade estatística. como ilustra a Figura 67. Na primeira iteração são determinados um número N de pixels (sementes) em torno dos quais começam a ser gerados os primeiros clusters (Figura 65). Banda B m s 2 2 n m . portanto. é ilustrada pelas Figuras 65. Todo o processo é repetido tantas vezes quantas forem as iterações programadas. numa determinada iteração. Trata-se. Na iteração seguinte as médias dos clusters são recalculadas e os pixels reagrupados.

o analista observar confusão entre classes espectralmente próximas. que promove o agrupamento dos pixels isolados à classe predominante na sua circunvizinhança. e b) pixels isolados e fora de contexto (island theme). Estes prováveis erros de classificação são corrigidos através de filtro de moda. no qual só os pixels que representam a classe são evidenciados. Figura 68 .Homogeneização por filtro de moda Filtro de moda 3 1 3 3 9 3 3 3 3 3 1 3 3 3 3 3 3 3 Imagem classificada Pixel central da máscara 3x3 Avaliação da classificação Uma avaliação qualitativa da classificação pode ser feita visualmente. ao analisar o resultado da classificação. Banda A Homogeneização É comum uma imagem classificada apresentar heterogeneidades como: a) áreas maldefinidas (pixels contíguos assinalados a várias classes). mas para a quantificação do nível de acerto geralmente utiliza-se a matriz de confusão ou matriz de erro (Quadro 60) a qual expressa. é possível fundi-las em uma só através do processo de agregação de classes. Este processo de homogeneização poderá corrigir erros de classificação e melhorar a apresentação. tomando como referência áreas de . Banda B m 2 m 2 s 2 Destaque de classe m 1 s 1 m 1 m 1 s + 1 Esta técnica consiste em destacar uma classe das demais.Classificação _______________________________________________________________ 81 Operações pósclassificação m 2 Figura 67 . exibindo-a isoladamente. A classe pode ser representada na forma de bitmap (arquivo raster de 2 bits).Isodata (Iteração III) + s 2 Agregação de classes Se.

mas classificado como outra classe (erro de omissão).0 66.5 81.0 c 10 8 19 0 6 17 60 d 21 10 6 3 10 10 60 número de pixels. e pixel classificado como i. percentagem de acertos (pixel que pertence a i e é classificado como i). Acurácia geral é dada pela proporção de pixels corretamente classificados em relação ao total. Quadro 21 . mas que pertencem à outra classe). pertence à classe i (referência).4 100.Matriz de erro ou de confusão (Linha: referência/colunas: resultado da classificação) 1 1 2 3 4 5 6 Soma a) b) c) d) 50 4 4 0 3 10 2 3 62 4 0 0 3 3 0 3 70 0 2 1 4 0 0 0 64 0 3 5 2 0 8 0 71 0 6 5 1 3 0 1 33 a 60 70 86 64 78 50 408 b 83.82 ______________________________ Introdução ao processamento digital de imagens teste previamente selecionadas ou as próprias áreas de treino. mas que pertence à outra classe (erro de comissão).0 91. (i) na diagonal.3 88. mas são classificados como outra classe) e nas colunas os erros de comissão (pixels classificados como i. o número de pixels corretamente classificados (pixel que pertence a i e é classificado como i). nas linhas os erros de omissão (pixels que pertencem à classe i. .

Os efeitos da atmosfera aumentam inversamente ao comprimento de onda. refletida ou espalhada. a banda um do LANDSAT/TM é mais . O espalhamento em S2 e parte da reflectância do ponto Q que é redirecionada em S1 interferem no sinal captado pelo sensor. o qual deveria provir exclusivamente de P. A Figura 69 mostra. Assim sendo. Distorções adicionais podem ocorrer devido à geometria da iluminação (elevação e azimute do sol). O espalhamento ou dispersão (scattering) é a re-irradiação da energia em todas as direções pelas partículas da atmosfera. de forma simplificada. é parcialmente absorvida. ao atravessar a atmosfera. direção das cristas de serras. Por isso. enquanto as bandas do infravermelho são praticamente livres de tais interferências. enquanto a absorção subtrai brilho. No processo de espalhamento a imagem ganha brilho.Correções geométrica e radiométrica Correção radiométrica A energia eletromagnética. declividade do terreno. A absorção é causada principalmente pelo vapor de água. os componentes do sinal recebido pelo sensor acima da atmosfera. porque o sinal é atenuado pela absorção ou desviado pela dispersão causada pela atmosfera. As correções radiométricas são importantes para várias aplicações: Razão de canais As imagens compreendidas na região do visível são altamente sensíveis ao erro de espalhamento. o sinal registrado pelo sensor para cada pixel pode não corresponder à verdadeira radiância da respectiva área.

Vários métodos podem ser utilizados para estimar o aumento de radiância causada pelo efeito atmosférico. Os mais típicos são as zonas de sombra e os corpos d’água profundos. Para isso. A comparação entre os NCs de pixels destas feições no . Figura 69 .84 ______________________________ Introdução ao processamento digital de imagens afetada do que a banda três. enquanto a banda cinco é muito pouco afetada. a correção radiométrica é importante nos estudos multitemporais. geralmente. A razão entre estes canais. Este fenômeno ocorre com mais intensidade nos canais situados na faixa de comprimento de onda do azul (canal 1 do LANDSAT/TM). prejudicando a nitidez e o contraste. Compensação pela dispersão atmosférica (haze compensation) O aumento generalizado na radiância produzida pelo espalhamento resulta no aspecto difuso da imagem. 1987. produzirá resultados tendenciosos. tanto no infravermelho quanto no visível. utiliza-se comparação entre os NCs de materiais que se caracterizam pela baixa reflectância.Componentes do sinal recebido pelo sensor Fonte Sensor s2 s1 Q P Alvo Modificado de Mather. referido em inglês como haze (neblina. Por isso. Estudos multitemporais As condições da atmosfera variam de uma data para outra. bruma). sem a correção radiométrica.

A distorção panorâmica é aquela devida ao afastamento do ponto da superfície da terra diretamente abaixo do satélite e proporcional à abertura angular do sensor. A simples comparação dos histogramas destas duas bandas fornece uma medida do Figura 70 . banda quatro do TM) fornece um indicativo do efeito atmosférico. e b) correção de precisão. Todas estas correções são feitas na estação de recepção do satélite. Correção de erros sistemáticos (bulk or system correction) Os erros sistemáticos são aqueles devidos às características próprias do sensor. distorção panorâmica e a distorção causada pela curvatura e rotação da terra. Figura 71 .Correções Geométrica e Radiométrica ________________________________________ 85 visível (por exemplo banda um do TM) e no infravermelho (por exemplo. Correção geométrica As imagens geradas por sensores remotos estão sujeitas a uma série de distorções que podem ser corrigidas através de técnicas denominadas de correção geométrica. em imagens livres do efeito de espalhamento tenderia para a origem. o eixo de regressão. Existem dois níveis de correção: a) correção dos erros sistemáticos. A distorção causada pela rotação da terra é ilustrada pela Figura 71. instabilidade da plataforma. Plotando-se os valores de uma banda da faixa do visível contra uma banda do infravermelho. canal do infravermelho linha de regressão a canal do visível O efeito da atmosfera é proporcional ao deslocamento a. A correção é feita pela subtração do valor correspondente ao deslocamento a. O afastamento da origem dá a medida da distorção causada pelo espalhamento atmosférico. usando dados de efemérides e as especificações do sensor e da órbita.Gráfico de regressão efeito da atmosfera sobre a resposta espectral.Efeito da rotação da Terra A O B N D’ D QP C’ C Área da cena (ABCD) e área efetivamente coberta pelo satélite (ABC’D’). Ainda com base na resposta das zonas de sombra e corpos d’água pode-se construir um gráfico de regressão (Figura 70). .

l) e vice-versa. O registro é o ajuste de uma imagem ao sistema de coordenadas de outra imagem. pelas coordenadas cartográficas. A correção de precisão é necessária para: • superposição de dados de imagens e mapas em Sistemas de Informações Geográficas.l) para colunas e linhas. através de GPS. respectivamente. ou seja. Este processo envolve a determinação de uma nova posição para centros dos pixels na imagem corrigida (interpolação espacial). são expressas. • ajuste de imagens obtidas em diferentes datas. Os GCPs são feições bem definidas e claramente identificáveis que podem ser locados no mapa ou imagem de referência e na imagem de ajuste. Interpolação espacial As coordenadas dos GCPs. e • composição de imagens tomadas em posições diferentes para obtenção de estereoscopia. • integração de imagens obtidas por diferentes sensores. com todos os pixels referenciados a um sistema de Projeção Cartográfica. • determinação de uma nova malha de linhas e colunas. Na falta de mapas ou imagens de referência. depois que os erros sistemáticos foram corrigidos. O relacionamento entre estes parâmetros é dado na sua forma mais simples pelo polinômio do 1o grau: c = a0 + a1x+ a2 y (1) l= a'+ a' x+ a' y (2) 0 1 2 A correção de 1o grau é adequada para distorções de translação e rotação e distorções de escala. estabelece uma relação geométrica entre os pixels da imagem e as coordenadas cartográficas da área correspondente. e de intensidade). usa-se o método dos polinômios para converter (x.y) para (c. e na imagem de ajuste pela posição do pixel em termos de colunas e linhas. Através da correção de precisão a imagem adquire propriedades de um mapa. O número . orientadas.y) para longitude e latitude. um Sistema de Projeção Geográfica. que remove os erros residuais. A correção geométrica produz o georreferenciamento da imagem. respectivamente. na imagem de referência. e (c. Adotando-se a simbologia (x. O processo de correção geométrica compreende: • determinação das relações entre os sistema de coordenadas de um mapa ou de imagem corrigida (imagem de referência) e da imagem a ser corrigida (imagem de ajuste). segundo • determinação da intensidade dos pixels na imagem corrigida (interpolação O método mais utilizado para a correção geométrica é por meio de pontos de controle do terreno (GCP). Transformações com polinômio do 2o grau ou superiores podem ser usadas para corrigir tipos mais complexos de distorção. a alternativa é a tomada das coordenadas dos GCPs diretamente no terreno.86 ______________________________ Introdução ao processamento digital de imagens Correção de precisão Esta é a correção geométrica propriamente dita.

Isso envolve a transferência do valor de intensidade (NC) dos pixels da imagem original para a imagem corrigida.vizinho mais próximo Adota o NC do pixel (na imagem de ajuste) mais próximo do novo centro (Figura 73). Figura 72 . As três técnicas mais comuns de reamostragem são: 1 . 1987.Correções Geométrica e Radiométrica ________________________________________ 87 mínimo de GCPs depende do grau do polinômio utilizado. Interpolação da intensidade (reamostragem) Quando os coeficientes de transformação forem computados a imagem corrigida poderá ser produzida. Como geralmente há um rearranjo da posição dos pixels. .Transformação da imagem bruta (ABCD) para a imagem corrigida (PQRS) P A Q 403 053 + + + + D n D e + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +B Centro do pixel na imagem corrigida N-S Centro do pixel na imagem bruta D 384 555 S 402 953 E-W C R 421 396 Fonte: Mather. com mudança na posição do centros. é necessário recalcular a intensidade dos mesmos. Para o polinômio de grau N precisa-se de no mínimo (N+1) x (N+2) /2 GCPs.

3 . a b d c imagem corrigida Modificado de Curran. Figura 74 . d. b. Figura 73 .Reamostragem (interpolação bilinear) imagem de ajuste pixel da imagem corrigida cujo NC é formado pela média dos pixels a.Reamostragem (vizinho mais próximo) e’ n e’ = f(c. c.convolução cúbica Usa o valor médio dos 16 pixels (janela de 4 x 4) mais próximos. 1986. 1987.r) r’ r c n’ c’ e Imagem corrigida Imagem bruta Fonte: Mather. r) n’ = f(c. A vantagem do primeiro método é requerer menos tempo de computação e preservar os valores originais dos pixels.interpolação bilinear Adota o valor médio dos quatro pixels (janela de 2 x 2) mais próximos do novo centro (Figura 74).88 ______________________________ Introdução ao processamento digital de imagens 2 . O segundo e terceiro métodos distribuem .

o RMSE (X. Da mesma forma que os resíduos.y) para (c. expressos em pixels. conforme equações 1 e 2.Y) = c − 2 l− ) ( ' c) + ( ' l 2 Os resíduos calculados para cada GCP são muito úteis para monitorar a transformação. o ponto deve ser substituído.l).Y) = Y (RMSE (X ))2 + (RMSE ( ))2 A última etapa é a criação da imagem corrigida usando uma das técnicas de interpolação de intensidade. Os resíduos são também afetados pela ordem de transformação. A diferença entre as coordenadas originais (c. refazendo ou rejeitando GCPs que não se enquadram na margem de erro aceitável.l) e a localização calculada (c’. retirando detalhes.l) e as calculadas (c´.Y) ou distância considera os resíduos nas duas direções (x.l’). Neste caso. Inspeção dos resíduos. Acurácia da correção geométrica A correção geométrica inicia com a leitura das coordenadas dos GCPs nas imagens e mapas e cálculo dos coeficientes dos polinômios da transformação de (x. O RMSE (root mean square error) fornece uma visão conjunta da acurácia da correção.y) para informar. Estes parâmetros. são ainda importantes indicativos da acurácia da transformação.Y) considera o RMSE nas direções X e Y conjuntamente. É calculado pela equação: RMSE (X) = (∑ (c' c) )/( − k) n − RMSE (Y) = (∑ ( ' l )/( − k) l− ) n 2 2 1 2 1 2 onde n é o número de GCPs e k é o número de termos da ordem do polinômio usado (três para a 1a ordem. O resíduo (X. dez para a 3a ordem). a distância entre a localização original (c. resíduo (X. Tendo calculado os coeficientes pode-se checar os valores esperados na imagem de ajuste em função das coordenadas de referência. seis para a 2a ordem. . para cada pixel. Um resíduo muito grande indica erro de leitura ou de identificação do ponto. porém exigem mais tempo de computação e produzem imagens suavizadas. O resíduo X é dado pela diferença (c’-c) e o resíduo Y pela diferença (l’-l).Correções Geométrica e Radiométrica ________________________________________ 89 melhor o erro.l’) são chamados de resíduos. RMSE (X.

.

New York : Academic Press. E. 1998. Chichester : J. p. 352 p. de . London : Imperial College. London : Allen & Anwin. 124 p. Techniques for image processing and classification in remote sensing. A. C. L. 211. Curitiba. F. ROWAN. Teste operacional de aquisição de dados aerotransportados . MATHER. P. 136 p. 1985. . 1992. 1987. 1993. 249 p. Computer processing of remotely-sensed images. LIMA. CROSTA. F. 1987. L.. C.. A. 243 p. M. Geologic remote sensing.NCT/305). D. NOVO. 1987. v. Washington D.. Hampton : NASA. GOETZ. Instituto de Geociências. P.SADA : o experimento de Barra Bonita. Blücher. Spectral reflectances of natural targets for use in remote sensing studies. C. A.. Processamento digital de imagens de sensoriamento remoto. STEFFEN. 1. A. et al. ed. Uma nova geração de imagens orbitais. Image interpretation in geology. p. E. Introdução à interpretação radargeológica. SCHOWENGERDT. São Paulo : E. NOVO. n. H. (INPE-5451 .Referências bibliográficas BOWKER. maio/jun. R. v. A. DRURY. 308 p. InfoGeo. SCHMIDLIN. 1983. 2. F. de M. 3). 1981. Rio de Janeiro : IBGE. Campinas : UNICAMP. CANAS. D. I. M. (Manuais técnicos em geociências. 170 p. L. S.C. C. E. 1. M. (Reference publication). n. M. Sensoriamento remoto : princípios e aplicações. Wiley. 1992. GAMA. 781-791. n. 1995. A. Science.48-52. 4484. Geosciences image processing. São José dos Campos : INPE.

GISBRASIL‘97. Curitiba : Sagres. 1998. H. P. Ontario : Richmond Hill..). 1997. (Ed. New York : McGraw-Hill. 1978. 1997. F. ___. O uso de GPS para a correção geométrica de imagens de satélite : análise comparativa [CD-ROM]. DAVIS. Acurácia da correção geométrica de imagens de satélite em função do método de aquisição dos pontos de controle [CD-ROM]. V. 4 ¾ pol. Curitiba : Sagres. VERONESE. S.92 ______________________________ Introdução ao processamento digital de imagens SWAIN. M. í1 disco a laser . . GISBRASIL‘98. 4 ¾ pol. 1 disco a laser . Remote sensing : the quantitative approach. USING PCI software.

Sign up to vote on this title
UsefulNot useful