You are on page 1of 23

Asignatura: Cartografía urbanística y catastral

Tema 4: Métodos de toma de datos

Ángel Manuel Felicísimo Pérez


Área de Ingeniería Cartográfica, Geodesia y Fotogrametría
Departamento de Expresión Gráfica
Curso 2006-2007
1 Sistemas de localización, GPS
GPS es la abreviatura de NAVSTAR GPS. Este es el acrónimo en inglés de NAVigation System
with Time And Ranging Global Positioning System, (que puede traducirse por Sistema Global
de Localización Global con Sistema de Navegación por Tiempo y Distancia).
El sistema tuvo su origen a principios de los años 70, cuando se propuso un proyecto destinado
a satisfacer las necesidades militares de los Estados Unidos: poder determinar (en cualquier
momento y bajo cualquier condición atmosférica) una posición precisa en cualquier punto de la
superficie terrestre.
El GPS fue diseñado originalmente para fines militares pero resultó claro que el GPS también
podía ser utilizado en aplicaciones civiles y no únicamente para obtener localizaciones a nivel
personal (lo previsto para los fines militares). Las dos primeras aplicaciones principales de tipo
civil fueron para navegación y para topografía. Hoy en día, el rango de aplicaciones va desde la
navegación de automóviles o la administración de una flotilla de camiones, hasta la agricultura
de precisión.
El GPS se suele descomponer en tres partes o “segmentos”:
• el segmento espacial formado por los satélites que orbitan la Tierra
• el segmento de control, formado por estaciones terrestre ubicadas cerca del Ecuador y
que se utilizan para el seguimiento y control de los satélites.
• el segmento de los usuarios, formado por los usuarios del sistema

1.1 La organización del sistema

El segmento espacial
El segmento espacial consiste de 271 satélites que giran en órbitas elípticas, organizadas en 6
planos orbitales a una distancia media de 20 200 km y que dan una vuelta a la Tierra cada 12
horas. En estos momentos existen 26 satélites operativos que giran alrededor de la Tierra.

Figura 1. Satélite de la constelación GPS

El segmento espacial está diseñado de tal forma que se pueda contar con un mínimo de 4
satélites visibles por encima del horizonte con un ángulo de elevación de al menos 15º en
cualquier punto de la superficie terrestre durante las 24 horas del día.
Cada satélite GPS lleva a bordo varios relojes atómicos extremadamente precisos que trabajan
a una frecuencia de 10.23 MHz, la cual se emplea para generar las señales transmitidas por el
satélite. Los satélites transmiten constantemente en dos ondas portadoras que se derivan de la
frecuencia fundamental.
• la portadora L1 se transmite a 1575.42 MHz (10.23 x 154)
• la portadora L2 se transmite a 1227.60 MHz (10.23 x 120).
Las portadoras trasmiten dos códigos llamados código C/A (coarse adquisition) y código P
(protected) o código de precisión.

1
Dato de http://gge.unb.ca/Resources/HowDoesGPSWork.html (marzo de 2003)

1
Los receptores GPS utilizan estos códigos para distinguir entre sí los satélites y para calcular las
distancias a ellos.

El segmento de control
El llamado “segmento de control” consiste de una estación de control maestro, 5 estaciones de
observación y 4 antenas de tierra distribuidas en 5 puntos cercanos al Ecuador terrestre. El
segmento de control rastrea los satélites GPS, actualiza su posición orbital y calibra y sincroniza
sus relojes. Asimismo, se mide la órbita de cada satélite y se predice su trayectoria para las
siguientes 24 horas. Esta información se envía a cada satélite para que, en su momento, éste la
transmita a los receptores GPS para que conozcan su posición.
Las señales de los satélites se reciben en las estaciones de Ascensión, Diego García y Kwajalein
y se envían a continuación a la Estación de Control Maestro, localizada en Colorado Springs
(EE.UU), donde se procesan para detectar posibles errores en cada satélite. La información se
envía posteriormente a las cuatro estaciones de observación equipadas con antenas de tierra y
desde allí a a los satélites.

Figura 2. Localización de las estaciones del “segmento de control”

El segmento de usuarios
El “segmento de usuarios” comprende a cualquiera que reciba las señales GPS con un receptor.

1.2 Fundamentos del funcionamiento del GPS

Existen tres métodos para determinar la posición mediante GPS:


• Localización autónoma, donde se utiliza un único receptor ubicado en el lugar cuya
posición se desea saber
• Localización con corrección diferencial (DGPS), utilizando dos receptores GPS uno de los
cuales está en una posición conocida
• Localización diferencial de fase, donde se utiliza la fase de la señal para mejorar la
precisión
La exactitud del método suele expresarse como un “círculo de confianza” al nivel del 95%. El
radio de este círculo expresa un límite dentro del cual esperaremos encontrar el 95% de las
medidas tomadas con el receptor. Por ejemplo, si decimos que el círculo de confianza al 95%
tiene un radio de 5.5 m, estamos indicando que, de cada 100 medidas tomadas en lugar de
situación conocida, 95 tendrán asociado un vector de error de módulo inferior a 5.5 m.

Localización autónoma
Un único receptor puede dar resultados de posición basándose en la técnica conocida como
trilateración: medida de distancias a varios satélites simultáneamente.

2
La idea básica es la siguiente:
• conociendo la distancia d1 desde el receptor a un satélite de posición conocida, mi posición
sólo puede estar en la superficie de una esfera de radio d1.
• si conozco una segunda distancia a otro satélite, d2, mi posición sólo puede estar en algún
lugar de la intersección de las dos esferas: una circunferencia.
• si, finalmente, determino una tercera distancia, d3, a un nuevo satélite, la intersección de
las tres esferas se reducen a dos puntos. Habitualmente, esta localización será suficiente
porque una de las posibilidades podrá descartarse por estar lejos de la superficie terrestre.

Figura 3. Intersección de dos esferas en el espacio Figura 4. Intersección de tres esferas en el espacio
(una circunferencia) (dos puntos)

El problema reside, por tanto, en determinar con exactitud y precisión la distancia desde el
receptor a cada satélite. Para ello debe determinarse el tiempo que cada señal tarda en llegar al
receptor desde cada punto de origen.
Una vez conocido este tiempo, t , la distancia es fácil de estimar: d = c · t, donde c es la
velocidad de la luz (299 792 458 km/s en el vacío).
Para conocer el tiempo del viaje es necesario saber cuándo se emitió la señal en el satélite y
cuando llegó a nuestro receptor. Esto se consigue de la forma siguiente (ver Figura 5):
• La señal que se emite está modulada de acuerdo con un patrón pseudo-aleatorio
(código C/A) determinado por el reloj del satélite. El código de 1023 bits se emite a una
frecuencia 1.023 MHz lo que supone una repetición de 1000 veces por segundo. Se
denomina distancia máxima no ambigua a la distancia recorrida por la señal en el
tiempo de duración del código (igual a c/1000, unos 300 km).
• Este mismo código se genera por el reloj que tiene cada receptor.
• El desfase o retraso (“lag”) entre ambas señales, emitidas al mismo tiempo, hace
posible estimar el tiempo trascurrido entre la emisión y la recepción.

Figura 5. Cálculo del tiempo por comparación de dos señales con igual modulación.
Este principio plantearía un sistema de ecuaciones con tres incógnitas: las coordenadas del
receptor (la localización de cada satélite se trasmite en las propias señales que emite). En

3
realidad, el problema es algo más complejo porque los receptores carecen de reloj atómico por
lo que al sistema de ecuaciones se le añade una incógnita más, relacionada con la inexactitud
del reloj local. Por este motivo es necesario disponer de un satélite más para resolver el
problema.

Figura 6. Fragmento de código C/A, formado por una secuencia 1023 bits que se emite a una
frecuencia de 1.023 MHz (el código se repite cada 1 ms).

La corrección del tiempo basada en este sistema de ecuaciones con 4 incógnitas puede
explicarse verbalmente de la forma siguiente:
• la intersección de las tres esferas se producirá en un punto
• si el reloj local (del receptor) estuviera perfectamente sincronizado con los relojes remotos,
y la introducción de una cuarta medida será coherente con las anteriores y pasará
exactamente por el mismo punto
• como el reloj local no está sincronizado perfectamente, la cuarta medida no coincidirá; esta
discrepancia se debe a un retraso o adelanto de nuestro reloj local
• la solución es probar a “mover” nuestro tiempo local hasta que las 4 medidas coincidan en
un único punto, que será la solución correcta
Es decir, a partir de cuatro satélites con relojes coordinados y un receptor con un reloj sólo
aproximadamente coordinado, es posible detectar y eliminar el error de desfase local y hacer
una estimación exacta de la posición (ver figura siguiente).
La precisión del método depende de la frecuencia del reloj: a mayor frecuencia, mayor
precisión. Por este motivo, el uso militar del GPS consigue mejores precisiones ya que el código
que usan (código P) tiene una frecuencia 10 veces mayor que el código C/A.

En la medida, las tres esferas primeras (gris)


coinciden en un punto pero la medida de
control (negro) no es compatible.
Este error es debido a que el reloj local no
está perfectamente sincronizado con el de
los satélites.

Las posibilidades de falta de sincronización


no son infinitas y es posible ensayar entre
diferentes desfases para conseguir un ajuste
perfecto en la intersección de las 4 esferas.

4
Fuentes de error en las medidas
Existen fuentes de error que degradan las medidas del GPS, algunas de las cuales pueden ser
corregidas, como veremos posteriormente.
Distorsión ionosférica y atmosférica
La velocidad de la luz sólo es constante en el vacío y en el viaje de las señales desde los
satélites hasta el receptor esta velocidad varía. El retraso no es constante por lo que afecta a la
estimación del tiempo de forma imprevisible. Algunos factores que intervienen son la elevación
del satélite sobre el horizonte local, la variación en las características de la ionosfera entre el día
y la noche (la perturbación nocturna es mínima) y el contenido en vapor de agua de la
atmósfera.
La solución consiste en duplicar las medidas aprovechando las dos frecuencias, L1 y L2, de las
señales GPS. Como la reducción de la velocidad a través de la ionosfera es inversamente
proporcional a la frecuencia de la señal, la disponibilidad de medidas en dos frecuencias permite
estimar el efecto con precisión. Los receptores GPS que pueden aprovechar esta propiedad
física se denominan “de doble frecuencia”.
Errores por multitrayectoria
Este error se produce cuando el receptor recibe no sólo la señal principal del satélite sino
también ecos procedentes de la reflexión de dicha señal en superficies como agua, muros, etc.
Las antenas actuales incorporan protecciones para reducir este efecto.
Dilución de la precisión (DOP)
La posición de los satélites influye en las medidas en función del ángulo con el que se
intersecan las esferas de localización. Dos satélites muy próximos entre sí generarán dos
esferas de posiciones casi tangenciales con lo que la determinación de la intersección será
imprecisa. Para expresar el factor de imprecisión se utiliza un índice llamado GDOP (dilución de
la precisión geométrica) cuyo valor aumenta con la imprecisión. El valor de GDOP puede
reducirse aumentando el número de satélites o mejorando sus posiciones respecto al receptor:
ángulos abiertos y buenas elevaciones sobre el horizonte local (más de 15º).

Figura 7. Dos posiciones con alto GDOP (baja precisión, izquierda) y bajo GDOP
(alta precisión, derecha). El GDOP puede considerarse en una aproximación como
inversamente proporcional al volumen del tetraedro en la figura.

5
1.3 Localización con corrección diferencial (DGPS)

Se llama GPS diferencial a la toma de datos que se realiza incorporando al receptor autónomo
un receptor complementario (receptor base o de referencia) situado en un punto de posición
conocida.
La idea de funcionamiento es muy simple: dado que el receptor de referencia está en un punto
de coordenadas conocidas, puede comparar los resultados de la medida GPS con la posición
real. Las diferencias en X, Y y Z son los errores inducidos por el efecto ionosférico, relojes en
los satélites, variaciones orbitales, o cualquier otra fuente de error que esté actuando. El
receptor de referencia transmite los resultados al receptor autónomo que incorpora las
correcciones a sus propias medidas. Este procedimiento incrementa notablemente la exactitud
de la medida final.
Debido a movimiento de los satélites y a otros factores, los valores de las correcciones cambian
rápidamente por lo que la estación base debe calcular y transmitir las correcciones con la
misma rapidez al receptor autónomo.
La distancia entre los dos receptores se denomina línea base (baseline). Cuando esta distancia
es pequeña, las correcciones son exactas; como regla práctica, por cada km de línea base
puede estimarse un incremento de imprecisión de 1 mm aproximadamente, equivalente a 1
parte por millón (1 ppm). Para receptores monofrecuencia, la tasa aumenta a 2 ppm.
La corrección diferencial elimina todos los errores salvo los derivados de la posible
multitrayectoria y de errores internos del receptor autónomo.
La corrección diferencial puede aplicarse en tiempo real (lo cual exige la conexión por radio
entre los dos receptores) o no. En este último caso, las medidas se almacenan en ambos
receptores y se realiza un tratamiento informático a posteriori o en “postproceso”.
Con un correcto tratamiento DGPS sin errores por multitrayectoria se consigue una precisión de
unos 10 cm. Si se desea una mejora en estos resultados es necesario acudir a las llamadas
“medidas de fase”.

1.4 GPS diferencial de fase

Esta técnica es diferencial lo que significa que, como el DGPS, son necesarias dos estaciones
tomando medidas de forma simultánea. Sin embargo la técnica de estimación de medidas es
diferente que en el caso anterior.
La idea es determinar la distancia a los satélites contando el número de ondulaciones de la
señal que se han producido desde la emisión hasta la recepción. Las señales emitidas por los
satélites son ondas electromagnéticas de una longitud de onda conocida (L1 = 19.4 cm).
Supongamos que somos capaces de determinar que entre la emisión y la recepción se han
producido exactamente 104 123 824 ciclos. Como cada ciclo representa 0,194 m, la distancia
entre el satélite y el receptor es 104 123 824 x 0,194 m = 20 200 021,856 m. El método puede
ganar precisión si llegamos a determinar no sólo ciclos completos sino fracciones de ciclo (½,
¼, ⅛...).
La idea es exactamente igual a la utilizada en los altímetros láser transportados por satélites ya
que la luz láser es de frecuencia constante y coherente.
La determinación del número de ciclos es esencialmente un problema estadístico que puede
resumirse, muy simplificadamente en las siguientes figuras:

6
Una medida DGPS permite obtener una
posición aproximada que, en cualquier caso,
estará en algún lugar dentro del círculo.

Una medida de fase con un primer satélite nos


da la intersección de las ondas con el círculo,
reduciendo las posibilidades de localización: la
posición real estará en algún lugar de las
líneas dentro del círculo.

Una segunda medida de fase reduce las


posibilidades a las intersecciones de los dos
frentes de líneas dentro del círculo.

La adición de más satélites permite


aproximarse a la solución más probable. Por
añadidura, el continuo movimiento de los
mismos cambia la configuración del sistema
aportando más datos independientes que, al
final, permiten aproximar una solución para la
única constante del sistema: la posición local.

Debemos quedarnos con la idea de que la resolución del número de ciclos es la clave en este
método de medida que, en función del tiempo de medida y del resto de factores ya
mencionados puede ofrecernos precisiones de orden milimétrico.

7
2 Captura remota de datos de altimetría
Los métodos básicos para la conseguir los datos de elevaciones pueden dividirse en dos grupos:
directos —primary data— cuando las medidas se realizan directamente sobre el terreno real, e
indirectos —secondary data— cuando se utilizan documentos analógicos o digitales elaborados
previamente. La tabla siguientes muestra los más importantes:
Estos dos grupos incluyen los métodos siguientes:
1. Métodos directos: medida directa de los datos de altitud sobre el terreno (fuentes
primarias).
a. altimetría: instrumentos (altímetros) transportados por plataformas aéreas.
i. altimetría radar.
ii. altímetría láser, LIDAR.
b. GPS (Global Positioning System): sistemas de localización mediante trilateración a
satélites.
2. Métodos indirectos: medida a partir de documentos previamente elaborados (fuentes
secundarias).
a. Restitución, métodos que utilizan el paralaje calculado mediante pares
estereoscópicos de imágenes.
i. Imágenes analógicas: cámaras métricas convencionales.
ii. Imágenes digitales: cámaras métricas digitales o sensores transportados
por satélites con capacidad estereoscópica.
b. Digitalización de mapas analógicos de forma manual o mediante escáneres.

2.1 Altimetría radar

El uso del radar (acrónimo de Radio Detection and Ranging) como altímetro se basa en un
principio muy simple: una antena emite un pulso de energía electromagnética breve, intenso y
altamente concentrado (direccional). Este pulso viaja a la velocidad de la luz hasta que
encuentra una superficie reflectante. En ese momento, parte de la señal es reflejada y el eco es
recibido por la antena tras realizar el viaje de vuelta. Si es posible determinar el tiempo ∆t
transcurrido entre la emisión de la señal y la recepción del eco, la estimación de la distancia es
simple: z = ½ c · ∆t donde c es la velocidad de la luz (ver figura siguiente).

Los altímetros radar son aparatos extremadamente precisos: los transportados por los satélites
ERS-1 y ERS-22 —European Remote Sensing Satellite— es un radar de 13.8 GHz con un error
nominal de apenas unos centímetros.
Sin embargo, esta precisión es relativa, es decir, el altímetro es capaz de evaluar de forma muy
precisa diferencias entre medidas sucesivas. Sin embargo, hacer encajar esos datos en un
sistema de referencia global es un problema más complejo ya que depende de otros factores

2
http://earth.esa.int/ers

8
como la estabilidad orbital y distorsión atmosférica de las señales (mismo caso que en GPS).
Estos problemas han sido resueltos poco a poco mediante grandes mejoras en los sistemas de
navegación de los satélites y el uso de radares de doble frecuencia, que permiten conocer la
magnitud de la distorsión inducida por el paso a través de la atmósfera.

Satélite ERS-1. El altímetro radar es la antena


parabólica visible bajo los paneles rectangulares
superiores (antena del SAR).

Otro problema de más entidad es el derivado de la dispersión de la señal reflejada. Si la


superficie terrestre fuera un reflector casi perfecto, el eco recibido por la antena sería intenso y
claro. En realidad, la superficie del terreno es fuertemente difusora con lo que el eco es débil y
difícilmente puede determinarse el momento exacto de la recepción. Este problema aumenta en
zonas rugosas (montañas) hasta hacer el método inútil.
Debido a estos problemas, la altimetría radar ha encontrado su mejor aplicación en la medida
de la topografía de la superficie marina y en aplicaciones puntuales como el seguimiento de los
hielos polares.
Una gran ventaja del radar es que, además de una amplia cobertura y de que la toma de los
datos no está limitada por la accesibilidad de la zona, sus señales no se ven perturbadas por
una posible capa de nubes. Veremos posteriormente que una sofisticación del método original
se ha convertido en el método más prometedor de captura de datos global: la interferometría
radar.
Un buen ejemplo del uso de altímetros láser es el sistema Topex/Poseidon3, un satélite lanzado
en 1992 con el objetivo de medir la topografía marina (figura siguiente). Su buen
funcionamiento hizo que la misión se prolongara mucho más allá de la fecha prevista de
desactivación (1995) y sigue funcionando en la actualidad.
Este sistema ha sido utilizado entre otras cuestiones para el seguimiento del fenómeno de El
Niño (ENSO: “El Niño and the Southern Oscillation”) que supone variaciones estacionales de la
temperatura del mar en el Océano Pacífico.
Cabe destacar que los mapas de temperaturas del mar que frecuentemente se presentan para
ilustrar el fenómeno de El Niño se generan a partir de la superficie topográfica (desniveles
relativos).
La sustitución del Topex/Poseidon es el satélite Jason-14, lanzado en septiembre de 2001 y
actualmente en funcionamiento conjuntamente con el anterior.

3
http://topex-www.jpl.nasa.gov/
4
http://topex-www.jpl.nasa.gov/mission/jason-1.html

9
Superficie topográfica del mar (http://topex-www.jpl.nasa.gov/gallery/science.html)

2.2 Altimetría láser

Recordemos que láser (Light Amplification by Stimulated Emission of Radiation) es una luz
monocromática y coherente: la longitud de onda de la luz es única y, además, las ondas se
propagan en fase.
El método de medida es esencialmente idéntico al expuesto para el radar con la obvia
diferencia del uso de pulsos de luz en vez de microondas.
Puede destacarse el temprano uso de esta técnica en misiones espaciales. La misión Magallanes
levantó la topografía del Venus en el periodo 1990- 1994 mediante altímetros láser y SAR
(radar de apertura sintética). Con estos datos se construyó el MDE del 98% de la superficie de
Venus con 100 m de resolución espacial (http://www2.jpl.nasa.gov/magellan/).
Actualmente, el instrumento MOLA (Mars Orbiter Laser Altimetry) realiza una misión
topográfica sobre Marte que entre marzo de 1999 y febrero de 2000 tomó 266.7 millones de
cotas con una precisión de 1 m. En este caso, el sensor levanta perfiles según se sobrevuela el
terreno y es la suma de estos perfiles lo que ha permitido construir un MDE de Marte con
exactitud superior a la disponible para nuestro propio planeta. El altímetro dejó de funcionar en
junio de 2001 tras haber tomado unos 640 millones de cotas en 1696 días de operación (unas
377 000 cotas diarias).

Monte Olimpo (Región de Tharsis, Marte),


volcán de 764 km de diámetro y 25 km de
altura; vista generada a partir de los datos
MOLA.

El mayor problema para el uso de altímetros láser transportados por satélites es la enorme
sensibilidad a los efectos atmosféricos, que los hace prácticamente inútiles salvo en condiciones
de extrema transparencia. Este problema podría solventarse mediante láser aerotransportados,

10
con una altura de vuelo reducida (en todo caso, muy inferior a los centenares de km de las
órbitas de los satélites). Aunque los antecedentes son remotos (NASA, años 70) no había sido
posible construir un sistema funcional debido básicamente a los problemas de estabilidad de los
aviones, sometidos a las turbulencias de la baja atmósfera, y que hacían que las medidas
fueran tan imprecisas que resultaban inservibles.
La introducción de la tecnología GPS para resolver el problema crítico de la posición de la
plataforma permitió en los últimos años la construcción de instrumentos eficaces.
El método actual se denomina genéricamente airborne laser scanning, e introduce algunas
variantes sobre el método básico, de las cuales la principal es la sustitución de los instrumentos
que generan perfiles por los que realizan barridos (scanners). Estos instrumentos utilizan láser
que operan en el infrarrojo próximo, lo que proporciona señales reflejadas más claras tras la
reflexión y difusión sobre el terreno. La precisión de los métodos de medida del tiempo emisión-
recepción han mejorado sustancialmente y está actualmente en los 10-10 s. La localización del
avión y la estabilidad del instrumento se consigue mediante GPS y sistemas inerciales de
navegación lo que permite una correcta localización en un sistema de referencia global.
Por similitud con el radar, estos sistemas de barrido se han denominado LIDAR (Ligh Detection
and Ranging). Los pulsos láser son enviados desde la plataforma aérea hacia el suelo en
ángulos variables, barriendo un área bajo la traza del vuelo definida por ángulos de ±20º sobre
la trayectoria cenital. Para cada pulso se calcula el vector que conecta el láser emisor con el
punto de reflexión y se asignan unas coordenadas polares respecto al origen a cada punto del
terreno. Esto debe realizarse con enorme rapidez ya que la baja altura del vuelo y la velocidad
del avión imponen elevadas tasas de captura para obtener una densidad razonable de cotas.
La frecuencia de pulsos es actualmente muy variable pero es posible trabajar con frecuencias
de muestreo entre 2 y 25 kHz aunque algún sistema alcanza los 80 kHz. De acuerdo con estas
cifras, en un vuelo a 1000 m la densidad de muestreo puede estar entre 1 punto por cada 20
m2 a 20 puntos por m2 con una precisión cercana a los 15 cm. Esta densidad es función
simultánea de la velocidad de vuelo, altura, tasa de muestreo y ángulo de barrido.

LIDAR utilizado para estudios atmosféricos;


en este caso los pulsos de luz son visibles
mientras que en los LIDAR aerotransportados
se utiliza luz infrarroja.

11
Modelo generado mediante LIDAR. La vista en perspectiva representa la superficie que
ha reflejado la señal. La tonalidad es función de la intensidad de la señal reflejada. De
esta forma, se combina el MDS con información “espectral” sobre la absorción de la
señal por los distintos elementos que cubren el terreno.
Imagen tomada de http://www.geolas.com/Pages/gallery.html

El presente de los LIDAR es real y existen ya varias empresas que los fabrican y otras que los
utilizan y ofrecen productos depurados. Una de las posibilidades de futuro está expresada en la
figura superior donde se han combinado una imagen con una localización espacial. La
revolución consiste en que este sistema es el único que aporta la localización espacial de cada
punto de la imagen a la vez que ésta es capturada. Aunque hasta ahora esta imagen es
“monocromática” y responde a la intensidad de la señal reflejada, cabe esperar la fusión entre
esta tecnología y la captura de imágenes multiespectrales.

2.3 GPS, sistemas de localización

Como los fundamentos ya han sido tratados,


comentaremos aquí solamente que, aparte de las
aplicaciones estrictamente topográficas, los GPS se
utilizan para la captura de puntos de apoyo y de control
para operaciones fotogramétricas. GPS ha supuesto una
revolución en las técnicas topográficas ya que son un
sistema que permite capturar datos independientemente
de cualquier punto de referencia sobre el terreno. La
determinación de la posición espacial no exige la
conexión visual con otros puntos (condición
característica de los métodos topográficos clásicos
basados en nivelación) ni el apoyo en una red de
referencia local ya que, por primera vez, se obtienen
posiciones relativas a un sistema global de referencia, el
WGS84. Disponer de puntos de apoyo es imprescindible
para el proceso fotogramétrico mientras que los puntos
de control se utilizan para el control del error. Todos
ellos pueden obtenerse con rapidez y fiabilidad
mediante GPS diferencial.
Aparte de lo anterior insistiremos aquí en que las
localizaciones proporcionadas por LIDAR
aerotransportados también están referidas a WGS84 ya
que la localización del avión se realiza con GPS.

2.4 Restitución fotogramétrica

Hasta el presente ha sido bastante más frecuente utilizar métodos indirectos para la captura de
datos de elevación y generación de los modelos digitales de elevaciones (MDE). Las causas han
sido que los de altimetría no han estado al alcance más que de unos pocos grupos de
investigación mientras que la mayoría de los usuarios han visto como estos datos se mantenían
inaccesibles bien por su coste bien por lo sofisticado de la tecnología.
El método más utilizado en la construcción de MDE ha sido hasta ahora la restitución
fotogramétrica. La restitución es un método indirecto que utiliza imágenes de la misma zona
tomadas desde puntos diferentes; la diferencia de perspectivas junto con el conocimiento de
algunos parámetros geométricos y físicos de la toma permite analizar el paralaje. El paralaje es
el desplazamiento aparente de un punto respecto a su entorno en las imágenes cuando se
observa desde dos posiciones diferentes. El análisis del paralaje permite construir un modelo

12
tridimensional de la superficie observada ya que, dada un plano de referencia común XY, este
desplazamiento depende de la elevación.
El reconocimiento exacto de puntos homólogos en las imágenes es un aspecto clave en la
calidad del resultado. Esta identificación puede hacerse manualmente o de forma automática en
estaciones fotogramétricas. Las estaciones fotogramétricas digitales no son sino ordenadores
donde el proceso se realiza a partir de imágenes digitalizadas.
Los pares estereoscópicos han sido hasta hace pocos años exclusivamente fotogramas aéreos,
tomados por cámaras de gran formato desde aviones en vuelo a diferentes altitudes. Estas
cámaras garantizan un control estricto sobre las condiciones de la toma en varios aspectos:
planeidad del negativo, localización exacta en el plano focal, conocimiento preciso de las
características del objetivo (longitud focal, aberraciones de las lentes), altura del vuelo en el
momento de la toma, etc. El conocimiento de estos parámetros permite realizar las
orientaciones de las imágenes: la construcción de un modelo geométrico que replica las
localizaciones relativas del terreno fotografiado y de los puntos de toma. En estas condiciones
ya es posible iniciar el reconocimiento de puntos homólogos (lugar que ocupa el mismo objeto
en las diferentes fotografías) y mediante el cálculo del paralaje estimar la localización espacial
en tres dimensiones.
Se denomina punto de apoyo a un punto reconocible en las imágenes del cual se conoce su
posición en un sistema de referencia concreto. La disponibilidad de varios puntos de apoyo
permite que las localizaciones resultantes del proceso fotogramétrico sean absolutas, en el
sentido de referirse al mismo sistema de referencia. Los puntos de apoyo suelen obtenerse
mediante GPS por lo que el sistema de referencia será, en principio, WGS84.

Cámara métrica analógica (6x6 cm) utilizada Cámara métrica analógica utilizada en
en fotogrametría terrestre (Rolleiflex 6008) fotogrametría aérea (Leica RC30)

Actualmente han cambiado algunas cuestiones que hasta ahora se habían mantenido
inmutables. Por ejemplo, en la fotogrametría “convencional” las imágenes son cenitales,
paralelas y tomadas desde aviones mediante cámaras métricas analógicas sobre película
fotográfica de gran formato (23x23 cm). Lógicamente, entre tomas consecutivas existe un
solapamiento o recubrimiento que permite la estereoscopía. Este recubrimiento suele ser de 2/3
del negativo. La película de someterse a un proceso de revelado para poder utilizarse en las
estaciones analíticas y debe ser digitalizada mediante un escáner para utilizarla en las
estaciones digitales.
Los cambios más recientes afectan a todo el proceso, tal como se expone a continuación.

Toma normal vs toma oblicua


El primer cambio afecta a la concepción de la toma. Se denomina toma normal a la toma de
imágenes donde los ejes ópticos son paralelos y aproximadamente perpendiculares a la
superficie analizada. En el caso de la fotografía aérea, la cámara estaría orientada según la
vertical y las fotografías se toman secuencialmente según avanza el avión cuidando que el
recubrimiento sea suficiente.

13
Este procedimiento no es el único posible: se habla de toma oblicua cuando los ejes ópticos de
las tomas no son paralelos. En el caso de la fotografía aérea, la cámara tomaría una imagen
cenital (vertical) y algo más tarde otra oblicua desde otro punto pero de forma que los ejes
ópticos converjan en un punto del terreno (centro de ambas imágenes). Si la toma oblicua es
posterior el eje estará orientado hacia atrás del sentido de vuelo pero es posible el caso inverso
(ver figura inferior).

Par estereoscópico oblicuo. La foto izquierda es cenital (eje de toma vertical) mientras
que la derecha es oblicua y, en este caso, tomada anteriormente como puede deducirse
del sentido del vuelo (figura de Mostafa & Schwarz 2001)5

La toma oblicua no está limitada a dos fotografías. En este sentido, en concepto de par
estereoscópico es superable y es perfectamente concebible una toma oblicua múltiple centrada
en un punto y desde diferentes puntos de vista. Si las estaciones fotogramétricas son capaces
de aprovechar este diseño, la redundancia de datos puede sin duda mejorar notablemente la
calidad de los resultados. La toma múltiple tiene fuertes implicaciones en el proceso
fotogramétrico, especialmente en aplicaciones arquitectónicas y en la restitución de objetos
complejos.

Cámaras analógicas vs cámaras digitales


Otro cambio importante afecta a los propios instrumentos de la toma. Como ya se ha indicado,
las cámaras analógicas obligan a someter a la película a un proceso fotográfico no exento de
riesgos. Asimismo, el positivado y la digitalización del original analógico introducen distorsiones
geométricas difíciles de controlar. Estos problemas pueden empezar a simplificarse con la
aparición de las cámaras métricas digitales. La captura directa de imágenes digitales ha tardado
en hacerse posible debido a problemas tecnológicos de diverso tipo:
El primero es la baja resolución espacial: los sensores son elementos fotosensibles que pueden
estar formando una matriz o una línea. En cualquier caso, la resolución espacial viene dada por
el tamaño de los elementos ya que en función de la altura de vuelo y de la distancia focal del
objetivo representan la unidad de superficie mínima sobre el terreno.
Otro problema relacionado con el anterior viene dado por la propia configuración de los
elementos. La disposición en matrices sólo se usan en las cámaras de medio formato para foto
terrestre (6×6 cm). Las cámaras aéreas usan la configuración en líneas y realizan un barrido
continuo de la superficie terrestre. Una imagen perfecta exige que las líneas sean paralelas pero
esto no es posible debido a la inestabilidad del avión (movimientos de cabeceo, guiñada, etc.).
Los sistemas inerciales reducen el problema pero no lo eliminan completamente por lo que
puede producirse la ausencia de datos en algunas zonas.

5
Mostafa, Mohamed M.R. & Schwarz, Klaus-Peter (2001). Digital imaging georefencing from a
multiple camera system by GPS/INS. ISPRS Journal of Photogrammetry and Remote Sensing,
56, 1-12.

14
Poco a poco estos problemas se han ido solucionando reduciendo el tamaño de los elementos y
duplicando o triplicando las líneas de sensores para aumentar la redundancia. Esto ha llevado a
la comercialización de la primera cámara métrica digital, el modelo ADS40 de Leica Geosystems.

ADS40 Airborne Digital Sensor de Leica


Geosystems. Características:
• multiespectral: pancromático, rojo,
verde, azul e IR próximo
• triple vector de CCD (cenital, anterior y
posterior)

Los cambios introducidos son importantes también en otros sentidos; por ejemplo, en el caso
de matrices de elementos la imagen es similar a una convencional y la perspectiva es cónica;
en el segundo el concepto es diferente ya que se realiza un barrido sobre el terreno capturando
datos línea a línea. Aquí no existe perspectiva cónica más que en el sentido perpendicular a la
línea de movimiento.
Esquema de toma de imágenes
fotográficas convencionales. Cada
imagen se solapa con la anterior y
la siguiente un 60%
aproximadamente, lo que da
cobertura estereoscópica.

Esquema de la toma
estereoscópica mediante barrido.
Los tres sensores del ejemplo
capturan los datos
simultáneamente con ángulos
diferentes. En todo punto del
terreno existen tres tomas: una
vertical y dos oblicuas.

Fotogrametría aérea vs fotogrametría espacial


La siguiente revolución ha venido dada por la incorporación de la capacidad estereoscópica a
los sensores transportados por satélites. Aunque esto supone lógicamente una pérdida de
resolución espacial debido a la altura de vuelo, la cobertura y la periodicidad de las tomas se
hacen mucho mayores.

15
El primer satélite con capacidad estereoscópica fue SPOT, lanzado en 1986, que permitió
obtener pares estereoscópicos mediante variaciones laterales en el ángulo de vista,
programables desde tierra. Los sensores pancromáticos del SPOT permiten una resolución de
10 m, con un rango espectral de visión similar al del ojo humano. Según algunos autores, los
MDE resultantes tienen una calidad comparable a los obtenidos mediante los métodos
fotogramétricos convencionales. Otros autores, sin embargo, presentan estudios con valores de
error más elevados, compatibles solamente con escalas poco detalladas.
Actualmente existen varios satélites con capacidad estereoscópica. La tabla siguiente enumera
los más conocidos.

Instrumento/Misión País/Año Pixel (m) ECM (Z) ECM (XY) ESTER.

HRV/SPOT Francia/1986 10 10 10 Lateral

OPS/JERS Japón/1992 18x24 ~35 ~35

MOMS-02/Spacelab Alemania/1993 4.3 Long.: F/B

IRS P/IRS-1C India/1994 5.7 ~5 ~5 Long.: F/B

ASTER/TERRA USA/1999 15 ~40 m ~15 Long.: B

Ikonos 1 5 4 Long.

PRISM/ALOS Japón/2004 2.5 ¿ ¿ F/B

La estereoscopía en los satélites puede tomarse de dos formas:


• estereoscopía lateral (cross-track): las imágenes se obtienen desde dos órbitas distintas lo
que obliga al giro lateral del sensor. HRV-SPOT es un ejemplo de este tipo de toma.
• estereoscopía longitudinal (along-track): las imágenes son obtenidas desde distintas
posiciones en la misma órbita; los sensores suelen ser dobles o triples y mantener una
orientación fija, hacia delante (forward) o hacia atrás (backward). Como ejemplos, ASTER
realiza una toma hacia atrás y MOMS posee ambas. Lógicamente siempre existe una toma
vertical.

ALOS, Advanced Land Observing Satellite, PRISM, Panchromatic Remote-Sensing


portador del instrumento PRISM. La figura Instrument for Stereo Mapping, radiómetro
muestra la forma de toma longitudinal con 2.5 m de resolución y triple toma con
mediante tres sensores simultáneos. ángulos de ± 24º 6

6
http://www.eorc.nasda.go.jp/ALOS/about/prism.htm

16
2.5 Interferometría radar

Ya se ha comentado antes que tanto al láser como el radar son sensores activos: emiten una
radiación desde una antena emisora y reciben el eco. Si la radiación es coherente el sensor
puede distinguir el punto exacto en el que se encuentra la oscilación de la onda reflejada: la
fase.
La medida de la fase proporciona un método extremadamente preciso de cálculo de distancia
debido a la elevada frecuencia de trabajo: si un radar transportado por un satélite funciona a 6
GHz, la señal recorrerá sólo 5 cm en el tiempo de una oscilación completa. Si el suelo está
exactamente a 800 km de distancia, los 1600 km de ida y vuelta corresponden a un número
entero de ciclos (32 000 000) y la onda recibida llegará en fase con la onda de salida. Si la
distancia es de 800 km y 1 cm, la onda llegará con un desfase del 40%: un 20% corresponde al
cm del viaje de ida y el otro 20% al del viaje de vuelta. Este desfase se detecta en equipo
receptor. La medida de la fase permite, por tanto, estimar las distancias con precisiones
centimétricas.
El problema con el que se encuentra esta metodología es que la unidad mínima de medida
puede ser un área relativamente amplia de suelo; si este área es heterogénea generará
reflexiones múltiples que se combinarán de forma que la fase resultante parece aleatoria e
inutilizable.
Quedémonos con los hechos de que los sensores activos emiten radiación electromagnética en
la zona las microondas (1 – 0,001 m de longitud de onda) y que la antena receptora recibe la
señal reflejada registrando tanto la amplitud como la fase. Los radares usados en
interferometría suelen trabajar con frecuencias de 5 a 10 GHz. 7
El fundamento la interferometría es, en principio, simple: disponemos de dos antenas
separadas; una de ellas emite una señal cuyo eco es recibido por las dos simultáneamente; las
fases de los ecos recibidos no serán exactamente iguales debido a la diferente localización de
las antenas respecto al punto terreno. Mediante los procedimientos matemáticos adecuados es
posible deducir la altura del terreno a partir del valor de esta diferencia de fase.
Un interferograma es el resultado de combinar las dos imágenes de fase tomadas
simultáneamente desde lugares diferentes (una especie de par estereoscópico radar); el
nombre proviene de la figura de interferencia que se genera cuando se combinan dos ondas.
Obviamente, la realidad es algo más compleja. Cuando se recibe un eco de un píxel donde
existe un único reflector, la fase es determinística pero cuando existen múltiples receptores en
un píxel, existe un componente aleatorio que hace que una sola imagen de fase sea
habitualmente inútil. Si se toman dos imágenes en condiciones adecuadas, los componentes
aleatorios son prácticamente iguales y pueden ser eliminados, quedando sólo el componente
determinístico.
Por tanto, aunque la fase de cada imagen considerada independientemente parece aleatoria, el
interferograma muestra que la diferencia de fases exhibe unos patrones de interferencia
bastante claros. Estos patrones de interferencia son el resultado de combinar las dos fases de la
señal reflejada en cada punto del terreno y son un indicador de las diferencias de distancia al
terreno entre las dos tomas.
También es posible usar una sola antena y comparar imágenes tomadas en dos órbitas
diferentes en cuyo caso la distancia entre tomas deben estar dentro de unos rangos
determinados para evitar una total pérdida de coherencia; esta distancia crítica depende de la
aplicación y se ha valorado en unos 150-300 m para el ERS-1 para la construcción de modelos
digitales de elevaciones.

7
El Shuttle Imaging Radar (SIR-C) desarrollado por la NASA trabaja a 5.6 GHz, el X-SAR (X-Band
Synthetic Aperture Radar) italo-alemán a 9.6 GHz

17
Interferograma elaborado con imágenes MDE generado a partir del interferograma
radar de 24 cm de longitud de onda (banda anterior. La saturación de color responde
L). a la intensidad de la señal reflejada.

http://www.ersc.wisc.edu/research/Projects/Radar/ifsar/ersc_ifsar2.htm

Otra idea del uso de la interferometría consiste en comparar dos imágenes del mismo lugar
tomadas desde la misma posición pero en momentos diferentes. En principio, si las dos
imágenes se toman exactamente desde el mismo sitio, no debería haber diferencias de fase los
pixeles homólogos de las dos imágenes: si aparecen diferencias sólo pueden deberse a cambios
ocurridos entre las dos tomas.
Este principio se ha utilizado para el seguimiento de los movimientos debidos a terremotos y
volcanes, así como para medir el movimiento de glaciares.

Interferograma sobre el Volcán


Westdahl (Alaska). La intrusión de
magma en la cámara subterránea
ha provocado el crecimiento del
cono en unos 17 cm. Sobre zona
de la cima (gris) no puede
construirse el modelo ya que está
cubierta de hielo.

Escala de desplazamiento en z

http://volcanoes.usgs.gov/About/What/Monitor/Deformation/Westdahl.html

18
SRTM, Shuttle Radar Topography Mission8
Esta misión, dependiente del JPL, se desarrolló en febrero de 2002, con el objetivo final de
construir un MDE de gran parte de la Tierra mediante métodos de interferometría radar. La
lanzadera espacial Endeavour portó dos radares de doble frecuencia que tomaron 12 Tb de
datos a lo largo de 11 días (222 horas) a 225 km de altura y 7.5 km/s. En total se cubrió el
80% de la superficie terrestre (119.6 millones de km2) entre los paralelos 60N y 56S.
La lanzadera llevó una de las antenas en el propio fuselaje mientras que la otra se desplegó en
el extremo de un brazo de 60 m de longitud. Los dos radares permiten la captura simultánea de
datos evitando los problemas de tener que usar capturas multiorbitales.

Esquema de la lanzadera espacial con la


segunda antena desplegada.
Se prevé que el MDE cumplirá las
especificaciones ITDH-2 (Interferometric
Terrain Height Data-2) lo que implica un
pixel de 30x30 m con una precisión
absoluta altitudinal mínima de unos 12 m.
La referenciación absoluta de los MDE se
lleva a cabo mediante la toma de puntos de
apoyo en tierra.
Actualmente están disponibles los datos
completos de toda la Tierra con una
resolución mínima de 90 m y
gratuitamente:
ftp://edcsgs9.cr.usgs.gov/pub/data/srtm/

Cobertura de la misión SRTM donde se representa el número de veces que fueron


tomados datos interferométricos.

Señalaremos finalmente que en la actualidad existen Existen 4 satélites con radar operativos
actualmente: Radarsat (CCRS, Canadian Center for Remote Sensing), ERS-1 y ERS-2 (Agencia
Espacial Europea) y JERS-1 ( National Space Development Agency of Japan); aunque ninguno
de ellos fue diseñado especialmente para generar interferometrías todos pueden ser usados
para ello con mayor o menor facilidad y prestaciones.

8
http://www.jpl.nasa.gov/srtm/

19
El procesado de los interferogramas es complejo pero se trata de una tecnología ya
relativamente madura para la que ya existen aplicaciones comerciales. Por ejemplo:
IntelliWave9 de Engineering Synthesis Design, Inc. es una aplicación específica así como
11
EarthView InSAR 10 o GAMMA Interferometric SAR Processor (ISP)
Finalizaremos con una curiosidad: como con otros métodos, los primeros pasos de esta técnica
se dieron lejos de la Tierra: fue usada inicialmente por Rogers e Ingalls (1969) para la
observación de la superficie de Venus y de la Luna.

Imagen del volcán Kiluaea elaborada


mediante interferometría radar.

Para saber más: ESA Workshop on Applications of ERS SAR Interferometry, 1996, Remote
Sensing Laboratories, University of Zurich, Switzerland.
http://www.geo.unizh.ch/rsl/fringe96/

2.6 La digitalización

Hace unos años los métodos fotogramétricos eran utilizados generalmente por organismos de la
administración o por empresas especializadas. El muy elevado coste de los restituidores
analíticos hacía difícil que pequeños equipos pudieran abordar la construcción de los MDE por
esta vía. La opción alternativa era la digitalización de los mapas topográficos preexistentes, lo
cual puede realizada de forma manual, mediante un tablero digitalizador o en pantalla, o
automáticamente mediante un escáner.
Actualmente tal alternativa no tiene cabida, en mi opinión, ya que existen restituidores digitales
cuya relación coste/eficacia es tan alta que hace inaceptable el uso de métodos de digitalización
de originales cartográficos. Los motivos son diversos y serán expuestos posteriormente.
El uso del escáner sí tiene completa vigencia en la digitalización de los fotogramas aéreos,
operación necesaria para incorporarlos en las estaciones fotogramétricas digitales. Para esta
función se utilizan los llamados escáneres fotogramétricos cuyas principales características
diferenciales sobre los escáneres de sobremesa normales son básicamente las siguientes:
• resolución: las resoluciones normales de escaneo de documentos están entre los 300 y los
600 ppp (píxeles por pulgada, 25.4 mm); esto supone unos tamaños de pixel de 0.085 mm
a 0.042 mm. Los escáneres fotogramétricos suelen permitir resoluciones alrededor de los

9
http://www.engsynthesis.com/intelliwaveframe.htm
10
http://www.ziimaging.com/productPages/terrain_model.htm#inSar
11
http://www.gamma-rs.ch/isp.php

20
0.005 mm (5 µm, 5080 ppp), aunque el foto aérea se ha hecho habitual utilizar 0.020 mm
(20 µm, 1270 ppp).
• exactitud geométrica: los píxeles deben estar “en su sitio”; la precisión en la localización
geométrica de los pixeles deben estar alrededor de las 2-3 µm. Este valor se determina
escaneando una placa calibrada con señales.
Aparte de las anteriores características, debe cumplirse que la resolución espectral (rango
dinámico, capacidad para determinar niveles de gris) debe ser al menos igual que la de la
película escaneada para no perder información.

Escáner fotogramétrico UltraScan 5000, de


Vexcel http://www.vexcel.com/
o resolución: 5 µm (5080 ppp)
o exactitud geométrica: ± 2 µm

Un problema potencial en el uso de estos medios de elevada precisión es que los originales
analógicos deben estar a la altura, es decir, es inútil utilizar un escáner fotogramétrico para
digitalizar un positivo donde el revelado ha reducido el contraste y donde el soporte (papel)
permite distorsiones dimensionales del orden de 0.5 mm o más. Una fotografía aérea positivada
y almacenada sin cuidado puede un documento inútil para el proceso fotogramétrico con una
probabilidad elevada.

Digitalización de mapas analógicos


La digitalización automática de mapas ha sido una línea de investigación pujante hace años
debido a dos factores: que los métodos de digitalización manual son lentos y proporcionalmente
muy costosos dentro del total del proceso y que no prácticamente no existía información digital.
De forma general, la digitalización de las curvas de nivel se realiza a en un proceso formado por
varias fases:
• toma de una imagen del mapa mediante un escáner de gran formato (DIN A1 o mayor),
con un tamaño de pixel suficiente para recoger claramente las líneas y discriminar la
mínima separación entre ellas. En Peled y Fradkin (1994:249) se sugiere una resolución de
1000-1200 puntos por pulgada para la digitalización de originales complejos a escala
1:50.000. La imagen puede ser binaria pero también es posible tomarla en color para poder
separar elementos de diferentes colores.
• filtrado de la imagen para separar las estructuras de interés y descartar el resto. Por
ejemplo, si las curvas de nivel están en color siena, se indicarán unas tolerancias para el
mismo y se borrarán todos los pixeles que queden fuera del rango.
• vectorización de la imagen contrastada, de forma que los pixeles adyacentes se estructuran
en líneas, generándose la imagen vectorial más compacta y utilizable. Su similitud con el
mapa original es función de la calidad gráfica y complejidad de éste pero suele ser un
producto poco depurado debido a las dificultades de separar las líneas de nivel de cualquier
otra entidad del mapa: retículas, toponimia, cotas, carreteras, red hidrográfica, tramas, etc.
Esta fase puede realizarse de forma automática o asistida, donde la toma de decisiones
ante situaciones conflictivas la realiza un operador ante la pantalla gráfica
• edición manual, para la corrección de los errores topológicos y para la asignación de
altitudes a las líneas
De este conjunto de procesos resulta la versión digital vectorial del mapa topográfico original
cuyo coste y utilidad depende estrechamente de la calidad del mapa original.

21
El principal problema de la digitalización mediante escáner es que los originales suelen ser
complejos, con mucha más información que la estrictamente deseable, que sería
exclusivamente las curvas de nivel y poco más. Las confusiones con el resto de elementos del
mapa hace que la fase de revisión y corrección sea frecuentemente muy costosa, hasta el punto
de que puede tener un rendimiento menor que la digitalización manual. Este tipo de errores se
propaga al documento digital como errores topológicos, el problema más frecuente de la
vectorización automática.

La digitalización manual
La digitalización manual se puede realizar sobre un tablero digitalizador o sobre la pantalla de
un ordenador. En el primer caso se coloca el mapa original sobre el tablero mientras que en el
segundo, el mapa analógico se habrá escaneado y será la imagen la que se presenta en la
pantalla. En ambos casos, las curvas de nivel se siguen manualmente con un cursor de forma
que el ordenador recibe a ciertos intervalos, normalmente decididos por el operador, las
coordenadas que definen la trayectoria de la línea.

Los tableros digitalizadores contienen de una densa rejilla que es capaz de localizar el
cursor con una precisión elevada (variable según el modelo pero no inferior a los 0.25
mm (100 líneas por mm). Esta precisión es superior a la que un operador es capaz de
mantener durante una sesión de trabajo.

Los programas de digitalización actuales ya no tienen problemas de capacidad a la hora de


realizar trabajos complejos. Existen, sin embargo, otros factores que influyen en la eficacia
global del proceso, como los siguientes:
• la capacidad del ordenador utilizado, que debe estar adaptada a la complejidad real de los
mapas. Aunque los SIG suelen incluir utilidades de digitalización, su uso obliga
habitualmente a inmovilizar un ordenador de gran capacidad para una tarea que no la
necesita, lo que supone un derroche de medios poco justificable.
• el uso de programas específicos para la digitalización obliga frecuentemente a usar
formatos de almacenamiento que, aunque adaptados al manejo de la información gráfica,
no se pueden usar de forma directa por los SIG. Este problema exige prever métodos de
conversión de formatos que ocasionen una pérdida mínima de información. Debe resaltarse
que los procesos de traducción de formatos, sobre los que se suele hacer poco énfasis,
pueden suponer un problema no trivial y que exigen una inversión de tiempo a veces muy
elevada.
Los trabajos de digitalización son, en la práctica, de calidad muy irregular aunque la
competencia profesional del operador y la calidad del mapa original siguen siendo los dos
factores básicos. Son, en cualquier caso, un método desaconsejable que sólo debe adoptarse
como último recurso y con la seguridad de que la calidad del producto es suficiente para los
objetivos que se persiguen.

22

You might also like