Post on 07-Jul-2018
8/18/2019 APUNTES TELEDETECCIÓN
1/68
Tema 1
¿Qué es la Teledetección?
•
¿Qué es la teledetección?• Aplicaciones de la teledetección.
• Historia de la teledetección.
• Ventajas e inconvenientes.
• Integración con SIG.
Teledetección (remote sensing):
Obtención de información de un objeto, área o fenómeno, a través del análisis
de la radiación electromagnética emitida o reflejada, adquirida mediante un
dispositivo o sensor, que no está en contacto directo con el objeto, área o
fenómeno estudiado.
1.
Obtención de información.
2. Transmisión de datos.
3. Almacenamiento, tratamiento, análisis y aplicación de esa información.
Aplicaciones de la teledetección
Estudio de la superficie de la tierra
1. Detección de incendios
2.
Evaluación de catástrofes
3.
Cartografías temáticas (de vegetación, mapas geológicos, mapasde pendientes, mapas de riesgo…)
4. Usos civiles: ej: ordenación del territorio, catastro…
5. Usos militares y estratégicos
6. Estudio de la atmósfera y la meteorología
Planetología
Implicaciones científicas, económicas y legales
8/18/2019 APUNTES TELEDETECCIÓN
2/68
Muchos usuarios: Gobiernos, organizaciones internacionales, ONGs, empresas,
centros de investigación…
Componentes
Breve historia de la Teledetección
1840 – Charles Wheatstone. Inventa el estereoscopio. Dos fotografías continuas
y solapadas, que permiten obtener una imagen en relieve.
1855 – James Clerk Maxwell, describe la teoría aditiva del color, cómo
percibimos el color y cómo son creados. Posteriormente, desarrolla la teoría del
espectro electromagnético, demostrando matemáticamente que la luz, el
magnetismo y la electricidad son manifestaciones del mismo fenómeno: El
campo electromagnético.
1873 – Herman Vogel, descubre films próximos a captar luz infrarroja.
1858 - Gasper Felix Tournachon “Nadar“ , toma la primera fotografía aérea
desde un globo sobre París a una altura de 1.200 pies.
1858 - 1860's – En la guerra civil americana se utilizan globos para realizar
fotografías con propósitos militares.
8/18/2019 APUNTES TELEDETECCIÓN
3/68
1903 - Cuerpo de Palomas Bávaras: Se colocaron en palomas cámaras
programadas para tomar una fotografía cada 30 segundos a medida que la
paloma volaba. Desafortunadamente la mayoría de las palomas fueron cazadas
por las tropas enemigas.
1906 - Albert Maul , utilizó una cámara adosada a un cohete propulsado por aire
comprimido. Realizó fotografías aéreas a una altura de 2.600 pies.
1907 - Auguste y Louis Lumiere , desarrollan un simple sistema de fotografía en
color.
1908 – Wilbur Wright, pilotó el primer avión a medida que su pasajero, L.P.
Bonvillain, tomaba fotos aéreas en Francia.
1914 – 1918. Durante la Primera Guerra Mundial se montaban cámaras en los
aviones o eran manejadas por los aviadores. Normalmente esas fotos eran
utilizadas en misiones de reconocimiento.
1946 – Durante la Segunda Guerra Mundial el ejército de los Estados Unidos
lanzó cohetes a alturas anteriormente jamás alcanzadas (100-160 km). Nuevos
sensores: RADAR
1957 – Guerra fría. Rusia lanza el Sputnik-1, primer satélite artificial de la
historia. Comienzo de la carrera espacial.
•
8/18/2019 APUNTES TELEDETECCIÓN
4/68
Principales ventajas
• Visión global
– áreas enormes, zonas inaccesibles…
• Observación a distintas escalas
• Cobertura frecuente
– estudio de variaciones en el tiempo o bien perfeccionar la
interpretación de la imagen.
• Homogeneidad en la adquisición
•
Regiones no visibles del espectro
– IR térmico distribución de temperaturas (mejor en superficies
marinas)
• Formato digital
– (se gana tiempo gestión de catástrofes)
Inconvenientes
• Calibración (medidas absolutas)
• Cobertura nubosa (Solución: RADAR)
• Frecuencia de adquisición
• Resolución espacial
• Resolución espectral
• Visión estereoscópica
– la mayor parte de los sensores espaciales no lo permiten. Sólo
sensores fotográficos y SPOT. El resto sólo en zonas de solape de
las órbitas.
8/18/2019 APUNTES TELEDETECCIÓN
5/68
Características de las imágenes de Teledetección:
• Imagen digital: compuesta por una disposición bidimensional de
elementos pictóricos o pixeles. En cada píxel, la cantidad de radiación
electromagnética detectada se cuantifica como un número o valorradiométrico, que se traduce visualmente en distintos grados de brillo o
intensidad.
• El píxel se define a través de su posición (fila/columna) y su valor.
• Imagenes con valores byte: es decir, valores radiométricos entre 0 y 255:
– 0 (0% de reflectividad): Negro
–
255 (100% reflectividad): Blanco
• Estas matrices de valores radiométricos se pueden visualizar:
– En matices de gris
– En composiciones coloreadas (mediante una combinación de
varias bandas)
¿Por qué el rango 0-255?
El byte (B) es una unidad de información compuesta por 8 bits
El valor máximo de 255 para un byte viene dado por las posibles combinaciones
que se pueden formar con 8 bits. Su expresión matemática sería 2 elevado a 8 (
2^8 = 256 ).
8/18/2019 APUNTES TELEDETECCIÓN
6/68
• Un kilobyte (kB) = 1000 bytes
• Un megabyte (MB) = 1000 kB = 1.000.000 bytes
• Un gigabyte (GB) = 1000 MB = 1.000.000.000 bytes
• Un terabyte (TB) = 1000 GB = 1.000.000.000.000 bytes
SIG vs. Teledetección
Teledetección:
1.- Obtención de información.
2.- Transmisión de datos.
3.- Almacenamiento, análisis y aplicación.
SIG:
herramienta informática para gestión de bases de datos localizadas
geográficamente.
Integración Teledetección y SIG: Ambos utilizan datos georeferenciados y herramientas informáticas semejantes.
Se desarrollan por y para un mismo tipo de usuario o investigador.
Se complementan:
Los SIG aportan un marco geográfico a los datos de teledetección, pero también
enriquecen el análisis digital de las imágenes ofreciendo mapas climáticos,geológicos, hidrografía, etc.
La teledetección actúa como fuente de datos de un SIG.
Software para el tratamiento de imagenes de Teledetección:
Los trabajos realizados en teledetección a nivel usuario se relacionan
mayoritariamente con el tratamiento y análisis de imágenes digitales.
8/18/2019 APUNTES TELEDETECCIÓN
7/68
Para ello, en el mercado existen numerosos programas informáticos enfocados a
la teledetección, pero muchas de las funciones típicas de los softwares puros de
teledetección (técnicas de filtrado, aplicación de contrastes, etc...) se pueden
realizar con otras aplicaciones de tratamiento general de imágenes como Corel
Photo-Paint , Corel Draw , Abobe Photoshop , o Adobe Illustrator , entre otros muchos.
Un software específico para teledetección debe tener, al menos, los siguientes
módulos:
• Tratamiento y análisis digital de imágenes.
• Gestión de datos vectoriales.
• Tratamiento de datos fotogramétricos y RADAR.
• Producción cartográfica.
Ejemplos de programas teledetección: Idrisi, Erdas.
SIG: gvSIG (gratuito, universidad de Valencia), Arc Gis (también teledetección).
8/18/2019 APUNTES TELEDETECCIÓN
8/68
Tema 2
Fundamentos de la teledetección:Espectro electromagnético
•
El espectro electromagnético.• Curvas de reflectividad.
• Interacción de la energía electromagnética con la materia o la atmósfera.
• El espacio de color RGB.
• Combinaciones de bandas.
El espectro electromagnético.
Formas de adquirir información
(1) Reflexión
(2) Emisión
(3) Emisión-Reflexión
Cada superficie refleja o absorbe en distinto grado
8/18/2019 APUNTES TELEDETECCIÓN
9/68
Obtención de información de un objeto, área o fenómeno, a través del análisis
de la radiación electromagnética emitida o reflejada, adquirida mediante un
dispositivo o sensor, que no está en contacto directo con el objeto, área ofenómeno estudiado.
La Radiación Electromagnética, o la forma en que la Energía Electromagnética
se propaga, está basada en las teorías básicas de ondas.
Onda Electromagnética:
Combinación de dos campos perpendiculares entre sí y oscilantes:
1.
Eléctrico (E)
2. Magnético (M)
Una onda electromagnética es la forma de propagación de la radiación
electromagnética a través del espacio.
En un punto del espacio la densidad de energía electromagnética depende de la
suma de las intensidades de los campos eléctrico y magnético.
Esquema de una onda electro-magnética
8/18/2019 APUNTES TELEDETECCIÓN
10/68
James Clerk Maxwell, desarrolla la teoría del espectro electromagnético,
demostrando matemáticamente que la luz, el magnetismo y la electricidad son
manifestaciones del mismo fenómeno: El campo electromagnético.
El ojo humano se limita a detectar sólo una pequeña
parte del total del espectro electromagnético (0.4-0.7 μm).
•
Espectro visible: un objeto es de un color si refleja esa longitud de onda,y absorbe el resto de la energía incidente.
• Infrarrojo Cercano (IRC o NIR): discriminar masas vegetales.
• Infrarrojo Medio
– Primera banda (SWIR Short wave infrared): contenido de
humedad en vegetación y suelos.
–
Segunda banda (IRM Infrarojo Medio): focos de altatemperatura (incendios, erupciones).
• Infrarrojo Lejano o Térmico (IRL o IRT): calor que emite cada objeto.
Microondas (λ > 1mm): atraviesan las nubes RADAR
8/18/2019 APUNTES TELEDETECCIÓN
11/68
El Sol es la mayor fuente de radiación electromagnética usada en teledetección.
Sin embargo, toda materia con T > 0º K (cero absoluto) emite radiación
electromagnética. La radiación es proporcional a temperatura de la superficie
del material.
Así, todos los o bjetos terrestres (mares, suelos, vegetación, ciudades…) son
también fuentes de radiación, aunque de magnitud y composición espectral
muy diferente a la del Sol.
Transformación del flujo incidente
La proporción de flujo incidente que es reflejado, absorbido y transmitido
depende de las características de la superficie y de la longitud de onda
8/18/2019 APUNTES TELEDETECCIÓN
12/68
Curvas de reflectividad.
Bibliotecas espectrales: Colecciones de espectros, tomados en laboratorio, que
pretenden caracterizar los valores de reflectividad típicos de los materiales
terrestres: tipos de vegetación, suelos, rocas, etc. Generalmente, los patrones
espectrales son obtenidos con una resolución espectral muy alta (sensores
hyperespectrales).
USGS Y ASTER
8/18/2019 APUNTES TELEDETECCIÓN
13/68
• Nieve: alta reflectividad en bandas cortas.
• Agua: absorbe la mayor parte de la energía que recibe.
• Vegetación: absorbe en el visible, mayor reflectividad en IRC.
Factores que influyen en la reflectividad de una cubierta:
•
Elementos que absorben (agua, pigmentos, minerales).
8/18/2019 APUNTES TELEDETECCIÓN
14/68
• Rugosidad superficial (reflectividad lambertiana o especular).
• Ángulos de observación e iluminación.
Estos factores modifican la firma espectral.
El espectro electromagnético (EM) abarca desde las longitudes de onda más
cortas (más energéticas rayos gamma, rayos-X) a las de longitud de onda más
largas (menos energéticas ondas de radio).
Es un espectro continuo, por lo que no existen divisiones o líneas de corte
exactas entre unas regiones y otras.
La división del EM en diferentes regiones, surge como consecuencia de los
diferentes métodos utilizados para detectar cada tipo de radiación.
Dentro del EM, sólo determinadas porciones del mismo se utilizan en
teledetección:
· Radiación Ultravioleta (UV).
· Espectro visible.
· Infrarrojo (IR).
· Microondas.
Interacción de la energía electromagnética con la materia o la
atmósfera.
8/18/2019 APUNTES TELEDETECCIÓN
15/68
Absorción
• Oxígeno molecular (O2): absorción UV < 0,1 m y algo de IRT.
• Ozono (O3): absorción UV < 0,3 m y algo micro-ondas (27 mm).
• Vapor de agua: absorción en 6 m y 0,6 -2 m.
• CO2: IRT (> 15 m), e IRM (2,5-4,5 m).
• El ozono se forma gracias a la radiación solar sobre la estratosfera entre
15-40 Km de altura. La concentración se mide en Dobsons.
Ventanas atmosféricas
Como consecuencia de la absorción la observación espacial de la superficieterrestre se reduce a determinadas zonas del espectro llamadas ventanas
atmosféricas. Si se pretende observar la atmósfera serían las zonas opuestas.
8/18/2019 APUNTES TELEDETECCIÓN
16/68
Refracción
Las ondas electromagnéticas son las únicas capaces de propagarse a través del
vacío. Al penetrar en un medio material, como puede ser el aire o la superficie
terrestre, su velocidad disminuye en relación al índice de refracción delmaterial, y su dirección varía si el ángulo no es perpendicular a la superficie de
separación de los dos medios (Ley de Snell).
Índice refracción (n) = velocidad luz vacío (c) / velocidad luz medio (v)
En el vacio n=1
En el aire n=1,0002926
En agua n=1,333
Refracción y dispersión
Según la ley de Snell, cuando la luz blanca (suma de todas las radiaciones
visibles) pasa del aire al vidrio del prisma, disminuye su velocidad y desvía su
trayectoria, refractándose y dispersándose en cada uno de los colores según sudistinta frecuencia / longitud de onda.
Fenómeno óptico de refracción: Arco Iris
El arco iris se produce por la refracción y reflexión total de los rayos solares en
las gotas de lluvia.
8/18/2019 APUNTES TELEDETECCIÓN
17/68
Dispersión atmosférica
•
Principales causantes:- Aerosoles (partículas en suspensión como
polvo en suspensión).
- Vapor de agua.
• Disminuye el contraste de la imagen.
• Tipos:
8/18/2019 APUNTES TELEDETECCIÓN
18/68
– Rayleight: afecta a longitudes de onda inferiores al diámetro de la
partícula.
– Mie: partículas con diámetro similar a la longitud de onda.
–
No selectiva: diámetro mayor a la longitud de onda.
Dispersión Rayleigh
• Suelen ser pequeñas partículas de polvo o moléculas de N u O.
• Funciona fundamentalmente en la atmósfera superior.
• Afecta a la luz visible de longitud de onda corta (de 380 nm a 500 nm
aproximadamente), como el azul y el violeta.
Es la causa del cielo azul. Los rayos azules, una vez desviados, vuelven a chocar
con otras partículas del aire, variando de nuevo su trayectoria. Realizan por
tanto un recorrido en zigzag a través de la atmósfera, hasta llegar a nosotros. La
radiación procedente del sol sufre este proceso en el sector del azul, mientras
que el amarillo prácticamente no se desvía, por lo que el sol nos parece
amarillo.
8/18/2019 APUNTES TELEDETECCIÓN
19/68
Al atardecer, la distancia recorrida por la luz se incrementa, se sufre una mayor
dispersión y nos llegan longitudes de onda mayores: Rojos, anaranjados…
Dispersión Mie
Aerosoles, polvo atmosférico, vapor de agua, humo, polen...
Se produce en zonas inferiores de la atmósfera.
La luz blanca se atenúa hacia colores grises y oscuros. Este efecto se observa en
días nublados o en las “boinas” sobre las ciudades.
Dispersión no selectiva
Gotas de agua, grandes partículas de polvo...
Todas las longitudes de onda se dispersan más o menos igual.
Es la causa por la que vemos la niebla o las nubes blancas (ya que todas las
longitudes de ondas son reflejadas: R+G+B=blanco).
El espacio de color RGB
8/18/2019 APUNTES TELEDETECCIÓN
20/68
Modelo de síntesis aditiva del color. Basado en la suma de la luz de distintas
longitudes de ondas y en la teoría del espectro electromagnético.
La suma de los tres colores básicos (RGB) produce el blanco.
La total ausencia de luz produce el negro.
Monitores o televisiones emiten luz y se basan en este modelo.
El ojo humano consta de distintos tipos de células fotorreceptoras:
Conos y bastones.
Bastones (rods):
Muy sensibles en condiciones de baja luminosidad. No detectan colores.
Monocromática: B/N.
Conos: Menos sensibles. Visión diurna. Tenemos 3 tipos de conos que absorben
la luz en las longitudes de onda del rojo, verde y azul (RGB).
Distinto número de Conos, diferentes canales de recepción:
Monocromatas: sólo bastones. Animales nocturnos.
Bicromatas: Dos tipos de conos. Distinguen algunos colores.
La mayor parte de los mamíferos (perros, toros).
Tricromatas: Tres tipos de conos. Humanos y gorilas.
Tetracromatas: Cuatro tipos de conos. Ven el ultravioleta.
Muchas especies de peces, aves, reptiles, anfibios, insectos y
arácnidos.
8/18/2019 APUNTES TELEDETECCIÓN
21/68
Combinaciones de bandas.
En teledetección es común la utilización de combinaciones de bandas, que nos
permiten destacar las propiedades de reflectancia vs. absorción de losmateriales observados. Algunas combinaciones realzan determinados rasgos.
Son muy comunes las combinaciones de bandas, formadas por los valores de
tres bandas diferentes a las que se les asigna un patrón de color RGB.
De esta manera, una imagen que use la banda siete para el rojo, la banda cuatro
para el verde, y la banda dos para el azul se designaría (7,4,2).
8/18/2019 APUNTES TELEDETECCIÓN
22/68
IRC en el rojo
rojo en el verde
verde en el azul
8/18/2019 APUNTES TELEDETECCIÓN
23/68
8/18/2019 APUNTES TELEDETECCIÓN
24/68
Las imágenes compuestas de colores verdaderos coinciden aproximadamente
con la gama visual del ojo humano (RGB), por lo que se parecen bastante a lo
que esperaríamos ver en una fotografía normal en color. Las imágenes de color
verdadero tienden a presentar un bajo contraste y un aspecto algo borroso. Esto
es debido a la dispersión del azul por parte de la atmósfera, lo que produce un
leve tono azulado.
Una imagen de color falso es una representación artificial de una imagenmultiespectral.
¿Por qué las combinaciones de bandas?
¿Por qué no usamos sólo la banda 4?
Porque la exactitud está relacionada con la cantidad de información, y por
tanto, con el número de bandas utilizadas.
8/18/2019 APUNTES TELEDETECCIÓN
25/68
Tema 3
Fotografía aérea, satélites y sensores
•
Tipos de resolución.• Tipos de sensores: activos o pasivos.
• Tipos de sensores:
1. Fotográficos. Foto aérea
2. Óptico electrónicos: exploradores de barrido o de empuje.
3. De antena.
• Plataformas de teledetección.
• Satélites y tipos de órbitas.
• Tipos de imágenes de satélite.
• Distorsiones y correcciones.
Tipos de resolución.
RESOLUCIÓN RADIOMÉTRICA
La resolución radiométrica es la capacidad de un sensor para discriminar las
variaciones de intensidad de la radiación electromagnética, dentro de un rangoconcreto de longitudes de onda.
8/18/2019 APUNTES TELEDETECCIÓN
26/68
Equivalente al “número de niveles de grises”.
RESOLUCIÓN TEMPORAL
La resolución temporal corresponde a la periodicidad orbital del satélite y define el
número de días u horas que transcurren entre dos observaciones consecutivas de la
misma porción de la superficie terrestre.
La resolución temporal es el tiempo que tarda un sensor en registrar un mismo área
con el mismo ángulo de visión.
Depende de las capacidades del satélite/sensor, el solapamiento del swath, la latitud…
Un sensor instalado en un satélite geoestacionario tendrá una alta resolución temporal.
8/18/2019 APUNTES TELEDETECCIÓN
27/68
RESOLUCIÓN ESPACIAL
Se refiere al grado de detalles visibles en una imagen: se corresponde con el tamaño
que representa cada píxel en una imagen digital. Cuanto menor es el área terrestre
representada por cada píxel en una imagen digital, mayores son los detalles que
pueden ser captados y mayor es la resolución espacial.
(a) 1 m; (b) 5 m; (c) 10 m; (d) 30 m
RESOLUCIÓN ESPECTRAL
La resolución espectral indica el número y anchura de las bandas (intervalo de
longitudes de onda) que pueden ser detectadas por el sensor.
En principio, cuantas más bandas incluya un sensor mejor, ya que cada banda
constituye una variable para caracterizar la superficie captada. Por otro lado es
8/18/2019 APUNTES TELEDETECCIÓN
28/68
preferible que estas bandas sean estrechas para que su poder discriminante se
incremente.
Si las bandas son muy anchas van a recoger valores promediados que ocultarán
elementos de diferenciación.
El número de bandas y su localización en el espectro va a depender de los objetivos
que se pretendan cubrir con la puesta en funcionamiento del sensor.
Tipos de sensores
• Fotográficos
•
Óptico-electrónicos
– Explorador de barrido
– Explorador de empuje
• Antena
– Activos
–
Pasivos: radiómetros microondasFotográficos
• Plataforma:
– aéreos o espaciales.
• Película:
– pancromática, color natural, infrarrojo b/n, infrarrojo color.
• Objetivos:
– monobanda, multibanda.
• Ángulo:
– Vertical: pueden tener hasta 5º de desviación.
Se emplea en restitución fotogramétrica.
– oblicua.
8/18/2019 APUNTES TELEDETECCIÓN
29/68
Imagen: cualquier representación pictórica, independientemente del rango de
energía electromagnética representado, del tipo de sensor o soporte utilizado.
Fotografía: imagen obtenida mediante un proceso fotográfico.
Fotografía: Anaglifos
• Son imágenes de 2D capaces de provocar un efecto 3D, cuando se ven
con lentes especiales (lentes de color diferente para cada ojo).
• Para conseguir la visión 3D necesitamos ver dos imágenes pero cada una
por un ojo. Por eso, para hacer un anaglifo se le pone un filtro azul a una
foto y a la otra un filtro rojo. Con las gafas rojas y verdes se consigue quecada ojo vea sólo una de las fotos, y el cerebro combina las imágenes.
• Las imágenes de anaglifo se componen de dos capas de color,
superimpuestas pero movidas ligeramente una respecto a la otra para
producir el efecto de profundidad.
• Es un método muy barato de generar imágenes 3D, pero son de poca
calidad visual.
Fotografía aérea
Para restitución fotogramétrica sólo se pueden emplear fotos verticales (máx.
desviación 5º).
El avión hace fotografías con una zona de solape para permitirnos una visión en
3D.
Estas dos imágenes son mezcladas en nuestro cerebro y como consecuencia
podemos ver una tercera dimensión, esto es lo que se conoce como
estereoscopía natural.
- El vuelo:
El vuelo fotogramétrico consiste en sobrevolar el territorio con un avión y tomar
fotografías de eje vertical recubriendo el territorio con fotogramas que se
solapen tanto longitudinal como transversalmente.
8/18/2019 APUNTES TELEDETECCIÓN
30/68
Sobrevolar la zona a una altitud, la cual depende de la escala deseada y de la
distancia principal de la cámara.
Cubrir con sus imágenes una determinada zona y para ello es preciso que cada
fotograma tenga una zona común con las contiguas “zona de recubrimiento”.
Las fotos consecutivas en un mismo sentido es lo que se denomina pasada.
B, es la distancia recorrida entre dos disparos consecutivos (exposiciones
sucesivas), dos fotos sucesivas tendrán una parte común.
Los solapes suelen ser del 60% en el eje longitudinal y del 25% en el transversal.
- elementos del fotograma
• Punto principal o central = Punto de la foto que representa la intersección
de un eje vertical perpendicular al terreno: es el único ortogonal de la
foto. Lo encontramos por la intersección de las marcas fiduciales.
8/18/2019 APUNTES TELEDETECCIÓN
31/68
• Gráfico de vuelo, es un mapa que muestra gráficamente la distribución
de las fotos con respecto al territorio.
• Los fotogramas resultantes de un vuelo fotogramétrico deben contener la
siguiente información:
– Organismo contratante del vuelo, empresa que realiza el vuelo.
– Zona, fecha y hora de vuelo.
– Escala aproximada de los fotogramas.
– Número de pasada y foto.
– Información sobre la cámara métrica (distancia focal, modelo).
– Marcas fiduciales.
– Nivel para comprobar la verticalidad del fotograma.
– Altímetro, con indicación de la altura aproximada sobre el nivel
del mar.
8/18/2019 APUNTES TELEDETECCIÓN
32/68
8/18/2019 APUNTES TELEDETECCIÓN
33/68
- Escalas
• La escala varía entre los distintos puntos de la foto.
• No se pueden medir distancias de modo directo.
• Líneas paralelas en el terreno no tiene porqué ser paralelas sobre la
fotografía, por tanto, tampoco se pueden utilizar para medir direcciones.
¿Cuáles son las diferencias entre un mapa topográfico y una fotografía aérea?
8/18/2019 APUNTES TELEDETECCIÓN
34/68
Altura de vuelo (H), Distancia focal (f) y Escala de la Fotografía.
Fotografía Aérea: problema 1
1. Determina la escala de una foto área sabiendo que la altura de vuelo (H)
es de 5000m y la cota del terreno es de 3500m, siendo la distancia focal
(f)= 150 mm.
Desplazamiento por relieve de los objetos
• Las fotografías aéreas están tomadas con un sistema de proyección
cónico, en donde el centro óptico del objetivo es el centro de perspectiva
o punto de vista. Los objetos representados en la fotografía sufren un
8/18/2019 APUNTES TELEDETECCIÓN
35/68
desplazamiento radial con respecto a la posición que tendrían si su
proyección fuera ortogonal.
• Zonas elevadas: desplazamiento hacia los bordes de la foto.
•
Depresiones: hacia el centro
La distorsión relacionada con el relieve (desplazamiento por el relieve) hace que
los objetos justo debajo del centro de la lente se vean sólo sus “techos” mientras
que los adyacentes nos muestran cada vez más su lado.
Cálculo de la altura de un objeto
8/18/2019 APUNTES TELEDETECCIÓN
36/68
• 2. A partir del paralaje de la imagen. Entre dos fotos de la misma área los
puntos más altos cambian más entre una foto a la otra que los puntos
más bajos. Este cambio de posición relativo se llama paralaje. Se puede
medir en fotos con áreas superpuestas y a partir de ahí calcular lasalturas.
Bases de la fotogrametría
• Uso de puntos de control. Puntos que puedo situar en la foto de los que
tengo información independiente de sus coordenadas y altitud (GPS,
tomados por el topográfo en campo). Nos sirven para calibrar las
medidas sobre la foto. Ej: determinación de la orientación angular de la
foto, altura de vuelo o distancia entre los centros de dos fotosconsecutivas.
Ejercicios de cálculo de escalas de fotografía aéreas
1. La distancia entre dos puntos sobre un mapa topográfico 1:45000 es 8 cm.
Esa misma distancia sobre foto aérea es de 90 mm. Calcular la escala de
la foto.
8/18/2019 APUNTES TELEDETECCIÓN
37/68
2. Calcula la escala de una fotografía aérea conociendo que fue obtenida
con una cámara con distancia focal de 210 mm, a una altura de vuelo de
2500 m y con una altura media del terreno de 400 m.
3.
Un fotograma tiene de superficie 23 x 23 cm ¿Cuál es la superficie deterreno que aparece en el fotograma si la escala de la misma es de
1:15000?
Fotografía aérea: tipos de fotos según ángulo
Tipos de fotos:
• Verticales: nunca son totalmente verticales, el avión sufre pequeñas
variaciones de inclinación
• Poco oblicuas (eje de la cámara inclinado 30º respecto a la vertical): no se
ve el horizonte
• Muy oblicuas (60º): se ve el horizonte
Fotografía Aérea: visión estereoscópica
Mediante técnicas estereoscópicas se crea sensación de profundidad o relieve: A
partir de imágenes bidimensionales se consiguen imágenes 3D.Se suele realizar en película pancromática de blanco y negro.
Técnica muy utilizada en la fotogeología tradicional.
Presenta deformaciones causadas por la perspectiva de la cámara, la altura o la
velocidad a la que se mueve el soporte en donde se instala la cámara.
Separación de las fotos
En el estereoscopio de bolsillo, tienen que estar muy juntas, siempre solapadas
(menos de 6 cm). Se aconseja poner el borde grueso por abajo.
En el estereoscopio de mesa, las fotos se separan la misma distancia de los
espejos.
• ¿Cómo sabemos dónde está el N en la fotografía? Fijándonos en las
sombras proyectadas y en la hora a la que se hizo la foto. En elhemisferio N la sombra va hacia el N.
8/18/2019 APUNTES TELEDETECCIÓN
38/68
Fotografía Aérea: restitución fotogramétrica
• La restitución fotogramétrica permite elaborar mapas a partir de un par
estereoscopico. Se realiza mediante aparatos llamados estereo-
restituidores.
• la restitución es tanto planimétrica (caminos, ríos, casas etc.), como
altimétrica (curvas de nivel).
• Es distinto de la ortorectificación, que es el proceso por el cual las
fotografías aéreas son rectificadas para obtener una escala constante en
ellas (ortofotos).
Fotografía Aérea: ortofoto
• Una Ortofoto es una fotografía (aérea o satelital) en donde todos sus
elementos presentan la misma escala y no presentan deformaciones.
Generalmente la proyección ortogonal se realiza digitalmente
(programas de fotogrametría, ej: Erdas). Para elaborar una ortofoto se
requiere un buen MDT.
• Georeferenciar implica introducir una deformación a la imagen ya que
no es posible representar las coordenadas geográficas sobre un plano a
gran escala. Las ortofotos están georeferenciadas.
Fotografía Aérea: restitución
• Se llama restitución a la búsqueda de la intersección de los rayos
homólogos de los dos haces. Así se determinaran las coordenadas de los
puntos del objeto en el sistema de referencia adoptado.
• La restitución consiste en la formación de los pares estereoscópicos, y la
extracción posterior de los elementos contenidos en ellas mediante unos aparatos llamados estereo-restituidores.
Fotos poco oblicuas:
• El eje de la cámara está inclinado unos 30º respecto a la vertical.
• Cubren un área relativamente pequeña con forma de trapezoide, aunque
la fotografía sea cuadrada o rectangular.
8/18/2019 APUNTES TELEDETECCIÓN
39/68
• Los objetos se visualizan desde un punto de vista más familiar,
comparable con la visión desde lo alto de una colina o de un edificio alto.
• No se puede aplicar escala a la fotografía entera, y no se pueden medir
distancias. Líneas paralelas en el terreno no tiene porqué ser paralelassobre la fotografía, por tanto, tampoco se pueden utilizar para medir
direcciones.
• El relieve es apreciable, pero distorsionado.
• No aparece el horizonte.
Fuentes y visores
• PNOA: Plan Nacional de ortofotografía aérea (desde avión) del IGN:
Instituto Geográfico Nacional. Son mosaicos de fotos aéreas con
resolución máx: 5m. http://www.ign.es/PNOA/. Si sólo quiero descargar
un topográfico: http://www.centrodedescargas.cnig.es/CentroDescargas
• Iberpix: Visor del IGN. Utiliza imágenes de satélite (Landsat y SPOT) y
fotografía aérea, todo georeferenciado. Puede superponer los mapas
topográficos del IGN (distintas escala). No 3D. Mapas de usos del suelo(CORINE).
• Google Earth: Visor que utiliza fuentes diversas pero siempre foto de
satélite georeferenciadas. Visión 3D. No es un SIG. No debe usarse en
trabajos formales. Se puede superponer el mapa geológico nacional
(MAGNA, del IGME: Instituto Geológico y Minero de España) en
formato ráster (imagen escaneada).
•
NOTA: Cualquiera de estas fuentes y visores son gratuitos. Paradescargar PNOA o mapas topográficos hay que registrarse en el IGN.
Para descargar MAGNAS hay que registrarse en el IGME.
Mapas MAGNA
• Mapas geológicos 1:50.000 de España editados por el IGME.
• Cada mapa viene con su memoria correspondiente, en la que se explica
la geología de la zona.
http://www.ign.es/PNOA/http://www.ign.es/PNOA/http://www.ign.es/PNOA/http://www.ign.es/PNOA/
8/18/2019 APUNTES TELEDETECCIÓN
40/68
8/18/2019 APUNTES TELEDETECCIÓN
41/68
El IFOV (C) y la altitud determinan la resolución de la celda (D). El campo
angular de vista (FOV) (E) es el que abarca la rotación del espejo y determina el
swath (F) registrado.
El sensor convierte la radiación recibida en un valor, no son fotografías, sino imágenesdigitales.
MODIS: Moderate Resolution Imaging Spectroradiometer, a bordo del Terra y
del Aqua.
Exploradores de empuje
Sin espejo oscilante porque tienen una cadena de detectores que cubre todo elcampo de visión.
Se excitan con el movimiento del satélite.
Registran las líneas de escaneo mediante una matriz lineal de sensores (A)
situados en el plano focal de la imagen (B) formada por el sistema de lentes (C).
Cada sensor registra los valores de una celda (D).
El mayor tiempo de escaneo permite una mejor resolución espacial y espectralsin afectar la resolución radiométrica.
De antena.
Radiómetros microondas
• Sensor pasivo con antena para recepción.
• No afectado por atmósfera o iluminación.
• Mayor resolución de la imagen a mayor diámetro de la antena.
• Poco utilizados en teledetección, puesto que la emitancia de objetos en el
rango de las micro-ondas es muy escasa y difícil de captar
• Cartografía hielo y nieve.
8/18/2019 APUNTES TELEDETECCIÓN
42/68
Sensores térmicos
Utilizan fotodetectores sensibles al contacto directo de fotones sobre su
superficie para detectar la radiación térmica emitida.
Son enfriados a temperaturas próximas al 0 absoluto (0º K; -273ºC) para limitar
sus propias emisiones térmicas.
Los receptores de imágenes térmicas suelen ser exploradores de barrido que
detectan la energía sólo en una banda del espectro. Suelen utilizar un patrón de
referencia.
Dan T de superficie (las primeras 50 µm), no de todo el volumen del cuerpo.
Las imágenes obtenidas ofrecen valores “más brillantes” a “más caliente”.
Plataformas de teledetección.
Tres tipos fundamentales:
– Satélites: fuera de la atmósfera. Pueden estar muy afectados por
los parámetros atmosféricos.
– Aviones/helicópteros: dentro de la atmósfera. Menos afectados
por los parámetros atmosféricos.
– Estáticos: se sitúan en superficie y se utilizan para contrastar los
datos aerotransportados con medidas precisas de elementos
concretos de la superficie.
– Terrestres.
– Aéreas.
– Espaciales:
Geo-estacionarios
Órbitas ecuatoriales (36.000 km).
Heliosincrónicos
Órbitas cuasi-polares(200-1000 km).
8/18/2019 APUNTES TELEDETECCIÓN
43/68
Satélites y tipos de órbitas.
• Tipos de órbitas.
• Área abarcada (Swath).
• Frecuencia de adquisición.
• Tipos de sensores.
Elementos de una órbita
Los elementos de una órbita son altitud (apogeo y perigeo), inclinación (ángulo
del plano orbital con el Ecuador) y periodo (duración de una órbita).
Órbitas geoestacionarias
El periodo orbital es igual al periodo de rotación de la Tierra. Al orbitar al
mismo ritmo y en la misma dirección que la Tierra, el satélite está sincronizado
con respecto a la rotación de la Tierra.
El satélite se estabiliza a una altura de aprox. 36000 Km, en un plano paralelocon el ecuatorial, proporcionando un panorama de observación muy amplio.
Son especialmente útiles para observar fenómenos meteorológicos.
Al estar en el plano ecuatorial, proporciona imágenes distorsionadas de las
regiones polares.
8/18/2019 APUNTES TELEDETECCIÓN
44/68
Órbitas heliosíncronas
En otros casos lo que se busca es “iluminación” continua. Una órbita
heliosincrónica permite que la porción de superficie que el satélite cubre
siempre esté iluminada por el Sol. El satélite siempre pasa por el mismo punto ala misma hora solar. Son órbitas sincrónicas con el sol y permiten una
recolección regular de datos para comparaciones a largo plazo.
Se estabilizan a 900 Km. de altura con inclinaciones cerca de 90 grados (suele ser
orbita polar o casi polar).
ÓRBITAS CUASI-POLARES: ej: Landsat
Órbitas N-S. Al sumarse el efecto de la rotación de la tierra (W-E) es posible
cubrir la mayor parte de la superficie terrestre en un determinado período detiempo.
8/18/2019 APUNTES TELEDETECCIÓN
45/68
Los satélites que vuelan en órbitas polares proporcionan una visión más global
de la Tierra. Orbitan a una altura de 700 u 800 Km, generalmente de manera
sincronizada con el sol.
Satélites heliosíncronos de órbita polar o casi polar: el tramo de la órbita S-N se
llama pasada ascendente y la N-S pasada descendente.
Lo más probable es que la pasada descendente se realice por la cara iluminada
por el Sol, y durante las horas de la mañana, momento en que la nubosidad es
menor. En ese caso, las zonas de sombra aparecerán hacia el oeste (hemisferio
N). Los sensores térmicos podrán registrar en ambas pasadas.
CARACTERÍSTICAS ORBITALES:
La porción (ancho) de la Tierra que el satélite cubre se denomina SWATH.
En el caso del Landsat los dos términos a conocer son el PATH (número de la
órbita con respecto a la de inicio) y el ROW (fila de adquisición de la imagen).
Estas dos “coordenadas” sitúan cada imagen.
SATÉLITES LANDSAT
• NASA y servicio geológico de EE.UU. Desde 1972. Primer nombre:
ERTS: Earth Resources Technology Satelites.
• Primer satélite de recursos naturales con política de “cielos abiertos”.
8/18/2019 APUNTES TELEDETECCIÓN
46/68
• Sensor ETM+: Enhanced thematic mapper plus. Canal pancromático con
alta resolución espacial (15 m) en Landsat 7.
SATÉLITES SPOT
- “Sistema para la observación de la Tierra”.
- Órbita heliosíncrona circular cuasi polar.
- Francés, suizo y belga. Desde 1986 hasta ahora: SPOT-1 a 5.
- Tiene dos sistemas de imagen idénticos, lo que permite adquirir imágenes
angulares (off-nadir) y la visión estereoscópica de las imágenes.
Esto permite elaborar modelos digitales del terreno. Ambos pueden operar
en pancromático (blanco y negro) o multiespectral (color).
Otros satélites de órbita heliosíncrona y polar:
• IRS: Indian Remote Sensing. Desde 1988. Resolución espacial moderada.
• IKONOS: empresa EE.UU. Desde 2000. Alta resolución espacial
(pancromático: 1m, multiespectral: 4 m).
• QuickBird: EE.UU. (Digital Globe). Desde 2011. A veces subvencionado
por la CIA. Órbita baja (450 km) para conseguir mayor resoluciónespacial. La máxima resolución espacial disponible (pancromático:0,61
m, multiespectral: 2,40 m). También imágenes angulares.
NASA informa que unos 3.000 satélites operativos y no operativos están
orbitando el planeta, aunque contabiliza hasta 8.000 objetos orbitando,
denominados “basura espacial”.
Tipos de imágenes de satélite.
1. Imágenes pancromáticas:
Las imágenes pancromáticas se obtienen mediante el registro de
radiación electromagnética en una sola banda que abarca diferentes
longitudes de onda del espectro electromagnético (banda de anchura
elevada) (p.ej. todas las longitudes de onda del espectro visible y el NIR).
Generalmente, las imágenes pancromáticas son imágenes en blanco y
negro. Presentan una mejor resolución espacial.
8/18/2019 APUNTES TELEDETECCIÓN
47/68
2. Imágenes multiespectrales:
Imágenes obtenidas a partir de un sensor multiespectral, que registra bandas
espectrales discretas, de una anchura variable, no contiguas.
3. Imágenes hiperespectrales:
Imágenes obtenidas a partir de un sensor hiperespectral, que registra en bandas
espectrales generalmente de menor anchura y que son contiguas.
Características geométricas de imágenes espaciales
• Presentan menos errores geométricos que una plataforma aérea como
consecuencia de la mayor estabilidad de la plataforma y la mayor altura,
pero siguen teniendo distorsiones, por lo que no pueden superponerse
directamente sobre una cartografía.
• Georeferenciar una imagen es situarla en su posición geográfica, implica
introducir una deformación a la imagen ya que no es posible representar
las coordenadas geográficas sobre un plano a gran escala.
Distorsiones y correcciones.
Distorsiones geométricas
Todas las imágenes remotas tienen una distorsión geométrica relacionada con:
• La perspectiva de la óptica del sensor (vertical u oblicua).
•
El movimiento del sistema de escaneo.• El movimiento e inestabilidad de la plataforma.
• La altitud de la plataforma (provoca cambios en la escala)
• Dirección y velocidad de la plataforma.
• El relieve.
• La curvatura y rotación de la Tierra.
8/18/2019 APUNTES TELEDETECCIÓN
48/68
La distorsión relacionada con el relieve (desplazamiento por el relieve) hace que
los objetos justo debajo del centro de la lente se vean sólo sus “techos” mientras
que los adyacentes nos muestran cada vez más su lado. Sucede en la foto y en
los sistemas de empuje.
En los sistemas de barrido puede suceder que veamos el desplazamiento por el
relieve (A) o una deformación tangencial de la escala (B).
Correcciones de imagen
Una imagen de satélite está sometida a una serie de interferencias que hacen
que la información que quiere obtenerse aparezca perturbada por una serie de
errores.
• Fallos en los sensores, generan píxeles incorrectos: líneas anómalas,
pixeles de aspecto muy contrastado con sus vecinos, efecto “sal y
pimienta”, imágenes bandeadas (corrección radiométrica).
• Alteraciones en el movimiento del satélite y el mecanismo de captación,
generan distorsiones en la imagen global (corrección geométrica)
• Interferencias de la atmósfera, alteran de forma sistemática los valores de
los píxeles (corrección atmosférica).
• Sombras topográficas (corrección de sombreado topográfico).
Efecto de la atmósfera
Gases atmosféricos, componentes químicos como oxígeno, el dióxido de
carbono, el ozono y el vapor de agua, o partículas de aerosoles causan diversos
tipos de dispersión (Rayleigh, Mie o no selectiva).
En el tratamiento digital de la imagen se han modelado diversos métodos decorrección atmosférica.
Por ejemplo, IDRISI ofrece varias técnicas de corrección atmosférica (modelo de
substracción de objetos oscuros, modelo de costo, etc..), recogidos en el módulo
ATMOSC.
8/18/2019 APUNTES TELEDETECCIÓN
49/68
Tema 4
El Espectro Electromágnetico II: RADAR y líder
•
Espectro infrarrojo:
-IR cercano.
-IR medio.
-IR lejano.
• Espectro microondas. Aplicaciones:
-RADAR.
• LIDAR.
El infrarrojo (IR)
Cubre de 0,7 µm a 1 mm.
8/18/2019 APUNTES TELEDETECCIÓN
50/68
En función de sus propiedades podemos diferenciar el IR reflejado y el IR
térmico o emitido.
• El IR reflejado es radiación solar que se refleja en la superficie de la
Tierra. Coincide con el IR cercano o próximo.
• El IR térmico es energía (radiación) que emite la Tierra en forma de calor.
Coincide con el IR lejano.(en el IR medio hay mezcla de reflexión y
emisión)
Infrarrojo reflejado o cercano (NIR: 0,7 – 1,3 µm)
La radiación del NIR (Near IR) o IR reflejado se usa en Teledetección de una
manera muy similar a como usamos la región del visible.
Las películas de infrarrojo en color obtienen los rangos espectrales del verde,
rojo y el NIR. Con estas películas se obtienen imágenes en falso color RGB, R=
NIR, G= rojo, B= verde. Por lo tanto, en películas de IR color, ¿en qué color
aparecerá la vegetación?
Especialmente útil en la discriminación de masas vegetales. La vegetación sana
refleja de manera mucho más potente la radiación del NIR que la banda del
verde.
En películas IR en blanco y negro la vegetación se ve blanca porque es muy
reflectiva.
Los filtros infrarrojos tienen como misión excluir la radiación ultravioleta y la
totalidad o gran parte del espectro visible, dejando pasar a través del objetivo
de la cámara sólamente parte del espectro infrarrojo.
Las películas infrarrojas están sensibilizadas para trabajar en las longitudes de
onda comprendidas entre los 700 y los 1.200 nm. Estas películas están tratadasespecialmente para que reaccionen químicamente en estas ondas. Entre las
películas infrarrojas más usadas tenemos las
- HIE (película en blanco y negro).
- EIR (película diapositiva en color).
Y otras con filtros especiales que simulan efectos, en blanco y negro, falso color,
o extraños tonos en blanco y negro.
8/18/2019 APUNTES TELEDETECCIÓN
51/68
Detectar objetivos camuflados como vegetación
Otras aplicaciones del NIR en Teledetección:
- Discriminación entre suelo, vegetación y superficies encharcadas.
- Identificación de distintas especies de vegetación.
- Análisis de stress de la vegetación. Evaluación de impacto de sequías.
- Discriminación entre vegetación y cosecha. Productividad.
- Cartografía de límites tierra-agua. Cartografía de costas.
- Cartografía geológica.
El infrarrojo medio (1,3-8 µm)
– Primera banda (SWIR Short wave infrared): contenido de
humedad en vegetación y suelos.
– Segunda banda (IRM Infrarojo Medio): focos de alta
temperatura (incendios, erupciones).
El infrarrojo emitido o térmico o lejano (IRT: 8 – 14 µm)
Aunque todo objeto por encima del cero absoluto emite por si mismo energía
electromagnética, la mayor parte de esa energía tiene su origen en la radiación
solar. Durante el día la superficie terrestre absorbe parte de la energía
producida por el sol y la emite en forma de radiación térmica. Por la noche la
absorción es nula, pero la superficie terrestre puede seguir emitiendo esa
radiación, creándose así un ciclo diario.
Inercia térmica: resistencia a cambiar de T. Depende de:
- Densidad del material.
- Calor específico o capacidad de almacenamiento calor.
- Conductividad: ritmo de transmisión.
Inercia térmica
La inercia térmica del agua es mucho mayor que la de una roca.
8/18/2019 APUNTES TELEDETECCIÓN
52/68
Los suelos arenosos y secos presentan baja inercia térmica, y en su temperatura
se aprecian severos contrastes entre las horas diurnas y nocturnas. En contraste,
las masas de agua presentan una alta inercia térmica y por ello en la naturaleza
actúan como termorreguladores del clima.
El contenido en humedad en suelos es importante. Los suelos húmedos y
arcillosos presentarán temperaturas diurnas inferiores y nocturnas superiores a
los suelos secos.Presenta aplicaciones en la cartografía de las superficies terrestres y oceánicas
así como en estudios meteorológicos.
A los cuerpos mas fríos les corresponde valores bajos de radiación y a los
calientes altos; con objeto de comparar los datos del IR con la imagen visible se
invierte el código de colores de forma que las nubes, que son objetos fríos, se
vean blancos y los cuerpos calientes (véase la arena del Sahara, por ejemplo) se
vean oscuros.
8/18/2019 APUNTES TELEDETECCIÓN
53/68
Otras aplicaciones: militares, urbanísticas, detección de erupciones e incendios...
Resumen bandas Landsat ETM
• 1: Azul. 0,45-0,52 µm. La clorofila la absorbe.
• 2. Verde. 0,52-0,60 µm
• 3. Rojo. 0,63-0,69 µm. La clorofila la absorbe.
• 4. NIR. 0,76-0,90 µm.
• 5. IR medio. 1,55-1,75 µm
• 7: IR medio. 2,08-2,35 µm
• 6: IR térmico. 10,4-12,5 µm
• 8: Pancromática. 0,52-0,90 µm
Resolución: 30 m. Excepto: 6 y 8: 15 m. La pancromática se utiliza para
mezclarla con otras bandas y mejorar la resolución espacial de los datos.
Espectro microondas. Aplicaciones:-RADAR.
Las microondas
Cubre de 1 mm a 1 m
Son las longitudes de onda más largas empleadas en teledetección
Es la porción del espectro de interés más reciente.• Las longitudes de ondas más cortas se comportan como el IR térmico.
• Las más largas se aproximan a las ondas de telecomunicaciones.
• Son independientes de las condiciones de iluminación y las condiciones
atmosféricas.
• El RADAR, sensor de tipo activo, trabaja dentro del rango de las
microondas.
8/18/2019 APUNTES TELEDETECCIÓN
54/68
RADAR (RAdio Detection And Ranging)
“DETECCIÓN Y MEDICIÓN DE DISTANCIA POR RADIO”
El RADAR emite y recibe radiación electromagnética en pulsos de longitudes
de onda entre 1mm-1m, por lo tanto funciona dentro del rango de las
microondas.
El RADAR estima las distancias hasta la superficie del objeto de estudio en
función del tiempo que tarda la energía emitida por el sensor en llegar a la
superficie y volver tras su reflexión.
RADAR trabaja en longitudes de onda muy superiores al tamaño de las
gotas de agua (0,1 mm). Por lo tanto, el sensor puede observar a través
de nubes o humo. Es muy útil para trabajos en zonas polares o tropicales
(Ej: Cartografía del Amazonas).
Al tratarse de un sistema activo* , puede operar tanto de día como de
noche.
Los sistemas de RADAR pueden producir o no imágenes.
* Existen sensores pasivos de micro-ondas, denominados radiómetros. Ver tema
3.
* Los sensores de micro-ondas activos se dividen en dos:
• Los que trabajan con imágenes (2 dimensiones. Ej: RADAR).
• Los que sólo trabajan con medidas en 1 dimensión (Ej: altímetros,
dispersómetros de vientos).
• SLAR: RADAR lateral aereo-transportado. Resolución depende del
diámetro de la antena. Las imágenes se parecen a las de una foto aéreatomada con el sol bajo.
• SAR: RADAR de apertura sintética. Basado en el efecto Doppler: se
registran dos pulsos de un mismo punto de la superficie terrestre en dos
momentos distintos de la trayectoria, así la resolución es equivalente a la
de una antena con diámetro igual a la distancia entre ambos puntos. El
efecto Doppler permite medir la velocidad relativa entre un sensor y un
reflector. Esto es lo que hacen los radares de tráfico. El efecto Doppler lo
8/18/2019 APUNTES TELEDETECCIÓN
55/68
percibimos como el cambio de tono de un claxon en un coche que se
mueve.
En la interacción de RADAR con los objetos estudiados, la imagen obtenida
depende de:
• Rugosidad, naturaleza y geometría de la superficie.
• Contenido en humedad y propiedades eléctricas del objeto.
• Ángulo de incidencia y distancia al objeto.
• Polarización la onda.
Según la naturaleza de la superficie estudiada, el haz de micro-ondas se
comporta de distintas maneras:
En afloramientos rocosos o suelos se dispersa al exterior.
En coberteras vegetales se dispersa en su interior.
En superficies acuáticas se refleja de forma especular.
8/18/2019 APUNTES TELEDETECCIÓN
56/68
Distintos tipos de retro-dispersión
A mayor retro-dispersión, tonos más claros en la imagen RADAR.
Reflexión en función de la naturaleza y geometría de los objetos
Capacidad de penetración del RADAR
Cuanto mayor es la humedad del suelo, menor es la capacidad de penetración
de la onda, para una misma longitud de onda.
8/18/2019 APUNTES TELEDETECCIÓN
57/68
Bandas RADAR
El RADAR se diseñó inicialmente para medir distancias y detectar objetos en
movimiento. La nomenclatura de sus bandas es heredada de su uso militar. Son
letras mayúsculas.
Ejemplo:
• Banda X = Rojo
• Banda L = Azul
• Banda C = Verde
8/18/2019 APUNTES TELEDETECCIÓN
58/68
Polarización de la onda
Resolución SLAR
Longitud del pulso: tiempo que tarda la antena en emitir un pulso.
8/18/2019 APUNTES TELEDETECCIÓN
59/68
Si la distancia entre dos objetivos es inferior a la mitad de la longitud del pulso,
el RADAR no los discrimina.
• Slant-range distance: distancia del avión al objetivo.
•
Slant-range resolution: resolución en la línea que une al avión con el
objetivo. Slant significa inclinación.
• Ground range resolution: resolución en la horizontal.
cos ángulo de depresión = slant resolution/ ground resolution.
ground resolution = slant resolution/ cos a. depresión= velocidad luz x tiempo/2
cos a. depresión si la slant resolution es igual a λ/2.
Por lo tanto la slant resolution no cambia con la distancia del avión al objetivo,
pero la resolución horizontal sí.
La resolución en azimut está determinada por la anchura del haz, que se abre a
medida que aumenta la distancia desde el avión. Esto hace que la resolución sea
menor a medida que nos alejamos del avión. En R1 el RADAR discrimina los
puntos A y B, pero en R2 no.
Resolución en azimut = ángulo beta x distancia GR. (en rad y m)• Dos fallas están separadas entre sí por 15 m de distancia. Si el sistema
SLAR tiene una anchura de haz de 1.8 miliradianes, y las fallas se
encuentran aproximadamente a 12 km del SLAR, ¿Podrán diferenciarse
las fallas en la imagen obtenida?
Deformaciones SLAR
Los SLAR pueden tener dos tipos de sistemas para registrar la imagen:
• Sobre la línea que une el avión con el objetivo (slant distance). La
deformación aumenta al alejarnos del avión.
• Sobre la horizontal (ground distance).
8/18/2019 APUNTES TELEDETECCIÓN
60/68
Para hacer correcciones: Pitágoras: Slant2 = H2 + Ground2
Desplazamiento del relieve SLAR
Es diferente a la foto aérea porque aquí no hay proyección cónica.
“Acortamiento” ( foreshortening ) • Si la pendiente del objeto es inferior al ángulo de incidencia.
• Se puede corregir con un MDT.
8/18/2019 APUNTES TELEDETECCIÓN
61/68
“Solapamiento inverso” (layover )
• Cuando el haz alcanza antes el techo que la base del objeto. El techo se
“desplaza” hacia el sensor.
•
Se puede corregir con un MDT.
Correcciones SLAR
“Sombras”
• (RADAR shadow)
•
Cuando el haz es incapaz de “iluminar” la superficie tras un objeto.
Efecto de las sombras generadas por el relieve:
La información de las laderas se pierde, salvo que el satélite esté diseñado para
pasar por el mismo lugar con dos ángulos diferentes: Pasada ascendente y
descendente del ERS-1 sobre la Sierra de Gredos
(abajo el MDT de la misma zona).
Las imágenes RADAR sufren diferentes tipos de distorsión, dependiendo de laposición del sensor y del ángulo de incidencia (acortamientos, recubrimientos y
sombreados). Precisamente esta es característica la que hace de RADAR una
valiosa herramienta para estudios topográficos y elaboración de MDT.
Interferometría RADAR
• Mide la diferencia de fase (A) en el pulso RADAR entre dos
adquisiciones casi simultáneas.
• Se utiliza para detectar la topografía mediante la medida de las
diferencias en el tiempo de respuesta.
• Detecta los cambios en altura o posición (sismología)
Para obtener pares estereoscópicos conviene que el RADAR obtenga ambas
fotos desde el mismo lado para que la “iluminación” del RADAR sea igual y
evitar tener que hacer muchas correcciones.
8/18/2019 APUNTES TELEDETECCIÓN
62/68
El RADAR se diseñó inicialmente para medir distancias y detectar objetos en
movimiento. Sin embargo, en la actualidad son numerosas sus aplicaciones:
Proporcionan una información muy fina sobre la rugosidad de las superficies
observadas: geometría y textura de las superficies agrícolas y forestales, patrón
de las olas del océano, micromorfología de suelos...
Son muy sensibles al contenido en agua de los materiales superficiales:humedad de la vegetación y del suelo.
Los sistemas RADAR son capaces de obtener imágenes de la superficie terrestre
cualesquiera que sean las condiciones meteorológicas.
Se aplica en estudios topográficos, batimétricos, agrícolas y forestales,
geológicos, hidrológicos, oceanográficos, meteorológicos y de diferenciación
entre hielo y nieve.
Aplicaciones RADAR: cartografía
8/18/2019 APUNTES TELEDETECCIÓN
63/68
Aplicaciones del RADAR: cartografía geológica
Aplicaciones de la interferometría RADAR
•
MDT.• Modelización de terremotos.
• Desplazamiento de glaciares.
Aplicaciones RADAR: capacidad de penetración bajo lluvia intensa
Aplicaciones radar: Meteorología: Dirección y velocidad del viento
Aplicaciones radar: oceanografía: corrientes y oleaje
Aplicaciones RADAR: Oceanografía: Detección de vertidos de petróleo
Satélites
Satélites con Radar EE.UU.
• Seasat
8/18/2019 APUNTES TELEDETECCIÓN
64/68
• SIR-A
• SIR-B
• SIR-C
• Light SAR
Otros satélites con RADAR
• ERS -1,2 (Europa)
• JERS-1 (Japón)
• Radarsat (Canadá)
• Almaz (Rusia)
GRACE - Gravity Recovery and Climate Experiment
El campo gravitatorio de la Tierra es variable en el tiempo y el espacio, siendo
una función de la distribución de la masa en el planeta. La misión GRACE
permite (desde 2002) estimar modelos globales del campo gravitatorio terrestre
cada 30 días y durante los 5 años que durará el proyecto. Se podrán valorar los
movimientos de masas alrededor y en el interior del globo. Utiliza un sistema
de medidas basado en microondas con una precisión de 10 micrómetros.
Cómo funciona?
Dos satélites idénticos orbitando uno detrás del otro en el mismo plano orbital a
una distancia de 220 Km. Al sobrevolar áreas con una mayor o menor
concentración de masa en el planeta, el satélite que viaja primero se ve afectado,
variando su situación con respecto al otro. Aunque la variación de distancia es
casi imperceptible, el sistema de medidas con microondas es capaz de detectar
estos pequeños cambios.
LIDAR.
LIDAR (LIght Detection And Ranging)
El LIDAR es un sistema de teledetección activo como el RADAR, que
utiliza luz láser en vez de microondas.
8/18/2019 APUNTES TELEDETECCIÓN
65/68
La medida de distancias con láser se ha hecho desde los 1960 pero sólo cuando
los GPS y las Unidades de Medida Inercial (IMU) han sido fácilmente
disponibles se ha convertido en una herramienta práctica.
El pulso láser: longitudes de onda de los sensores LIDAR
Ya que el LIDAR trabaja en estas long. onda, no puede realizar su función bajo
cualquier condición meteorológica ya que el objetivo ha de ser visible en el
rango del instrumento. Neblina puede manejarse, niebla no.
Ventajas de usar láser:
• Al tener una longitud de onda específica sabemos cómo interactúa con la
atmósfera y los materiales.
• El pulso láser es muy direccional, se trata de un haz muy estrecho que
permanece como tal largas distancias, mientras que el RADAR emite en
muchas direcciones y la energía se dispersa.
Entre sus ventajas, destaca la cualidad de obtener datos en zonas de sombra yen terrenos con gran pendiente, además de permitir una exacta separación entre
objetos próximos (suelo y cobertera forestal).
Aplicaciones LIDAR: Topografía urbana,
Generación de MDT,
Topografía,
arqueología,
Urbanismo
Aplicaciones del LIDAR: bosques/planificación forestal
•
Alturas, distribución y volumen de biomasa
8/18/2019 APUNTES TELEDETECCIÓN
66/68
• Los MDT permiten hacer predicciones de erosión y proyectos de
ingeriería (ej: trazado de carreteras)
Aplicaciones del lidar: tectónica
Aplicaciones del lidar: minería
Satélites con LIDAR
CALIPSO
-Constelación de satélites. Desde 2006. NASA.
-Imágenes LIDAR de la atmósfera terrestre. Estudio de la interacción de losaerosoles y las nubes.
8/18/2019 APUNTES TELEDETECCIÓN
67/68
Teledetección
8/18/2019 APUNTES TELEDETECCIÓN
68/68