Fuentes principales de datos espaciales

Introducción

El origen de los datos con los que trabajamos en un SIG puede ser muy variado y presentarse en formas diversas. La metodología seguida en la recolección de datos condiciona directamente la forma en que estos datos llegan a nosotros, y por tanto el uso que les podemos dar dentro de un SIG o las operaciones que debemos realizar con ellos.

No hace tanto tiempo, toda la información que se manejaba dentro de un SIG tenía su origen en un mapa en papel, el cual debía prepararse para adaptarse a la naturaleza propia del SIG. El desarrollo de los SIG ya había comenzado a dar sus frutos y exisstían los programas, pero eran necesarios datos para utilizarlos. Sin embargo, los datos geográficos de los que se disponía no se encontraban en formato digital, por lo que no eran adecuados para su uso dentro de un SIG.

Una tarea básica en esos tiempos era la digitalización de cartografía, es decir, convertir los datos geográficos en formato impreso en datos en formato digital que un SIG pudiera manejar. La disponibilidad de datos digitales era baja, pero, como resulta lógico pensar, sí que existía una gran cantidad de datos geográficos en otros formatos tales como mapas, cartas de navegación, fotografías aéreas, etc. La tecnología ha ido avanzando y ya se producen datos directamente en formato digital, considerando específicamente la existencia de los SIG como herramientas básicas de manejo de datos geográficos. No obstante, los datos en formato impreso, así como las técnicas que se emplearon en su creación, siguen siendo válidas, y sirven igualmente para crear datos geográficos que podemos emplear en un SIG.

Hoy en día, la situación es bien distinta a la de aquellos primeros tiempos, y puede afirmarse que los orígenes a partir de los cuales se generan los datos geográficos son muy diversos. Esto es así porque aunan técnicas recientes y más adaptadas al entorno de los SIG con métodos clásicos que no han perdido su vigencia y valor.

A lo largo de este capítulo veremos las principales técnicas existentes para la creación de datos geograficos en un formato apto para su uso en un SIG, centrándonos en los pormenores de proceso y las particularidades de los datos generados en cada caso. Para ello, veremos todo el conjunto de fuentes de las cuales pueden provenir los datos con los que trabajamos en un SIG, desde las más modernas hasta las más antiguas, así como las metodologías que permiten convertir las formas no digitales en datos aptos para su uso en dicho SIG. El objetivo es que, al final del capítulo, se conozcan con detalle todas las formas en las que los datos geográficos pueden presentarse, se entiendan estas completamente con independencia de su origen, y se sepan utilizar y combinar todas las fuentes de datos.

Datos digitales y datos analógicos

La principal diferencia que se presenta desde la aparición de los SIG es la necesidad de utilizar datos digitales. Un SIG implica una aplicación informática, y esta se alimenta en última instancia exclusivamente de datos digitales. Esta es la razón por la que debemos alimentar nuestro SIG con una serie de valores numéricos, y llegar a ellos a partir de la realidad que se pretende modelizar implica toda una serie de etapas, las cuales ya vimos con detalle en el capítulo Tipos_datos

Gran parte de los datos geográficos que se producen actualmente son en formato digital. Otros, a pesar de producirse hoy en día, no lo son directamente. Y junto a estos tenemos, como ya sabemos, todos los datos (que no son pocos) generados con anterioridad y que se presentan en diversas formas. Pero si deseamos trabajar con ellos en un SIG, de un modo u otro todos habrán de acabar siendo digitales.

Los datos geográficos digitales tienen una serie de ventajas frente a los analógicos (además del mero hecho de que podemos incorporarlos a nuestro SIG), y suponen, como sucede en muchos otros campos, un salto cualitativo importante. Estas ventajas pueden resumirse en las siguientes:

Así pues, disponemos para nuestro trabajo en nuestro SIG de datos analógicos y datos digitales, siendo estos últimos los que necesitamos, y que presentan las ventajas anteriormente descritas frente a los primeros. En las siguientes secciones, veremos con detalle todos los distintos tipos de datos geográficos, tanto digitales como analógicos, la forma en que se obtienen, sus características, cómo se incorporan a un SIG, y en general todo aquello que resulte de interés para una mejor comprensión y uso de los mismos.

Fuentes primarias y fuentes secundarias

Como hemos visto, algunos datos que utilizamos en un SIG son de tipo analógico, mientras que otros son de tipo digital. En algunos casos (generalmente en los analógicos), estos datos no han sido tomados pensando en su utilización en un SIG, y nos van a servir de base para obtener otros que sí pueden emplearse directamente dentro de un SIG. Por el contrario, existen otros datos que ya han sido recogidos considerando su utilización dentro de un Sistema de Información Geográfica, y la forma en la que se presentan ya es adecuada para incorporarlos en este y trabajar con ellos.

En base a lo anterior, se define una forma distinta de clasificar los datos espaciales con los que trabajamos en un SIG: datos primarios (o procedentes de una fuente primaria) y datos secundarios (o procedentes de una fuente secundaria) [ Jackson1991Longman ].

Los datos primarios son aquellos que podemos emplear en un SIG y que, en su forma original, ya son susceptibles de ser sometidos a las operaciones de manejo y análisis que incorporan los SIG. En este grupo encontramos las imágenes digitales o los datos obtenidos con GPS, todos ellos recogidos ya en origen de forma adecuada para su empleo directo en un SIG.

Por su parte, los datos secundarios derivan de algún otro tipo de dato previo, el cual no es adecuado para su empleo en un SIG. Entre estos incluimos las versiones digitales de los mapas clásicos (veremos en breve cómo se lleva a cabo esa conversión de un documento analógico a uno digital), así como los datos procedentes de un muestreo o levantamiento tradicional. Otros provenientes de cartografía impresa, tales como capas de elevaciones, también se incluyen en este grupo.

Al desarrollar las fuentes de datos en este capítulo, se tratarán tanto fuentes primarias como secundarias, y en el caso de estas últimas se tratarán a su vez las formas en las que a partir de estas pueden derivarse datos digitales que puedan ya ser incorporados a un SIG.

Teledetección

La primera fuente de datos que trataremos en este capítulo es la teledetección. Entendemos por teledetección el estudio y medida de las características de una serie de objetos (en nuestro caso elementos de la superficie terrestre) sin que exista contacto físico [ Curran1991Longman ][ Lillesand1997Wiley ][ Chuvieco1996Rialp ]. Para ello, se miden las perturbaciones que el objeto provoca en su entorno, principalmente las de tipo electromagnético.

Tradicionalmente, la teledetección se ha estudiado como una materia complementaria pero en cierto modo separada de los Sistemas de Información Geográfica. Ello es debido principalmente a que se trata de una materia muy extensa cuyo desarrollo se ha producido en cierta parte de forma ajena al de los SIG. No obstante, a medida que ambos campos se han ido desarrollando, la convergencia entre SIG y teledetección se ha ido haciendo cada vez más evidente. No solo las aplicaciones SIG incorporan elementos para el manejo, tratamiento y análisis de datos procedentes de la teledetección, sino que las formulaciones de ambos ámbitos contienen elementos similares.

La teledetección es hoy en día un elemento clave para la formación en SIG, y como tal debe incluirse en un libro como este. Los bloques tradicionales en los que se divide el temario fundamental de la teledetección no incorporan únicamente el registro de la información y la creación de los datos, sino también su proceso posterior, interpretación y tratamiento. Este último no se detalla en este capítulo, sino en la parte dedicada al análisis, integrado junto con otras formulaciones similares para proceso de imágenes.

Aunque el aprovechamiento de los productos actuales de la teledetección depende en gran medida del concurso de los SIG y sus capacidades de análisis, los procesos de teledetección aplicados al ámbito cartógráfico y el análisis espacial se remontan a tiempo atrás, concretamente a la mitad del siglo XIX. Fue entonces cuando se tomaron las primeras fotografías aéreas, uniendo el recién desarrollado campo de la fotografía con la utilización de globos aerostáticos como medio para situar el aparato fotográfico a una altura suficiente que permitiera obtener las imágenes.

Las fotografías aéreas fueron el primer producto de la teledetección, pero hoy en día existen otros que, basados en esa misma idea de registro de información, pueden ser empleados como fuentes de datos espaciales dentro de un SIG. Para comprenderlos, estudiemos algo más en detalle los elementos del proceso de teledetección, los cuales se representan de forma esquemática en la figura \ref{Fig:Elementos_teledeteccion}.

Esquema de un sistema de teledetección.
$$\label{Fig:Elementos_teledeteccion}$$

Estos elementos son los siguientes:

Para estudiar los dos primeros, estudiaremos los fundamentos físicos relativos a la radiación y a la la interacción entre esta y la materia, mientras que para el estudio del sistema receptor analizaremos dos de sus componentes por separado: sensores y plataformas.

La interacción de la atmósfera interesa de cara a eliminar su efecto, ya que lo que resulta de interés en general son los objetos en la superficie terrestre, no la atmósfera como tal. Eliminar esta influencia de la atmósfera es parte de los procesos posteriores que se realizan con la imagen y que incluyen también, como se mencionó anteriormente, la interpretación y otros procedimientos diversos sobre esta. Todos ellos se tratan, tal y como se dijo, en un capítulo independiente dentro de la parte de procesos.

Fundamentos físicos

Es necesario conocer los conceptos fundamentales sobre la radiación y su interacción con la materia (los objetos de la superficie terrestre) para poder entender cómo, utilizando la radiación de una fuente dada, se crea una imagen como resultado final en un proceso de teledetección.

Ondas correspondientes a los campos magnético y eléctrico, ortogonales entre sí (Tomado de Wikipedia).
$$\label{Fig:Radiacion_electromagnetica}$$

La radiación electromagnética

La radiación electromagnética es una de las cuatro fuerzas fundamentales de la naturaleza y deriva del campo electromagnético, el cual es ejercido por las partículas cargadas eléctricamente. Para explicar esta existen dos modelos conocidos como modelo ondulatorio y modelo de partículas . Según el primero, que será en el que profundicemos, la radiación electromagnética es producto de las alteraciones en los campos eléctrico y magnético, que generan dos ondas ortogonales entre sí, correspondientes a cada uno de los campos anteriores (Figura \ref{Fig:Radiacion_electromagnetica}).

Estas ondas se desplazan a la velocidad de la luz, y se pueden describir con los parámetros habituales, tales como la longitud de onda o la frecuencia. Una mayor longitud de onda (y, por tanto una menor frecuencia) tiene asociada una mayor energía de la radiación.

La radiación electromagnética puede cubrir de forma continua todo un amplio rango de valores de longitudes de onda. Este rango se conoce como espectro electromagnético . Pese a la continuidad de sus valores, es habitual agruparlos en regiones, discretizando la amplitud del espectro, ya que las radiaciones en longitudes de onda cercanas presentan a su vez comportamientos similares en muchos sentidos. En la figura \ref{Fig:Espectro_electromagnetico} se muestra un esquema del espectro electromágnético y sus principales regiones de interés.

Espectro electromagnético y sus principales regiones de interés (Tomado de Wikipedia).
$$\label{Fig:Espectro_electromagnetico}$$

Dentro de estas regiones, son de destacar las siguientes:

En el capítulo Procesado_imagenes estudiaremos para qué tipo de análisis resulta útil cada una de las regiones del espectro, cuando veamos como analizar las imágenes procedentes de la teledetección.

Como ya se dijo en el capítulo Tipos_datos , las imágenes como capas ráster presentan habitualmente la particularidad de tener varias bandas. En lugar de un único valor para cada celda, existen $n$ valores, uno por cada banda. Esto es así porque la imagen recoge la intensidad de la radiación (recordemos que esto se denominaba Nivel Digital) dentro de una amplitud dada del espectro, y a su vez subdivide esta en distintas franjas. Los Niveles Digitales de cada banda corresponden a la intensidad dentro de una de esas franjas del espectro en particular.

Interacción entre radiación y materia

La radiación emitida por una fuente de radiación es alterada por la presencia de los distintos objetos, que interactúan con ella. Independientemente de su procedencia, para toda radiación se dan tres fenómenos fundamentales al alcanzar un objeto:

Estos tres fenómenos se dan en diferente proporción en función de las características del objeto y de la radiación. Para una longitud de onda dada, existe, pues, un porcentaje de la radiación que es absorbida por el objeto, otra que se transmite a través de él y otra que es reflejada. La parte que interesa a efectos de la teledetección es aquella que se refleja en el objeto, ya que esta es la que posteriormente puede recogerse y emplearse para la generación de las imágenes.

La proporción en la que los tres procesos anteriores se dan en un objeto no es la misma para todas las radiaciones. Un objeto puede absorber una gran parte de la radiación dentro de una región del espectro y sin embargo reflejar la mayoría de ella en una región distinta. Es por ello que, en función del análisis que se desee realizar, debe trabajarse con imágenes que traten una u otra región.

Igualmente, una imagen con varias bandas contiene información sobre la intensidad de la radiación reflejada en distintas partes del espectro. Puesto que cada objeto refleja de forma diferente la radiación en cada una de esas partes, pueden igualmente emplearse para identificar objetos particulares si se conoce la respuesta de estos en determinadas bandas. Por ejemplo, si sabemos que los objetos que buscamos reflejan gran cantidad de radiación en todas las longitudes de onda excepto en un rango concreto. Aparece así el concepto de firma espectral como la respuesta característica de un tipo de objeto dentro del espectro electromagnético. Veremos mucho más al respecto en el capítulo Procesado_imagenes , así como en el Estadistica_avanzada , donde estudiaremos una aplicación habitual de dichas firmas espectrales.

Además de la interacción con los objetos que se pretenden estudiar, la radiación interactúa con la atmósfera. Esta interacción afecta al resultado y es una variable a considerar en ciertas operaciones posteriores con las imágenes. Veremos más sobre la interacción entre radiación y atmósfera en el apartado Correccion_imagenes , cuando tratemos esas operaciones.

Sensores y plataformas

En un sistema de teledetección, dos son los elementos tecnológicos principales que lo definen: el sensor y la plataforma .

El sensor es el elemento que incorpora la capacidad de «leer» la radiación electromagnética y registrar su intensidad dentro de la una zona concreta del espectro. En palabras más sencillas, es el aparato que nos permite «tomar» la imagen, y puede ir desde una simple cámara fotográfica hasta un sensor más especializado capaz de tomar cientos de bandas en una región del espectro de gran amplitud.

La plataforma, por su parte, es el medio en el que se sitúa el sensor y desde el cual se realiza la observación. Los dos tipos principales de plataformas son aquellas situadas dentro de la atmósfera terrestre (aviones en su mayoría, aunque también en otros medios tales como globos aerostáticos) y aquellas situadas fuera de la atmósfera (a bordo de satélites).

Las características de estos dos elementos definen las del sistema en su conjunto, así como las propiedades de sus productos derivados y la utilidad que estos presentan.

Plataformas

La plataforma es el medio en el que se transporta el sensor, y condiciona las mediciones efectuadas por este, ya que establece la distancia a la que el sensor se sitúa del elemento registrado (la superficie terrestre). Esta distancia puede ser del orden de algunos centenares de metros o unos pocos kilómetros, o bien de muchos kilómetros. En el primer caso, la plataforma más habitual es el avión, mientras que en el segundo caso lo más frecuente es el uso de satélites.

Los aviones son las plataformas clásicas a bordo de las cuales se montaban originariamente las cámaras empleadas para la realización de fotografías aéreas. Hoy en día pueden montarse igualmente otros sensores más complejos y modernos a bordo de aeronaves.

Las ventajas del empleo de aviones como plataformas de teledetección son las relacionadas con la disponibilidad de la plataforma, que es mucho mayor que en el caso de emplear satélites. Podemos (dentro de lo razonable) escoger cómo, cuándo y dónde efectuar un vuelo y tomar imágenes, mientras que en caso de satélites la disponibilidad viene condicionada por numerosos factores y es muy reducida.

Respecto a los inconvenientes, pueden citarse entre ellos la inestabilidad de la plataforma y la dependencia de las condiciones del clima, que pueden afectar a la propia estabilidad y a la calidad de los resultados, o incluso impedir la realización del vuelo. Por ser plataformas de baja altura, no pueden abarcar superficies tan amplias como los satélites, requiriendo más tiempo para cubrir una zona dada.

Por su parte, los satélites artificiales presentan unas características distintas como plataformas de teledetección, siendo muy útiles para la teledetección sobre la superficie terrestre. Es habitual que a bordo de un mismo satélite coexistan diversos sensores, de forma que una única plataforma transporta varios de ellos.

A diferencia de un avión, un satélite no puede dirigirse a voluntad (no puede pilotarse), y su movimiento es una característica inherente que viene definida por una serie de parámetros. Estos parámetros se conocen como parámetros orbitales , pues definen la órbita descrita por el satélite en torno a la Tierra.

Las órbitas pueden clasificarse en función de su eje de rotación en tres tipos:

Con un criterio distinto, atendiendo a la forma en que se produce el movimiento, distinguimos dos tipos de órbitas para un satélite:

Sensores

Montado a bordo de cualquiera de los tipos de plataformas que hemos visto en el apartado anterior, el sensor es el encargado de registrar la radiación electromágnética procedente de la zona estudiada y «tomar» la imagen.

Existen diversas formas de clasificar los sensores. Una división básica es la que distingue sensores activos y sensores pasivos . Como ya sabemos, la radiación que recoge el sensor es el resultado de una fuente de radiación electromagnética, cuyas emisiones interactúan con el medio, que refleja una parte de las radiaciones que le llegan. Los sensores pasivos aprovechan las fuentes de radiación existentes en la naturaleza (fundamentalmente el Sol) y se limitan a recoger la radiación de dichas fuentes reflejada por los elementos del medio, o la que estos elementos emiten por sí mismos. El sensor no produce ningún tipo de radiación de por sí. Por el contrario, los sensores activos sí emiten radiación, y recogen dicha radiación tras ser reflejada por los elementos del medio.

La diferencia fundamental entre estos dos tipos de sensores es que los activos pueden funcionar en cualquier instante y no dependen de la condiciones atmosféricas o el momento del día. De la misma forma que no podemos tomar una fotografía de noche sin luz, y no podemos ver el suelo desde un avión cuando hay nubes, no podemos utilizar un sensor pasivo en esas condiciones para tomar una imagen. Sin embargo, sí podemos hacer una fotografía de noche si disponemos de un flash, ya que la propia cámara emite la luz que necesita. La filosofía de un sensor activo es en cierta medida similar al caso de la cámara con flash.

Los sensores activos emiten su propia radiación, por lo que no es necesario que existan fuentes externas (no es necesaria la luz solar). Asimismo, los elementos atmosféricos tales como las nubes, que afectan a la radiación visible, no afectan a otros tipos de radiación, permitiéndoles una operatividad total en la gran mayoría de condiciones. Por ello, los sensores activos suelen trabajar en el rango de microondas (frente a los sensores pasivos, que lo hacen principalmente en las regiones del visible y el infrarrojo), ya que estas son capaces de atravesar la atmósfera en prácticamente todas las condiciones, presentando así ventajas frente a los sensores pasivos en este aspecto.

Aunque el producto habitual de la teledetección son las imágenes, entendidas estas como algo visual , algunos sensores no forman tales imágenes, y los valores que recogen no son las intensidades de la radiación reflejada por el terreno en una longitud de onda dada. Es decir, no se corresponderían con el concepto de Nivel Digital ya presentado. Este tipo de resultados son habituales en los sensores de tipo activo, en los que la radiación que el propio sensor emite es recogida tras reflejarse en el terreno, pero la variable que se mide de ella no es su intensidad sino, por ejemplo, el tiempo que tarda en regresar. Planteamientos como estos permiten la generación de capas de datos que no son imágenes como tales, como es el caso de las capas de elevación (Modelos Digitales de Elevaciones), ya que el tiempo de retorno está directamente relacionado con la distancia recorrida por la radiación, y este con el relieve del terreno.

Estos sensores, no obstante, operan de un modo similar a lo que ya conocemos, y se consideran igualmente dentro del ámbito de la teledetección, pues se adscriben a la definición de esta dada al principio de este apartado. Veremos igualmente ejemplos de algunos de ellos cuando veamos más adelante algunos sensores de particular relevancia, ya que tienen una gran importancia en la actualidad para la generación de cartografía, como por ejemplo la ya citada de elevaciones.

El radar es la tecnología más importante dentro de este grupo. El sensor envía pulsos de radio, y posteriormente recoge estos midiendo su intensidad y pudiendo calcular también la distancia al objeto.

Una técnica más moderna pero similar al radar es el denominado LiDAR , que emplea pulsos de láser. El LiDAR es en la actualidad la tecnología más avanzada para la creación de cartografía de elevaciones, y dentro de este campo ha supuesto una verdadera revolución, ya que obtiene resoluciones muy elevadas, tanto horizontales como verticales (resolución en los valores de elevación calculados).

Los sistemas modernos de LiDAR son capaces de proporcionar además varios retornos, de modo que, si el sensor sobrevuela una zona arbolada, se tiene información sobre la distancia a la copa y la distancia al suelo, ya que parte del láser atraviesa la copa y alcanza el terreno. Este tipo de resultados supone un salto cualitativo con respecto a los obtenidos con otras tecnologías. Esto permite no solo estudiar el terreno, sino derivar otros parámetros tales como la altura de la vegetación [ Andersen2001PrecForestry ]. Asimismo, debido a su precisión, permite recoger elementos del terreno que con otros sistemas no resulta posible registrar, tales como edificios. A modo de ejemplo, la figura \ref{Fig:LiDARWTC} muestra un modelo del World Trade Center el 27 de septiembre de 2001, creado a partir de datos LiDAR.

Modelo del World Trade Center realizado a partir de datos LiDAR tomados el día 27 de septiembre de 2001 (Fuente: NOAA/U.S. Army JPSD)
$$\label{Fig:LiDARWTC}$$

En la terminología del LiDAR, la imagen correspondiente al primer retorno (el de los puntos más altos) se conoce como Modelo Digital de Superficie (MDS), mientras que el correspondiente a la altura del suelo se conoce como Modelo Digital de Elevaciones (MDE). Veremos mucho acerca de los MDE en posteriores capítulos de este libro.

En [ Kraus2001IASPRS ] puede encontrarse una buena descripción del proceso de creación de capas de elevación a partir de datos LiDAR.

Además de la división entre activos y pasivos, otra forma de clasificar los sensores es en función de la forma en la que registran la imagen.

Algunos sensores poseen un único detector de radiación que no cubre todo el ancho de la franja del terreno que se pretende recoger. Por medio de espejos oscilantes, se envía a este detector la radiación procedente de los distintos puntos a lo ancho de esa franja, de forma que se van recogiendo los píxeles de la imagen uno a uno, recorriendo esta de un lado a otro (Figura \ref{Fig:Tipos_sensores}a). Estos sensores se denominan de barrido .

Los denominados sensores de empuje (Figura \ref{Fig:Tipos_sensores}b) eliminan la necesidad de utilizar espejos móviles, ya que poseen un número mayor de detectores que permiten cubrir todo el ancho de la imagen. Por ello, esta se va registrando no píxel a píxel, sino línea a línea.

Esquema de funcionamiento de un sensor de barrido (a) y uno de empuje (b)
$$\label{Fig:Tipos_sensores}$$

Resoluciones

Uno de los parámetros principales que definen las propiedades de un sistema de teledetección son las resoluciones . Estas establecen el nivel de detalle de los productos que el sistema genera, determinando este en las distintas magnitudes en las que el sistema opera. Las resoluciones dependen del sensor y de la plataforma como binomio operativo, y de las características propias de ambos. Distinguimos cuatro resoluciones, a saber:

Parece lógico pensar que lo ideal en toda circunstancia sería disponer de imágenes procedentes de sistemas con altas resoluciones en cualquiera de las clases anteriores. De esta forma, tendríamos imágenes con gran detalle espacial, espectral y radiométrico, y actualizadas frecuentemente. No obstante, la tecnología actual no dispone de elementos que ofrezcan resoluciones elevadas en todas las magnitudes del proceso, y en la creación de los sensores se favorecen unas en detrimento de otras. Algunas resoluciones presentan además un cierto antagonismo, como hemos visto para las resoluciones espacial y temporal, con lo que no resulta viable que ambas sean elevadas simultáneamente.

Así, existen sensores con, por ejemplo, gran resolución espacial, en los cuales la resolución espectral no es tan elevada. Por el contrario, los sensores con mayor resolución espectral no suelen ofrecer un nivel de detalle espacial tan elevado como los anteriores. En ocasiones, una misma plataforma puede montar a bordo varios sensores, de tal forma que el conjunto de ellos ofrezca información detallada de forma global, pero un único sensor no proporciona resolución elevada en todas las variables.

Otro tipo de circunstancias relativas al sensor afectan igualmente a las resoluciones. Por ejemplo, aquellos sensores que trabajan con radiaciones de poca energía (en la región de las microondas) y son de tipo pasivo requieren una amplia extensión para recoger la suficiente energía como para poder ser detectada por dicho sensor. Por esta razón, su resolución espacial suele ser baja.

A la hora de utilizar imágenes de teledetección, debe considerarse qué tipo de resolución resulta de mayor interés para el proyecto que se lleva a cabo, teniendo en cuenta la escala de trabajo o el objetivo final que se persigue, entre otros factores. En base a esto, se escogerá uno u otro producto, que será el que ofrezca los valores de resolución más adecuados en conjunto.

Si se pretende localizar elementos de pequeño tamaño, es imprescindible trabajar con altas resoluciones espaciales. Si lo que se desea es clasificar una serie de zonas en función de sus características, la resolución espectral debe ser alta, ya que, como veremos, se usa la información de todas las bandas para dar esa clasificación, y un número mayor de bandas dará como resultado una mayor precisión.

De igual modo, la detección de cambios de intensidad en una banda hace necesario que se trabaje con una buena resolución radiométrica, pero si lo que se desea es estudiar esos cambios a lo largo de un periodo corto de tiempo, trabajar con un sensor con gran resolución temporal se hace imprescindible.

En cada caso, las circunstancias particulares del trabajo condicionan la elección de uno u otro sensor, puesto que, como se ha dicho, un único sensor no ofrece elevadas resoluciones en todas las variables.

La utilización simultánea de datos de varios sensores en un proyecto es una alternativa en ciertos casos. Como veremos, existen técnicas que permiten combinar imágenes con alta resolución espacial e imágenes con alta resolución espectral, con objeto de obtener nuevas imágenes que combinen lo mejor de ambas y ofrezcan un nivel de detalle conjunto mayor. Estas técnicas realizan el proceso conocido como fusión de imágenes , el cual trataremos en el apartado Fusion_imagenes , más adelante en este libro.

Además de lo anterior, un único sensor montado a bordo de un satélite puede operar en varios modos distintos. Es habitual que un sensor multibanda pueda registrar también imágenes de una sola banda, recogiendo en ella la intensidad de la radiación correspondiente a todo el espectro visible, de tal forma que genere una representación visual real. Estas se suelen representar habitualmente en escala de grises, resultando una imagen en blanco y negro.

Las imágenes de este tipo se conocen como pancromáticas , y suelen tener mayor resolución espacial, por lo que pueden emplearse para la fusión de imágenes señalada anteriormente. Así, un mismo sensor provee todos los datos necesarios para llevar a cabo ese proceso, tanto la imagen de gran resolución espacial (la pancromática) como la de gran resolución espectral (la imagen multibanda).

Principales sensores y productos

El número de diferentes productos provenientes de la teledetección es muy elevado en la actualidad. Ahora que ya conocemos los fundamentos del proceso y las principales características de un sistema de teledetección, es interesante mostrar un pequeño resumen de los principales productos disponibles.

A continuación se relacionan algunos de los sistemas de teledetección principales y las características de sus productos.

Cartografía impresa. Digitalización

La primera fuente de cartografía de la que se disponía en las etapas iniciales de los SIG era la cartografía impresa. No se trataba de elementos creados pensando en su utilización dentro de un SIG y su estructura no es la más adecuada para su uso como datos de trabajo en un SIG. Se trata, por tanto, de una clara fuente secundaria de datos espaciales. Aun así, su uso ha sido desde esos tiempos una constante dentro del ámbito SIG.

A pesar de que hoy en día disponemos de otras fuentes cartográficas, la cartografía impresa sigue siendo básica para trabajar con un SIG, ya que existe mucha información que solo se encuentra en este formato. De una u otra forma, es probable que un proyecto SIG implique en algún punto de su desarrollo la necesidad de recurrir a cartografía impresa y tratar esta para su inclusión dentro de un SIG.

Cuando hablamos de cartografía impresa, no hay que pensar únicamente en mapas o planos, sino también en imágenes tales como fotografías aéreas, las cuales, dependiendo de su antigüedad, pueden encontrarse disponibles tan solo en papel. Mientras que resulta posible adquirir estas en formato digital cuando se trata de fotografías más actuales, la tomadas por métodos analógicos correspondientes a vuelos más antiguos solo pueden adquirirse por regla general como un producto impreso.

Los procesos que permiten obtener un producto digital a partir de esas imágenes son costosos en tiempo y dinero, y es por ello que no todos los proveedores de estas ofrecen la posibilidad de adquisición de un producto digital. En esta sección veremos esos procesos, tanto si partimos de un mapa o plano como si partimos de una imagen o cualquier otro documento impreso que pueda contener información cartográfica, susceptible de ser convertida en una o varias capas.

Tanto mapas como fotografías aéreas pueden servir como fuente de información para crear o bien capas ráster o bien capas vectoriales, ya que la información que contienen puede de igual modo representarse según uno u otro modelo.

Un mapa o plano sobre un soporte impreso, sin embargo, dista considerablemente de ese concepto de capa con el que trabajamos en un SIG. Suele contener información sobre distintas variables, tales como carreteras, elevación, núcleos urbanos, uso de suelo, y todas ellas en un único elemento cartográfico. Esas variables, que en un SIG manejaríamos como capas independientes, se presentan como un conjunto que será conveniente disgregar en base a esas distintas variables.

La creación de un dato digital a partir de un dato analógico como un mapa impreso se conocen como digitalización , y esta puede ser automatica o manual.

En la digitalización automática, el sistema (informático o mecánico) se encarga de generar los elementos digitales que ya podremos incorporar a un SIG, ahorrando trabajo al operador al automatizar la tarea. Este tipo de digitalización es muy habitual para el caso de obtener un resultado ráster mediante el proceso de escaneo . También resulta posible automatizar la digitalización para el caso vectorial, aunque requiere cierta labor por parte del operario y no es un proceso tan sencillo, pudiendo obtenerse resultados desiguales.

La digitalización manual requiere por parte del operario una definición explícita de los elementos a crear, y es por ello únicamente adecuada para obtener un resultado vectorial, trazándose las entidades (sean estas puntos, líneas o polígonos) manualmente mediante algún sistema que permita esa introducción de datos.

La elección de uno u otro tipo de digitalización no depende solo del tipo de capa que se desee obtener. Tanto la digitalización manual como la automática, tienen cada una de ellas su propias ventajas. En el caso ráster la opción manual no es viable, pero al digitalizar un mapa para obtener una capa vectorial puede ser interesante optar por una o otra metodología en función de las circunstancias.

La digitalización manual es mucho más costosa y su resultado es muy variable en cuanto a su precisión espacial, ya que depende en gran medida de la experiencia del operario y de las condiciones de este (cansancio, circunstancias personales, etc.). Por el contrario, e independientemente del operario, el reconocimiento de las entidades es altamente fiable (si se trata de un mapa, este ha sido diseñado para ser interpretado por una persona, por lo que esta reconocerá sus elementos sin dificultad y con total fiabilidad).

Asimismo, un proceso automático, en caso de proceder de forma correcta, tendrá una exactitud absoluta y «clonará» con absoluta fidelidad los elementos del mapa impreso. Esto resulta una ventaja a la hora de obtener una gran precisión, pero impide que en el proceso de digitalización se puedan corregir errores existentes en el documento original. Un operario puede advertir esos errores y corregirlos a medida que digitaliza. Un sistema automático, por el contrario, no puede.

Digitalización manual

La digitalización manual es la forma más básica de crear información digital a partir de un documento cartográfico impreso. Un operario trabaja directamente sobre la fuente cartográfica y su trabajo se traduce en la creación de una nueva capa, gracias a la utilización de un equipo que es capaz de convertir su trabajo en la información necesaria para crear dicha capa.

En el modelo de representación ráster, los elementos básicos son las celdas, que forman una malla regular que puede presentar un numero muy elevado de estas. Una definición manual de las características de cada una de esas celdas resulta inviable, por lo que la digitalización de un documento cartográfico impreso para la obtención de una capa ráster a partir de ella de forma manual no es factible.

Por el contrario, se puede realizar con cierta sencillez la digitalización de una entidad vectorial, trazando la forma de esta o, en caso de ser una entidad de tipo punto, sencillamente indicando su localización. Cuando el número de entidades es elevado, el proceso puede llevar tiempo y ser tedioso, pero en todo caso sigue resultando una forma sencilla y accesible de crear una capa vectorial a partir de otra fuente de datos.

Para llevar a cabo ese trazado de la entidad, se necesita emplear algún equipo que recoja la información introducida por el operador. Existen dos alternativas principales: utilizar un equipo especializado diseñado específicamente para la digitalización, o bien digitalizar utilizando las funciones de edición de un SIG, realizando todo el proceso dentro de este y sin más herramientas que el propio ordenador y un dispositivo señalador como el ratón.

Esquema de una tableta digitalizadora y los elementos del proceso de digitalización.
$$\label{Fig:Tableta_digitalizadora}$$

Con equipo especializado ( heads--down )

La forma tradicional de proceder a la digitalización manual de entidades es utilizando equipos y periféricos expresamente diseñados para llevar a cabo esta tarea. La tableta digitalizadora (Figura \ref{Fig:Tableta_digitalizadora}) es la herramienta fundamental para este trabajo.

Se trata de una superficie plana a modo de atril, sobre la cual se sitúa el documento cartográfico a digitalizar, y sobre este se van trazando las distintas entidades con un cursor. Este cursor registra los movimientos del operario, convirtiendo las posiciones del cursor en coordenadas reales, que son las que van a constituir la entidad digitalizada. El trabajo del operario consiste en seguir con el cursor las formas de las distintas entidades, como si las estuviera calcando, de modo que indique al sistema las geometrías que se quieren definir.

El proceso de digitalización implica los siguientes pasos [ Heywood1998Longman ]:

Esta forma de digitalizar se conoce como «cabeza abajo» ( heads--down ), en referencia a la posición del operario a la hora de trabajar sobre la tableta.

Se distinguen dos formas principales de registro de puntos:

Las tabletas digitalizadoras son elementos caros, motivo por el cual se tiende a favorecer en la actualidad la digitalización en pantalla, que presenta además otra serie de ventajas adicionales, como seguidamente veremos.

En pantalla ( heads--up )

La otra forma de digitalizar elementos es utilizando las capacidades de edición de un SIG. Estas capacidades son heredadas de las aplicaciones de diseño asistido por ordenador (CAD), y permiten «dibujar» en la pantalla del ordenador entidades y formas tales como los puntos, líneas y rectas que constituyen los objetos en el modelo de representación vectorial.

En este proceso se parte igualmente de una capa base, generalmente una imagen, y basándose en ella se van definiendo los objetos, «dibujándolos» sobre la pantalla, una vez más como si se calcara aquello que puede visualizarse en dicha imagen. El hecho de que un SIG nos permita tener varias capas simultáneamente y visualizarlas a voluntad facilita el proceso de digitalización. También lo facilita el poder tener varias imágenes sobre el fondo (cada una de ellas como una capa individual), de modo que podemos cubrir un área más amplia que la de una simple hoja de mapa o una única imagen.

En este proceso, no partimos en realidad de un documento cartográfico analógico, pues ya ha sido necesario digitalizarlo de alguna forma para incorporarlo en un SIG. El proceso es una digitalización de las entidades como tales, pero la información ya ha de estar en formato digital, aunque no en el modelo de representación vectorial, sino en el modelo ráster. Por ello, puede utilizarse como capa de partida una imagen originalmente en formato digital o bien una imagen originalmente en formato impreso. En este ultimo caso, la imagen ha debido digitalizarse previamente mediante un proceso de escaneo , el cual se tratará en la siguiente sección.

En la figura \ref{Fig:Digitalizacion_en_pantalla} puede verse un ejemplo de la digitalización de una imagen en pantalla. Sobre una imagen aérea en color, se digitalizan las distintas parcelas que pueden distinguirse en esta. Del mismo modo, pueden digitalizarse curvas de nivel en un mapa escaneado, u otras entidades tales como ríos, lagos o vías de comunicación sobre una fotografía aérea, entre muchas otras.

Digitalización en pantalla. En rojo, polígono ya digitalizado. Las líneas rojas indican un nuevo polígono, actualmente en edición
$$\label{Fig:Digitalizacion_en_pantalla}$$

La digitalización en pantalla se conoce también como digitalización «cabeza arriba» ( heads--up ), ya que el operador centra su atención en la pantalla, con una postura bien distinta a la que se tiene al trabajar con una tableta digitalizadora.

Frente a dicho trabajo con tableta digitalizadora, la digitalización en pantalla tiene las siguientes ventajas:

Corrección de entidades con las funciones de edición de un SIG. El polígono de la derecha se encuentra en edición, siendo modificado uno de sus vértices.
$$\label{Fig:Correccion_digitalizacion}$$

Para conocer con más detalle las capacidades básicas de edición de un SIG, así como las restantes capacidades que contribuyen a su vez a facilitar la labor de edición, consúltese el capitulo SIGs_escritorio .

Digitalización automática

La digitalización automática limita el trabajo del operario, ya que este no es responsable directo de definir las propiedades de los elementos que se digitalizan. Este tipo de digitalización es la habitual en el caso de generar una capa ráster, aunque también pueden obtenerse capas vectoriales procesando de modo automático cartografía impresa.

Este segundo caso, no obstante, requiere una cartografía en condiciones especiales, no siendo adecuada para todo tipo de mapas. En caso de no presentarse esas condiciones, los resultados de la digitalización no son óptimos, y requieren posteriormente un gran trabajo de corrección y supervisión.

Escaneo

El escaneo es el proceso de digitalización que convierte una imagen impresa (analógica) en una imagen digital [ Jackson1991Longman ]. El resultado de este proceso es, por tanto, y desde el punto de vista de un SIG, una capa ráster. Pueden escanearse tanto mapas como fotografías aéreas, operando en ambos casos de un modo similar y con las mismas consideraciones, pues el objeto del proceso es el mismo: la conversión del documento impreso en un documento digital que pueda utilizarse dentro de un SIG o cualquier otro software tal como, por ejemplo, un software de tratamiento de imágenes.

El dispositivo fundamental para realizar este proceso es el escáner . Este se compone de una cabeza sobre la que se monta un sensor, y un soporte sobre el que se desplaza o bien la cabeza o bien el documento a escanear, de tal modo que durante el proceso de escaneo esta recorre todo el documento, recogiendo la información de toda su extensión.

Este proceso de barrido se realiza en una única ocasión, aunque dispositivos más antiguos pueden hacerlo en tres ocasiones a la hora de escanear documentos en color. Aunque lo habitual es la creación de una imagen en color, también pueden obtenerse imágenes en blanco y negro o en escala de grises.

Existen escáneres específicamente diseñados para el trabajo con documentos cartográficos, pero son dispositivos muy especializados y de coste elevado. Los escáneres más genéricos, pensados para el trabajo con todo tipo de imágenes y para todo tipo de usos, pueden no obstante emplearse de igual modo para escanear tanto mapas como imágenes aéreas con resultados aceptables, utilizándose con frecuencia.

Existen tres tipos principales de escáneres:

Los parámetros básicos que definen las características de un escáner son la resolución espacial y la resolución radiométrica. La primera de estas se mide habitualmente en puntos por pulgada y nos indica el número de puntos (celdas) que el sensor es capaz de tomar por cada unidad de longitud sobre el papel. La resolución radiométrica, por su parte, indica la capacidad del sensor para distinguir entre dos colores distintos.

A la hora de trabajar con documentos cartográficos de cara a su posterior utilización en un SIG, tanto la resolución espacial como la radiométrica de los escáneres habituales es en general más que suficiente, incluso en ocasiones en aquellos de uso doméstico. No obstante, es habitual que se presenten distorsiones geométricas que suponen un problema importante a la hora de mantener la precisión cartográfica, y ello exige la utilización de equipos de mayor calidad si se requiere un resultado de alta precisión. Estos equipos no han de ser necesariamente de aquellos pensados para el trabajo con cartografía, sino que pueden ser de uso genérico, siempre, eso sí, que sean de la calidad necesaria.

La velocidad del escáner es otro parámetro importante, pues la preparación de una base de datos cartográfica a partir de cartografía analógica puede llevar un tiempo considerable si el volumen de datos es elevado. El rendimiento del escáner y la velocidad a la que puede digitalizar una imagen dada está en relación directa con la resolución espacial. Un escáner posee una resolución nominal (en dpi), que es la resolución máxima a la que puede trabajar (el detalle máximo que puede recoger). No obstante, puede ajustarse la resolución de trabajo en función de las necesidades, y una resolución mayor siempre lleva asociado un tiempo de proceso mayor, ya que el volumen de información generado es mayor, así como el detalle que ha de registrarse.

Para cada documento existe una resolución óptima de escaneo en función de las características de este. Esta resolución debe elegirse teniendo en cuenta que el volumen de datos aumenta a medida que empleamos una mayor resolución, buscando un equilibrio adecuado entre ese volumen de datos resultante y la cantidad de información que recogemos. Asimismo, se ha considerar igualmente el tiempo necesario para escanear el documento, tal como se dijo anteriormente.

El parámetro base es la relación entre el tamaño de píxel (la longitud real que representa el ancho de un píxel sobre el terreno) y el tamaño de este píxel en la imagen (lo que mide esa longitud en el mapa). Las resoluciones habituales utilizadas para el escaneo de fotografías aéreas varían entre los 100 dpi ($\approx 250 \mu m$ cada punto sobre el mapa) y 2500 dpi (($\approx 10 \mu m$ cada punto sobre el mapa) [ Welch1996Onward ]. Por ejemplo para una resolución de 300 dpi, se tiene:

\begin{eqnarray} 300\; \mathrm{dpi} &=& \frac{300\;\mathrm{filas}}{2,54\; \mathrm{cm\; de\; mapa}} \nonumber\\ &=& 118,11\; \mathrm{filas/cm} \end{eqnarray}

En un centímetro cuadrado se tienen $118,11^2\approx13950$ puntos.

Si trabajamos, por ejemplo, con un mapa a una escala 1:50000, tenemos que la distancia real que representa el alto de cada fila es

\begin{equation} \frac{50000\; \mathrm{cm}}{118,11 \mathrm{filas}} = 4,24\; \mathrm{metros}/\mathrm{fila} \end{equation}

Es decir, cada píxel del mapa representa sobre el terreno un cuadrado de lado 4,24 metros.

Con cálculos similares podemos calcular para cada posible resolución el espacio real que representa, y elegir esta en función del detalle que necesitemos. Como regla general, debe tratar de trabajarse con una resolución que garantice que los objetos que resultan de interés de la imagen (por ejemplo, aquellos que van a digitalizarse después manualmente mediante una digitalización en pantalla con esa imagen) sean distinguibles con claridad.

En el caso de imágenes aéreas, la resolución de estas medida en pares de líneas por milímetro puede ser superior y permitir escanear a mayor resolución, aunque ello no es estrictamente necesario, y debe una vez más buscarse el equilibrio entre las ventajas y los inconvenientes de trabajar con una resolución más elevada.

En [ Welch1996Onward ] puede encontrarse información más detallada sobre la elección de una resolución óptima en el escaneo de imágenes aéreas.

Para el caso de mapas, no deben olvidarse los fundamentos cartográficos en base a los cuales se ha creado dicho mapa, que fueron detallados en el capítulo Fundamentos_cartograficos . Trabajar con una resolución más elevada no hace necesariamente que estemos incorporando más información, ya que esta puede no existir en el mapa original. Tendríamos un volumen de datos más elevado que el necesario para recoger toda la información del mapa.

Una diferencia fundamental entre escanear una hoja de un mapa y una imagen aérea es la diferencia de tamaño. Los mapas suelen tener tamaños mucho mayores que los de un escáner común, lo cual obliga a utilizar equipos de gran formato o, en la mayoría de los casos, contratar servicios de escaneo especializados, ya que estos equipos tiene un coste muy elevado.

Una solución distinta en el caso de mapas de gran tamaño es el escaneo de la hoja por partes y la posterior unión de las distintas partes. En este caso, es necesario asegurarse de que las partes son coherentes entre sí en lo que respecta a las condiciones bajo las que se realiza el escaneo, así como garantizar que las distintas partes se solapan para que no existan zonas sin datos en la imagen resultante. Además de esto, el solape facilita la localización de puntos comunes presentes entre partes contiguas, lo que ayuda en la composición de todas las partes para dar lugar al resultado global.

Otra diferencia entre trabajar con mapas e imágenes es la relativa al tipo de soporte. En el caso de mapas, el documento original se encuentra siempre impreso en papel. En el caso de fotografías aéreas puede presentarse tanto en papel como en diapositiva. Los escáneres están preparados para capturar la imagen tanto por reflexión (cuando se trabaja con un documento en papel) como por transmisión (cuando se trabaja con una diapositiva o cualquier otro soporte transparente), por lo que ambos tipos de fuentes pueden utilizarse indistintamente para generar una imagen digital, siendo esta diferencia menos relevante a efectos prácticos.

Por último, un aspecto clave en el escaneo de cartografía es la asignación de coordenadas a la capa resultante. Cuando utilizamos una tableta digitalizadora, debemos definir los puntos de control , que son los que establecen la referencia geográfica en base a la cual se calculan las coordenadas de los elementos que digitalizamos con el cursor. En el caso de escanear un mapa o una fotografía aérea, esa información está presente en el mapa en forma de marcas fiduciales o una retícula con coordenadas impresas, pero no se digitaliza como tal.

Si simplemente escaneamos el documento, se digitaliza la marca fiducial o la etiqueta que indica las coordenadas, pero tan solo como una imagen, y no como un dato aprovechable por el SIG para otras tareas. En esta imagen, un operador puede ver las coordenadas de un punto, pero si realizamos un proceso de digitalización vectorial en pantalla utilizando esa imagen, el SIG no tiene forma de calcular las coordenadas de los puntos que introducimos, pues carece de una referencia.

Para que una imagen procedente del escaneo de un documento impreso tenga plena validez y utilidad dentro de un SIG, es necesario añadirle información sobre la localización en el espacio del área representada en dicho documento. Este proceso se denomina georreferenciación .

La georreferenciación es un proceso tratado dentro de este libro en el apartado Rectificacion , puesto que no es puramente un proceso que forme parte de la adquisición de datos, sino un tratamiento a aplicar una vez que el proceso de digitalización ha sido realizado.

Vectorización automática

La vectorización automática es un proceso completamente distinto al de escaneo, y no es tan habitual en el ámbito de los SIG, principalmente debido a la mayor dificultad que entraña. Como resultado de este proceso, se obtiene una capa vectorial, pero, a diferencia de la vectorización manual, el operario no tiene que señalar los puntos de estas o trazar los contornos de las entidades.

Existen distintos procesos de vectorización automática, entre los que distinguiremos los siguientes:

En el primer caso, partimos de una imagen digital, que puede proceder o no de un proceso de escaneo. Sobre esta imagen se aplican algoritmos que identifican de modo automático las distintas entidades y crean los correspondientes objetos vectoriales.

El mayor inconveniente de esta técnica es que requiere que la imagen tenga unas condiciones especiales, pues de otro modo es difícil que esos algoritmos de identificación den resultados correctos. En ocasiones pueden crear entidades donde estas no existen o bien ignorar algunas por no ser capaces de detectarlas, así como crear entidades de forma y tamaño incorrectos. El trabajo de digitalización por parte del operario desaparece, pero es necesario un trabajo posterior de comprobación y corrección, que en función de las características de la imagen de partida puede ser importante.

Esta forma de vectorización automática es, al igual que la georreferenciación, un proceso a llevar a cabo sobre la imagen. Por esta razón, no se trata en este capítulo sino en el capítulo Procesado_imagenes dedicado al tratamiento de imágenes. Igualmente, el capítulo Creacion_capas_vectoriales , dedicado a la conversión entre capas ráster y vectoriales, incluye información acerca de procesos de vectorización automática, con particular atención a la conversión de un mapa escaneado en una capa vectorial de curvas de nivel.

La otra forma de digitalización es totalmente diferente y no se realiza en el ordenador, sino en un periférico externo a este, tal como una tableta digitalizadora o un escáner. El dispositivo en cuestión es más similar a un escáner que a una tableta digitalizadora, pero su comportamiento imita al de un operario trabajando sobre esta última.

Para ello, dispone de sensores luminosos y de láser que buscan las líneas en la imagen y las recorren, almacenando las coordenadas por las que han pasado en el recorrido. De este modo, se genera un resultado vectorial en lugar de uno ráster. El barrido de la imagen no es sistemático como el de un escáner, sino que «sigue» las líneas que están presentes en la imagen, y que son las que van a digitalizarse.

Al igual que con la digitalización automática, las buenas condiciones de la imagen de partida son básicas para obtener resultados de calidad. En un mapa es habitual que las líneas se vean interrumpidas por etiquetas (por ejemplo, para indicar la altura de una curva de nivel), o bien están dibujadas en trazo punteado, o bien puede aparecer alguna mancha sobre ellas. Este tipo de elementos dificultan o incluso imposibilitan el correcto funcionamiento del dispositivo, ya que este no puede seguir las líneas adecuadamente, lo cual da lugar a resultados de poca calidad.

Digitalización a partir de coordenadas. Geocodificación

Junto a las formas de digitalización que acabamos de ver, existe una forma aún más básica: la digitalización directa de valores y coordenadas, sin necesidad alguna de dispositivos especializados o elementos gráficos. En este tipo de digitalización no existe un mapa o documento cartográfico, sino simplemente una serie de datos espaciales expresados de forma alfanumérica que son susceptibles de convertirse en una capa y emplearse así dentro de un SIG.

Este proceso se conoce como geocodificación [ Davis2003Geoinfo ] e implica la asignación de coordenadas a puntos de interés, los cuales pueden ser de naturaleza muy variada. Asimismo, la procedencia de estos datos también puede ser diversa, y en general muchas formas de trabajo en campo dan lugar a datos que, aún no estando originalmente dispuestos sobre mapas, sí que pueden emplearse como base para la creación de capas. Algunos ejemplos son los siguientes:

Todos estos datos presentan en común que, recogidos de un modo u otro, conforman un conjunto de coordenadas puntuales que habitualmente sirven para el trabajo fuera de un SIG y no llegan a incorporarse a este, o que al menos no están dispuestos en la forma habitual de capa con la que trabajamos en un SIG.

En el caso de encontrarse en formato analógico, estos datos pueden digitalizarse mediante la simple introducción manual de coordenadas a través del teclado o bien mediante algún sistema más específico como el escaneo del documento y el empleo de algún software de reconocimiento de caracteres (OCR).

En el caso de encontrarse ya en formato digital, estos datos pueden presentarse como tablas en una hoja de cálculo, datos asociados a otro dato de cualquier tipo (como en el caso del geotagging ) o incluso simples archivo de texto. Muchos SIG incorporan métodos para leer estos archivos y después utilizar las coordenadas que contienen con el fin de crear una nueva capa, en general de puntos.

Un caso particular de la creación de puntos con coordenadas es la asignación de direcciones dentro de núcleos urbanos, tales como direcciones postales o códigos postales. Estas direcciones son de especial importancia en el desarrollo de actividades dentro del entorno urbano, ya que es más habitual referirse al emplazamiento de un determinado elemento (por ejemplo, un comercio) en términos de su dirección postal que en coordenadas espaciales tales como las que se manejan en un SIG. La geocodificación de estos elementos implica establecer una coordenada geográfica correspondiente a cada dirección postal.

Fotogrametría

Un caso particular de digitalización lo encontramos en la fotogrametría . En la definición clásica de [ Bonneval1972Eyrolles ], esta se define como la técnica para estudiar y definir con precisión la forma, dimensiones y posición en el espacio de un objeto cualquiera, utilizando medidas realizadas sobre una o varias fotografías. Esta definición no limita el alcance de la fotogrametría al ámbito de lo geográfico, y se utilizan sus principios en campos tales como la arqueología o la documentación de obras y monumentos, empleando para ello fotografías no aéreas, sino terrestres. Es la denominada fotogrametría terrestre . No obstante, la rama de interés para este libro es la de la fotogrametría aérea , cuya base de trabajo tradicional son las fotografías aéreas.

Esta clase de fotogrametría viene, pues, ligada íntimamente a los inicios de la teledetección, cuando los sensores modernos que hemos estudiado antes en este mismo capítulo no se habían desarrollado, y los existentes (básicamente cámaras fotográficas especialmente adaptadas a la toma de fotografías de tipo cartográfico) se montaban a bordo de aviones.

Históricamente, el término teledetección aparece con posterioridad, una vez que las técnicas de toma de imágenes avanzan y dan un gran salto cualitativo con la aparición de las imágenes satelitales y los sensores electro--ópticos que ya conocemos. Algunos autores engloban la fotogrametría dentro de la teledetección, mientras que otros se refieren con el termino teledetección a las tecnologías más actuales y las consideran disciplinas distintas aunque muy relacionadas. Junto con la fotogrametria aérea aparece la fotogrametría espacial, encargada de operar sobre imágenes de satélite bajo unos principios similares.

Dentro de este libro entenderemos por teledetección todo el conjunto de técnicas y operaciones de obtención de imágenes (que ya conocemos), así como las de tratamiento y posterior extracción de resultados a partir de estas (que iremos viendo en otros capítulos), obteniéndose estos resultados sin necesidad de establecer contactos con los objetos a estudiar, como corresponde a la definición dada en el apartado correspondiente. Dentro de ese conjunto de operaciones que nos llevan desde las imágenes a los resultados, entendemos como parte de la fotogrametría aquellas que tienen relación con la acepción original del término, es decir, aquellas que derivan de la medición de elementos.

La denominación, no obstante, no es tan relevante, y sí lo es sin embargo comprender la importancia de ambas, particularmente dentro de este capítulo como técnicas de producción cartográfica.

En lo que respecta a la fotogrametría, el proceso de restitución es el que interesa principalmente para el contenido de este capítulo, pues ofrece como resultado nuevas capas de datos tanto bidimensionales como, especialmente, tridimensionales. Así, pueden obtenerse tanto las capas vectoriales digitalizadas que veíamos por ejemplo en el apartado Digitalizacion_manual , como directamente Modelos Digitales de Elevaciones a partir de imágenes.

En realidad, los procesos de digitalización que ya hemos visto son también parte de la fotogrametría digital, y es habitual encontrarlos en los textos al uso sobre esta. También lo son los procesos de rectificación que se han citado en su momento, y que analizaremos en detalle más adelante en el capítulo Procesado_imagenes . Como puedes ver, todas las técnicas están sumamente relacionadas, y las divisiones que hacemos pueden ser unas u otras en función del enfoque que se dé para su estudio

Todas estas operaciones se llevan a cabo con una estación fotogramétrica , que comprende las herramientas necesarias para llevar estas a cabo (algunas, como los escáneres, ya las conocemos). En función del tipo de herramientas y técnicas distinguimos los siguientes tipos de fotogrametría, que representan a su vez la evolución de la disciplina.

El interés principal desde el punto de vista de los SIG es en la fotogrametría digital, ya que existe una gran relación entre estos y las aplicaciones empleadas en dicho tipo de fotogrametría. Es en esta en la que pueden englobarse los procesos de digitalización que ya hemos visto, y no en las restantes formas más antiguas de fotogrametría. En la fotogrametría digital, la estación fotogramétrica se articula sobre un ordenador en el cual se llevan a cabo los distintos procesos, no existiendo operaciones externas al mismo. Así, las imágenes se manejan dentro del ordenador y se visualizan a través de él, y la generación de nueva cartografía también se produce de forma digital.

Esto no es muy diferente de lo que veíamos en el caso de la digitalización en pantalla algunas paginas atrás, pero el trabajo fotogramétrico engloba otros procesos además de los que ya hemos visto. Uno de ellos es la generación directa de cartografía de elevaciones, para la cual se requiere que el equipo empleado disponga de algunos elementos adicionales. Es decir, la estación fotogramétrica digital es más compleja que un simple ordenador, un dispositivo de marcado (un ratón) y un SIG, que eran los requisitos básicos para digitalizar en pantalla una imagen.

Una estación fotogramétrica digital ha de tener, por ejemplo, capacidad para generar visualizaciones con sensación de profundidad a partir de pares de imágenes, que son las que permiten la posterior digitalización de los elementos con sus elevaciones correspondientes. Los principios en los que se basan este tipo de visualizaciones son los mismos empleados en la fotogrametría no digital, fundamentados en la visión estereoscópica.

La visión tridimensional en el ser humano se basa en el hecho de que la imagen que ve cada ojo es ligeramente distinta a la del otro, lo cual permite al cerebro extraer información volumétrica y generar una verdadera visión tridimensional. En el caso de la fotogrametría, si en lugar de utilizar una única imagen aérea o de satélite empleamos dos, cada una de ellas tomada desde un punto distinto, resulta posible recrear el efecto que ambas imágenes tendrían para la reconstrucción tridimensional de la escena, y «engañar» al cerebro del observador para que este pueda observar la escena con volumen y profundidad.

Cuando se emplean imágenes de satélite, los pares se pueden obtener con aquellas plataformas y sensores que permiten variar el ángulo de visión, de modo que en la misma pasada del satélite se toman imágenes de una zona desde distintos puntos. El sensor toma una imagen cenital y posteriormente, una vez ha superado la zona en su recorrido, toma una segunda imagen mirando «hacia atrás», la cual, combinada con la primera, permite el levantamiento del terreno y la realización de los procesos fotogramétricos (Figura \ref{Fig:Par_estereo_satelite}).

Toma de pares de imágenes estereosópicas desde un satélite, mediante variación del ángulo de visión.
$$\label{Fig:Par_estereo_satelite}$$

El sensor HRS que montan los satélites SPOT, o el sensor ASTER, ambos son capaces de tomar este tipo de imágenes.

Las formas de conseguir que el observador perciba la profundidad de la escena a partir de las imágenes son variadas, y van desde el uso de sencillos instrumentos ópticos o la generación de anaglifos (imágenes que combinan la información del par estereoscópico y que se han de observar con gafas con filtros distintos para cada ojo), hasta otras técnicas más complejas y elaboradas. En la fotogrametría no digital, el empleo de restituidores analíticos ha sido la metodología habitual. En la fotogrametría digital, este puede sustituirse por un equipo con dos monitores, cada uno de los cuales muestra una de las imágenes del par, y se emplean gafas especiales que son las encargadas de generar en el observador la sensación de profundidad .

Además de lo anterior, la estación fotogramétrica digital dispone de periféricos específicos tales como ratones 3D, o manivelas como las que presentan los restituidores analíticos, facilitando así la adaptación de los operarios a este tipo de estación.

Por último el software que implementan, y que es el encargado de representar las imágenes y acoger el proceso de digitalización, suele ser específico, y es frecuente que se distribuya como parte de toda una estación fotogramétrica compuesta por los elementos reseñados anteriormente. Algunos SIG incorporan progresivamente capacidades adaptadas de este tipo de programas, pero por el momento la labor fotogramétrica queda reservada para este tipo de aplicaciones específicas, siendo el SIG tan solo un beneficiario directo de sus productos.

Calidad de la digitalización

Uno de los aspectos más importantes del proceso de digitalización es la calidad del resultado obtenido, que debe tratar de ser lo más cercana posible a la calidad original de la información que se digitaliza, es decir, del mapa o imagen original. Independientemente de la precisión del equipo utilizado o la habilidad y experiencia del operario, la digitalización no es por completo perfecta, conteniendo siempre ciertas deficiencias y errores.

Además de los errores que puedan incorporarse en las distintas fases del proceso de digitalización (sea este del tipo que sea), hay que considerar que las fuentes originales a digitalizar también pueden incluir los suyos propios. Así, el proceso de escaneado puede incorporar distorsiones geométricas, pero es posible que el mapa o fotografía aérea de partida también presente alguna distorsión como consecuencia de su deterioro, más patente cuanto más antigua sea esta.

La información contenida en el documento cartográfico puede también contener elementos problemáticos de cara a obtener un producto de calidad, que pueden ir desde líneas borradas total o parcialmente a manchas en el propio mapa derivadas de su uso habitual [ Heywood1998Longman ].

Dentro de los errores que aparecen como consecuencia de la digitalización en sí, un tipo importante de ellos son las discrepancias y coincidencias imperfectas entre las distintas entidades, tal como las que se muestran en la figura \ref{Fig:Imprecisiones_digitalizacion}

Errores derivados del proceso de digitalización. a) Versión correcta, con nodos coincidentes. b) y c) Versiones con errores que causan una falsa desconexión entre las líneas.
$$\label{Fig:Imprecisiones_digitalizacion}$$

Estas imprecisiones son causantes de numerosos problemas, tales como la aparición de polígonos espúreos en las operaciones de solape entre capas vectoriales, que veremos en el capítulo Operaciones_geometricas .

Debido a esto, las capacidades de edición de los SIG incorporan funcionalidades que permiten evitar estos errores en el momento de la digitalización, ayudando al operario en su tarea y permitiéndole alcanzar una exactitud y precisión imposible de lograr sin estas funcionalidades. Entre ellas, es especialmente importante el establecimiento de tolerancias y ajuste automático en función de ellas (esto se conoce con el término ingles snapping ), que ayudan a garantizar la coincidencia entre los distintos vértices.

De este modo, polígonos adyacentes o líneas que se cortan en un punto dado lo hacen con total exactitud. Dichos polígonos comparten exactamente el mismo lado con las mismas coordenadas exactas, o se cruzan en el mismo e idéntico punto, y no únicamente pasan por un punto cercano (pero distinto) definido con la precisión con la que el operador haya podido ajustar ambas entidades visualmente. La coincidencia no es solo visual, sino numérica. La figura \ref{Fig:Snapping} muestra un ejemplo de la utilización de snapping en un proceso de digitalización.

Ajuste automático mediante tolerancia( snapping ). El nodo azul representa el nodo en edición. La tolerancia de enlace queda marcada por el circulo punteado. Puesto que el nodo rojo de la línea preexistente se encuentra dentro de esa tolerancia, al añadir el nuevo nodo (azul), este automáticamente se situará en las coordenadas del nodo rojo, garantizándose así la coincidencia.
$$\label{Fig:Snapping}$$

Mediante estas funcionalidades, el operador simplemente selecciona un punto, y el sistema digitalizador lo desplaza para que coincida con el punto existente más cercano, siempre que se encuentre a menos distancia que la tolerancia establecida de antemano.

El hecho de que exista una completa coincidencia es especialmente importante cuando la capa vectorial que se digitaliza contiene información topológica. La topología exige que la coincidencia sea correcta y defina perfectamente la relación entre las entidades. Para los ejemplos b) y c) de la figura \ref{Fig:Imprecisiones_digitalizacion}, las líneas no están conectadas ya que no existe coincidencia en el nodo. Si los puntos están suficientemente cercanos, puede «parecer» que son coincidentes, pero el SIG no los detectará como tales y no se podrá llevar a cabo ningún análisis topológico con esas líneas (por ejemplo, suponiendo que representan vías de comunicación y se quiere hacer un análisis de redes con ellas).

La digitalización de entidades en caso de querer recoger su topología debe obedecer una serie de reglas, a saber:

Todos los aspectos relativos a la calidad de datos, entre los cuales se incluyen los relacionados con los errores del proceso de digitalización, se tratan con mayor profundidad en el capítulo Calidad_datos .

GPS

Uno de los hitos en la aparición de nuevas fuentes de datos geográficos es la aparición de los Sistemas Globales de Navegación por Satélite (GNSS), que permiten la obtención de coordenadas geográficas de un modo inmediato, con las consecuencias que esto tiene para su uso en actividades como la elaboración de cartografía.

En esencia, un GNSS es un sistema que permite conocer en todo momento y en cualquier punto del globo la localización exacta de dicho punto con un margen de error del orden de unos pocos metros o menos. Para ello, se basan en el envío de señales entre un dispositivo situado en el punto concreto y una red de satélites, pudiendo establecerse la posición exacta mediante las características de dicha transmisión.

El ejemplo más extendido de un GNSS es el Sistema de Posicionamiento Global (Global Positioning System, o GPS), originalmente puesto en funcionamiento por el Departamento de Defensa de los Estados Unidos. Existen otros GNSS operativos tales como el GLONASS ruso, el COMPASS chino o el Galileo europeo)

Fundamentos del sistema GPS

El sistema GPS se divide en tres subsistemas o segmentos :

Los satélites del segmento espacial emiten una señal compleja cuyo contenido puede dividirse esencialmente en dos bloques de información:

Las señales para el cálculo de distancias (en la terminología GPS estas distancias se conocen como pseudodistancias ) se envían mediante una onda portadora conocida como L1, correspondiente a una frecuencia de 1575,42 MHz . El código P se envía además en una segunda portadora denominada L2, con una frecuencia de 1227,60 MHz.

El funcionamiento del sistema se basa en la triangulación de la posición mediante las señales procedentes de un cierto número de los satélites. Esta posición se calcula no únicamente en sus coordenadas x e y , sino también en z , es decir en elevación. El sistema GPS emplea como sistema geodésico de referencia el WGS84 [ WGS84 ]. La precisión en el cálculo de la elevación es menor que la correspondiente a las restantes coordenadas, aunque también es de utilidad y puede emplearse en aplicaciones que van desde levantamientos y replanteos a usos en tiempo real como el cálculo de elevación en vuelos [ Graas1991Navigation ].

La posición de los satélites es conocida en todo momento, y los propios satélites informan de ella a los receptores a través de los mensajes de navegación. En base a esas posiciones orbitales, el proceso de triangulación que se lleva a cabo en el sistema GPS no se basa en el trabajo con ángulos, sino con distancias (aunque es habitual hablar de triangulación, en realidad se trata de una trilateración ).

El cálculo de la distancia puede realizarse utilizando la información de las señales (los códigos C/A o P), o bien empleando las propias portadoras. El primer método es más sencillo y rápido, ya que no es necesario que el receptor «escuche» la señal durante un periodo prolongado de tiempo, lo cual sí es necesario en el segundo, como a continuación veremos.

En el caso de emplear la portadora, se mide el desfase entre esta y una señal generada por el receptor, lo cual permite calcular una parte de la distancia (la que es menor que la longitud de onda de la señal). La distancia total es igual a esta parte calculada más un numero entero de veces la longitud de onda. El valor de este numero entero es, no obstante, desconocido. Su cálculo se conoce como resolución de la ambigüedad (AR), y requiere escuchar la señal del satélite durante un cierto tiempo para recopilar datos suficientes que permitan el cálculo del valor antedicho.

Así, la resolución de la ambigüedad es la que hace necesario un tiempo de inicialización de la unidad, con objeto de conocer esa constante en el desfase. Si la unidad pierde contacto con el satélite, es necesario de nuevo proceder a la resolución de las ambigüedades, quedando el receptor inoperativo durante ese periodo de tiempo. Más detalles sobre la resolución de la ambigüedad en el sistema GPS puede encontrarse en [ Torrecillas1998Mapping ].

Puesto que la velocidad a la que la señal se desplaza es muy elevada, se requieren relojes muy precisos para poder medir con precisión los tiempos tan cortos que tarda dicha señal en recorrer la distancia entre satélite y receptor. A bordo de los satélites se montan relojes atómicos de muy alta precisión, pero las unidades receptoras no disponen de relojes tan precisos. Es por este motivo que, como veremos, han de introducirse correcciones y cálculos adicionales con el fin de obtener mayores precisiones en la medida del tiempo.

Si el receptor es capaz de establecer comunicación con tres satélites, dispone ya de información suficiente para conocer su posición $(x,y)$ como intersección de las esferas centradas en cada uno de dichos satélites y con radio la distancia existente entre este y el receptor. Con cuatro satélites se puede ya obtener la posición $(x,y,z)$.

Un número mayor de satélites (cuatro al menos) es necesario, no obstante, para eliminar las imprecisiones debidas a los distintos elementos implicados, y se emplean habitualmente modelos más complejos que utilizan los datos de múltiples satélites y efectúan correcciones en función de ellos. Las deficiencias de los relojes que emplean los receptores pueden corregirse mediante la utilización de nuevos satélites, que permiten calcular con exactitud el tiempo, variable de gran importancia en el proceso y sin la cual no se pueden obtener precisiones elevadas.

Los receptores actuales están preparados para trabajar con un número máximo de satélites habitualmente igual a 12, por lo que en todas circunstancias tratan de localizar el mayor número posible de satélites con objeto de lograr una mayor precisión.

El diseño de la red de satélites está pensado para garantizar que en cualquier punto de la superficie terrestre y en cualquier momento, un receptor puede localizar el número necesario de satélites para obtener con exactitud su precisión. La localización en la que se disponen los satélites con los que se establece comunicación no es irrelevante, ya que condiciona la precisión del posicionamiento, afectando a lo que se conoce como dilución de la precisión (DOP). Si los ángulos de los satélites son grandes, la precisión que se obtiene es mayor que si estos son menores (Figura \ref{Fig:DOP}).

Dilución de la precisión. La geometría de los satélites en el ejemplo a) da una mayor precisión en el cálculo de la posición del receptor que la del ejemplo b).
$$\label{Fig:DOP}$$

Junto a esto, existen otras muchas fuentes de error en el sistema GPS, cada una de las cuales afecta a la precisión del mismo. Entre ellas, cabe destacar las siguientes:

En conjunto, todos estos errores suman desviaciones apreciables, que sin embargo pueden corregirse con la aplicación de técnicas adicionales, por ejemplo incorporando información adicional procedente de otros receptores. Una de estas técnicas es el denominado GPS diferencial , pensado en origen para eliminar el error de la disponibilidad selectiva, aunque también eficaz para corregir una buena parte los restantes errores citados anteriormente.

Para la aplicación del GPS diferencial se requiere no solo un receptor único (aquel del cual se quiere calcular su posición), sino también otro receptor fijo de referencia cuyas coordenadas se conocen con gran precisión. Este receptor fijo es, a su vez, un receptor de alta precisión y, además de calcular su propia posición, emite información que las unidades receptoras pueden aprovechar para corregir sus mediciones. El receptor móvil, lógicamente, tiene que soportar este tipo de correcciones, para poder hacer uso de la señal de la estación de referencia.

Los datos que permiten llevar a cabo la corrección puede obtenerse en el receptor mediante radio, descargarse por Internet mediante una conexión inalámbrica, o bien utilizar una constelación de satélites adicional dedicada a elaborar y servir este tipo de datos.

La corrección puede realizarse fuera del propio receptor, a posteriori, utilizando software adecuado y los mismos datos de corrección que si se realiza la corrección en tiempo real.

El fundamento de este sistema es que los errores que afectan al receptor móvil también afectan al de referencia. La magnitud del error que afecta al receptor de referencia puede conocerse, ya que se conoce la coordenada exacta de este, y en base a eso puede eliminarse el error que afecta al receptor móvil, asumiendo que ambos errores son de similar índole.

En la actualidad, aplicando estas técnicas de corrección diferencial, un GPS puede obtener precisiones del orden de 2 metros en latitud y longitud, y 3 en altitud. Sin corrección diferencial, esta precisión es de unos 10--20 metros.

La figura \ref{Fig:DGPS} muestra un esquema del funcionamiento del GPS diferencial.

Esquema de funcionamiento del GPS diferencial
$$\label{Fig:DGPS}$$

Tipos de receptores

La precisión del sistema global GPS depende del tipo de receptor GPS (o, en el lenguaje común, GPS a secas) que se emplee, obteniéndose mayores precisiones con receptores más avanzados, siempre dentro de las posibilidades del propio sistema.

En función de sus características y de la forma en que operan, podemos distinguir los siguientes tipos de receptores GPS:

A día de hoy, es habitual que incluso los GPS de menor coste tengan múltiples canales, permitiendo la conexión continua con un número elevado de satélites.

Como hemos visto, las señales emitidas por los satélites contienen dos códigos (C/A y P) que se transmiten modulados sobre dos ondas portadoras distintas (L1 y L2). No todos los receptores GPS son capaces de utilizar estos elementos de las señales, y en función de ello podemos también clasificarlos.

Los más sencillos únicamente basan sus cálculos en el código C/A, mientras que los más avanzados y complejos son capaces de utilizar el código P (encriptado, por lo que es necesaria una clave correspondiente), así como las portadoras para un cálculo más preciso, según se explicó en un punto anterior.

Por último, y teniendo en cuenta que el sistema GPS mide las coordenadas $(x,y,z)$ y el tiempo, y que existen diferentes precisiones en función de la tecnología que los receptores utilicen, encontramos una gran variedad de unidades receptoras, según estas se adapten para uno u otro uso principal. En líneas muy generales, los siguientes son algunos de los tipos principales en función de dicho uso.

Receptor GPS de bajo coste para uso general (a) y receptor GPS de alta precisión con antena externa (b)
$$\label{Fig:gps_1}$$

Operaciones con la unidad GPS

La forma en que utilizamos el receptor GPS para recoger los datos que emplearemos posteriormente en el SIG puede ser muy variada en función del tipo de dato, la precisión necesaria o las características del propio receptor.

Los receptores de menor coste están generalmente pensados para ser de utilidad directamente en el campo, por ejemplo para localizar un punto concreto y conocer la dirección en la que hay que moverse para llegar hasta él, pero tienen también capacidad para recoger coordenadas. Estas capacidades son las que resultan de interés desde el punto de vista de un SIG, ya que las coordenadas recogidas serán después los datos que llevemos a este.

Por su parte, las unidades de mayor precisión están concebidas para tareas tales como levantamientos topográficos, donde la toma de datos es lo fundamental, pero también para otras tales como replanteos, donde se requiere situar un punto de coordenadas conocidas. Al igual que en el anterior, las actividades que pueden llevarse a cabo con estos GPS y que interesan desde el punto de vista del SIG son aquellas que van a recoger coordenadas, pues son las que generan datos y convierten al GPS en una fuente de ellos.

Las capacidades de recogida de datos en una unidad GPS de bajo coste permiten almacenar puntos o trazados completos, encontrándose el operario inmóvil o bien en movimiento a lo largo de dicho trazado. Es habitual utilizar los vocablos ingleses de la terminología GPS para denotar los distintos elementos que pueden recogerse, conociéndose a un punto de interés aislado como waypoint y un trazado como track . Una serie ordenada de waypoints se conoce como route (ruta).

En el trabajo con el receptor GPS, el operario se puede detener en un punto cualquiera y memorizar las coordenadas del mismo, añadiendo así un waypoint a la lista de los ya almacenados. Para crear un trazado, se suele disponer de funcionalidades de recogida automática de puntos, de tal modo que el receptor memoriza estos a intervalos fijos de tiempo. El operario simplemente ha de desplazarse por el trazado y dejar que el receptor haga su trabajo mientras tanto. Dependiendo del tipo de dato que quiera obtenerse, la edición posterior en gabinete habrá de ser más o menos intensa.

Esta edición no está relacionada solo con la introducción de correcciones, sino con la interpretación de los distintos puntos recogidos. Por ejemplo, para registrar el trazado de una calle, el operario puede recorrerla, pero es probable que no lo haga de forma perfectamente rectilínea. El trabajo posterior con el conjunto de puntos debe resultar en la obtención de una línea recta a partir de estos, y ello requiere la interpretación de los datos disponibles.

Pese a que la precisión de estas unidades es limitada y no permiten técnicas avanzadas de corrección (tal precisión no es necesarias para las actividades tales como senderismo o navegación para las que han sido diseñados estos receptores), los GPS de uso cotidiano pueden ser una fuente de datos de primer orden para la recogida de datos. Un ejemplo significativo de ello es el proyecto OpenStreetMap, un proyecto colaborativo para crear mapas libres cuya principal fuente de datos son unidades GPS sencillas. Este proyecto es uno de los muchos que existen actualmente de este tipo, los cuales se engloban dentro de la idea de Información Geográfica Voluntaria o Participativa , sobre la que hablaremos algo más adelante en el apartado VGI .

Para trabajos de mayor precisión tales como levantamientos topográficos, estos receptores no son, sin embargo, suficientes. El uso de receptores más precisos y de técnicas avanzadas es necesario para obtener precisiones mayores, que pueden ser incluso milimétricas.

Estos receptores pueden emplearse individualmente del mismo modo que se hace con un GPS de bajo coste, y registrar puntos de forma similar. La verdadera potencia, no obstante, se obtiene cuando se realizan mediciones con la ayuda de una o varias unidades adicionales, las cuales aportan valores de referencia que permiten aumentar la precisión.

Entre el receptor móvil y el de referencia se establece una línea base , y en el cálculo de la posición lo que se calcula es el vector $(x, y, z)$ que une a ambas. Se trata pues, de una medición relativa, ya que expresa la posición del receptor móvil a partir de la del receptor de referencia. Puesto que la posición de este último se conoce con gran precisión y ese vector también se calcula con precisión, la posición buscada que se obtiene es altamente precisa.

La principal ventaja con respecto a métodos topográficos clásicos es que no es necesario que haya visibilidad entre los dos receptores. De esta forma, puede utilizarse una estación de referencia aunque no sea visible desde un punto cuyas coordenadas queremos medir, y las líneas base pueden ser de mayor longitud.

Otras ventajas también destacables son el hecho de que puede obtenerse una productividad mucho mayor, ya que una única unidad de referencia puede ser utilizada por varias unidades móviles.

El número de técnicas existentes en la actualidad para realizar este tipo de mediciones (ya sea con uno o con varios receptores) es variada. El hecho de que se busquen mediciones precisas hace que se realicen mediciones utilizando la fase de la portadora, que como vimos implica una mayor necesidad de tiempo para registrar correctamente una posición. En función de las características de la línea base y los requerimientos concretos del trabajo, serán unas u otras las más adecuadas para cada caso.

La diferencia principal entre estas técnicas es el tiempo necesario para la recogida de un punto. En general, un mayor tiempo equivale a una mayor precisión. Entre las técnicas habituales, cabe citar las siguientes:

Para profundizar más al respecto, en [ Asenjo1997UPV ] puede encontrarse información sobre la realización de levantamientos con GPS.

En base a los ejemplos anteriores, y para concluir esta parte, podemos dar una clasificación de las operaciones con un receptor GPS en función de tres criterios básicos: el número de unidades que se emplean simultáneamente, el movimiento (o ausencia de él) del receptor y el momento en el que se obtiene el dato ya listo para su utilización posterior.

Según el número de unidades, tenemos:

Atendiendo al movimiento del receptor encontramos:

Por último, en función de la obtención de datos, distinguimos:

Integración de GPS y SIG

La utilidad de un GPS como fuente de datos para el trabajo en un SIG es innegable. Multitud de trabajos que requieren la toma de datos en campo y la medición de coordenadas pueden efectuarse ventajosamente con equipos GPS, y la información derivada de ese uso puede ser posteriormente incorporada a un SIG.

EL GPS puede emplearse como una fuente de datos estática (se utiliza como herramienta para la creación de una capa de información geográfica y esta después se emplea en el SIG de la forma habitual), o bien para la obtención de datos en tiempo real. Los SIG sobre dispositivos móviles (véase el apartado SIG_Moviles ) pueden aprovechar los receptores GPS que estos dispositivos habitualmente incorporan, y alimentarse con los datos de dichos receptores en tiempo real.

Un caso particular de esto son los cada día más populares navegadores GPS. Estos dispositivos aúnan el receptor GPS y una aplicación de tipo SIG que presenta un visor y permite ejecutar un número reducido de procesos, en concreto los de cálculo de rutas óptimas entre dos puntos a través de una red de comunicación (apartado Rutas_optimas ). Uno de los puntos (el de destino) es fijado por el usuario, mientras que el punto de origen es el punto actual en que se encuentra el dispositivo, que se obtiene a partir del GPS.

Como herramientas estáticas, el trabajo en campo con un GPS genera un conjunto de puntos o de trazados, que pueden fácilmente transferirse al ordenador para poder trabajar con ellos. Este trabajo puede realizarse dentro de un SIG, ya que, o bien este incluye la capacidad de importar los archivos generados por el GPS, o el software que acompaña a dicho GPS incorpora herramientas para ayudar en la comunicación entre SIG y GPS.

Además de la información posicional que deriva del sistema GPS, los receptores GPS pueden incorporar elementos que permitan la entrada de la componente temática asociada a las distintas entidades, es decir, los atributos.

Las funcionalidades incorporadas en el receptor suelen ser sencillas, pero permiten que desde este se pueda llevar a cabo todo el proceso de creación de la capa que posteriormente se empleará en el SIG. El trabajo de campo incluye de este modo tanto el registro y creación de las entidades como la edición de las propiedades no espaciales de estos. Existe, igualmente, la posibilidad de completar la fase de introducción de atributos en el SIG, durante el trabajo en gabinete, lo cual en ocasiones resulta más sencillo y práctico.

El volumen de trabajo que se requiere una vez que los datos han sido recogidos dependerá también de las necesidades de precisión que se presenten y del tipo de trabajo en que se enmarque dicha recogida de datos. La realización de correcciones y la edición avanzada de los datos no puede en ocasiones realizarse dentro de un SIG, ya que este no dispone de las herramientas necesarias para un tratamiento avanzado de los datos del GPS. El SIG está preparado para trabajar con las coordenadas que salen del GPS, pero este puede almacenar más datos (datos «en bruto»), que pueden procesarse en gabinete para la obtención de dichas coordenadas de forma más precisa. Para realizar esta tarea es necesario software especializado, y las funcionalidades del SIG se emplearán posteriormente, cuando ya se hayan verificado los datos del GPS y elaborado las capas correspondientes.

Para el lector interesado, una referencia completa sobre el uso de GPS de cara a la integración de los datos en un SIG es [ Steede2000ESRI ]. En el ya mencionado apartado SIG_Moviles veremos con detalle la tecnología de los SIG móviles, un ámbito en el que SIG y GPS se unen para conformar herramientas conjuntas.

Información Geográfica Voluntaria

Hemos mencionado ya que los dispositivos tales como receptores GPS de bajo coste pueden emplearse para recoger información geográfica y crear datos geográficos, y que cuando esto se une a los conceptos participativos de la denominada Web 2.0, surgen iniciativas de gran interés en las que el usuario de a pie, sin necesidad de una formación específica como cartógrafo, puede aportar sus datos para que otros los exploten posteriormente. Aunque no se trata de una fuente de datos como tal, y los elementos y dispositivos empleados ya los hemos visto a lo largo de este capítulo, el cambio que supone la inclusión de una filosofía acorde con las ideas de la Web 2.0 es tan notable que merece ser tratado por separado. No se trata de un cambio en la propia toma o preparación de datos, o de una tecnología nueva que se aplique a estos, sino de un cambio social y filosófico que redefine el propio concepto de la información geográfica en lo que a la creación del dato geográfico respecta, y cuyas consecuencias son ciertamente importantes, ya que abren el ámbito de la creación cartográfica a grupo nuevo de personas.

Se conoce como Información Geográfica Voluntaria o Participativa (en inglés Volunteered Geographical Information, VGI)[ Goodchild2007VGI ] al uso de Internet para crear, gestionar y difundir información geográfica aportada voluntariamente por usuarios de la propia red. El conjunto de herramientas y técnicas que emplean esos usuarios para aportar su información conforma lo que se ha dado en llamar neogeografía . La comparación entre proyectos de creación de VGI y la bien conocida Wikipedia, tal y como se comentó en otro punto anterior en este mismo capítulo, sirve perfectamente para ilustrar qué es lo que entendemos por VGI y neogeografía. }

En el caso particular de esta última, la neogeografía ha supuesto un profundo cambio en algunas de las ideas básicas de la cartografía, modificando asimismo la concepción tradicional de la información geográfica, sus características o el papel que esta venía desempeñando en muchos ámbitos (o incluso dándole un papel en campos donde con anterioridad el uso de información geográfica era escaso). Algunas de las ideas principales sobre la neogeografía son las siguientes:

En parte, estas ideas son también comunes a otros fenómenos basados en la Web 2.0, ya que todas se fundamentan en una mayor democratización de la información, sea esta geográfica o no. También se comparten algunos de los problemas o críticas que otros ámbitos han recibido al adoptar esquemas de producción similares. Por ejemplo, la calidad de la información es puesta en entredicho al promover la participación de todo tipo de personas, con independencia de su perfil. En el caso de la información geográfica, con una producción tradicionalmente como hemos dicho limitada a profesionales muy especializados, esto es especialmente relevante. Con la proliferación de la VGI, se da voz y poder sobre la información geográfica a individuos en gran medida sin formación, que no obtienen un beneficio tangible obvio y no pueden aportar garantías de veracidad o autoridad alguna. Esto puede plantear dudas lógicas acerca de la conveniencia de usar esa información.

No debe olvidarse, no obstante, que la Web 2.0 también tiene sus mecanismos de regulación, y que en otros casos ya se ha demostrado que, para otros tipos de información, la calidad y rigor de esta no es inferior a la creada con esquemas más clásicos y menos abiertos.

Por otra parte, el hecho de que se use equipo de bajo coste y los usuarios no sean técnicos especializados no es necesariamente un problema. Un usuario sin formación no está capacitado para efectuar un levantamiento topográfico preciso, pero sí para situarse delante de la puerta de una tienda y marcar su posición, añadiendo esta a un proyecto que catalogue los comercios de la zona y su localización. Este tipo de información geográfica, de puntos de interés muchas veces no recogidos en cartografía más especializada, constituye una gran parte de la VGI, y las metodologías e instrumental con que se crea son más que suficientes para otorgarle validez y precisión adecuada al uso del que posteriormente va a ser objeto.

Sobre cartografía de elevaciones

La cartografía de elevaciones es probablemente la de mayor importancia de entre todas las que se emplean de forma habitual dentro de cualquier proyecto SIG. Su relevancia deriva del hecho fundamental de que la practica totalidad de procesos que se estudian en un SIG tienen algún tipo de componente relacionada con el terreno y su relieve, y por tanto puede obtenerse amplia información sobre dichos procesos a partir de una capa con datos de elevación.

Dedicaremos en este libro un capítulo entero, el Geomorfometria , al conjunto de operaciones de análisis basadas en el MDE, que van desde el simple cálculo de pendientes hasta la extracción de parámetros más complejos. Asimismo, gran número de otras formulaciones que veremos en la parte dedicada a procesos tienen su principal aplicación sobre datos de elevación, en particular los métodos de interpolación que veremos en el capítulo Creacion_capas_raster , y que nos permitirán crear cartografía de elevaciones en formato ráster. Este es, como veremos, el formato preferido para el análisis de la cartografía de elevaciones, ya que ofrece un mayor abanico de posibilidades frente a otros.

Aunque el formato ráster es el más indicado para llevar a cabo los análisis correspondientes, la cartografía de elevaciones puede crearse originalmente con muy diversas características. De igual modo, y debido también a la gran importancia de este tipo de capas, su origen puede ser muy variado, ya que son muchas las técnicas distintas que existen para su creación. Es de interés, por tanto, exponer en este capítulo sobre fuentes de datos algunas de las ideas principales relativas a la creación de capas de elevaciones, las características de estas o las ideas fundamentales que residen tras las metodologías más importantes. Posteriormente, esto nos ayudará a entender mejor las restantes formulaciones y conceptos relativos al manejo y análisis de este tipo de cartografía, abundantes en este libro como ya se ha dicho.

A modo de resumen, he aquí una lista de metodologías a partir de las cuales puede obtenerse cartografía de elevaciones, gran parte de las cuales han sido tratadas con detalle antes en este mismo capítulo.

A la hora de plantear un proyecto SIG, debe elegirse entre estas fuentes, tanto si se desea adquirir la cartografía ya elaborada como si se desea crearla a partir de otras fuentes. La variedad de opciones existentes es grande, y cada una de ellas tiene sus características peculiares. Para saber más al respecto, algunas referencias donde puede encontrarse una comparación entre las metodologías anteriores son [ Nikolakopoulos2006IJRS ], [ Mercer1999ISPRS ] y [ Mercer2001PW ].

Formatos de archivo

Conocer las distintas fuentes de datos es importante para elaborar una base de datos geográfica que permita obtener los mejores resultados posibles, pero también lo es el conocer la forma en que esos datos pueden guardarse y transmitirse. Los datos geográficos se van a almacenar en archivos, y existen muchos formatos de archivo distintos para recoger un mismo conjunto de datos.

Estos archivos son la materialización de los modelos de almacenamiento que veíamos en el apartado Modelos_almacenamiento , y su existencia obedece a distintas razones. Pueden haber sido definidos por alguna casa comercial para ser utilizados en su software, por un colectivo, o bien pueden ser estándares internacionales definidos para tratar de homogeneizar la forma en que se presentan los datos dentro de un determinado ámbito de trabajo.

Datos de una misma procedencia pueden presentarse de forma distinta si se emplean diferentes formatos de archivo. Las circunstancias por las cuales se opta por uno u otro formato pueden basarse únicamente en el hecho de que el software empleado soporte o no dicho formato, pero deberían fundamentarse en las propias características del formato y lo adecuadas que estas son para recoger la información con la que trabajamos.

La existencia de muchos formatos de archivo dificulta el trabajo con los datos en un SIG, principalmente porque ningún SIG implementa la capacidad de poder «leer» todos los formatos existentes. La interoperabilidad y la comunicación entre distintos SIG, o incluso entre un SIG y otras aplicaciones (bases de datos, aplicaciones para manejo de imágenes, aplicaciones CAD) no es completa, y el aprovechamiento de todos los datos disponibles dentro de un proyecto requiere normalmente tiempo para la gestión adecuada de datos en formatos variados.

Un problema más serio, no obstante, es el desconocimiento por parte de los usuarios de las implicaciones que tiene el uso de uno u otro formato, ya que en ocasiones no permiten aprovechar de modo pleno los datos de que se dispone. Por ejemplo, dentro de un SIG es habitual emplear datos procedentes de CAD. Los datos en un CAD se almacenan en formatos de datos definidos por esas aplicaciones CAD, los cuales han sido definidos para satisfacer las necesidades del ámbito de trabajo en el que se han desarrollado (el diseño asistido por ordenador). Aunque los SIG pueden leer esos formatos de archivo y se encuentra información muy valiosa almacenada en ellos, no son ideales para el manejo de capas de datos SIG (en este caso, capas vectoriales), y es importante conocer este hecho.

La existencia de librerías que actúan a modo de interpretes facilita el desarrollo de aplicaciones SIG con capacidades de lectura y escritura en muchos formatos distintos, pero aún así se requiere un cierto grado de comprensión de estos por parte del usuario.

Debemos pensar asimismo que los formatos de archivo no solo se emplean en un proyecto SIG para los datos de entrada, sino también para almacenar los resultados que se generan a lo largo de ese proyecto. Estos datos serán utilizados en el propio SIG en otras ocasiones posteriores, o bien en otros programas. De este modo, tomamos datos que pueden provenir de aplicaciones y fuentes diversas, pero también «damos» datos a esas aplicaciones, por lo que la comunicación es bidireccional. Puesto que es a través de archivos como dicha comunicación se produce, y estos tienen que tener un formato dado, el conocimiento de estos formatos mejora tanto esa comunicación como la potencialidad de nuestros datos para todo tipo de uso, ya sea dentro o fuera de un SIG.

En esta sección no se pretende describir todos los formatos existentes, ya que son demasiados y ello no tendría sentido. Se describirán solo los más populares (que no siempre han de ser necesariamente los mejores) para que el lector obtenga un conocimiento general de cómo se van a presentar sus datos, y a través de estos formatos se describirán los principales enfoques existentes, que son los que realmente ha de conocer un usuario de SIG para saber discernir si un formato es o no adecuado para sus datos y las operaciones que quiere aplicar sobre ellos.

Junto con estos formatos de archivo, en el capítulo Estandares se presentan los estándares de datos, que también se emplean para el intercambio y almacenamiento de datos SIG, y que presentan una relación estrecha con el contenido de esta sección. El capitulo Bases_datos , que veremos dentro de esta misma parte, también guarda relación con este apartado, pues estudia las diferentes formas en que los SIG han solucionado a lo largo del tiempo el acceso a los datos, incluyendo entre ellas el acceso directo a archivos.

Formatos para datos ráster

Los formatos de archivo para datos ráster son muy abundantes, existiendo numerosas alternativas con diferencias en ocasiones notables entre sí. Debido a que uno de los datos ráster más habituales en un SIG son las imágenes, a los formatos de datos específicos para datos ráster hay que sumar aquellos ya existentes para el almacenamiento de imágenes, que son de por sí muy variados. Estos formatos, adaptados a la naturaleza particular de las imágenes de un SIG, pueden emplearse para almacenar datos ráster y son de hecho de uso habitual en el ámbito de los Sistemas de Información Geográfica.

Formatos para imágenes

Las imágenes son un tipo de dato muy habitual en un SIG y se corresponden con el modelo de datos ráster. Por ello, los formatos de archivo empleados para el almacenamiento de imágenes digitales se emplean también para las imágenes particulares que utilizamos en un SIG (por ejemplo, fotografías aéreas o mapas escaneados, según vimos antes en este mismo capítulo), e incluso para otros datos ráster que no son imágenes como tales, como por ejemplo un Modelo Digital de Elevaciones.

Los formatos de archivo para imágenes son adecuados para recoger los colores de las imágenes, pero esto no es suficiente a la hora de almacenar otros valores (por ejemplo, valores decimales) o bien cuando son necesarios un número más elevado de bandas, como en el caso de imágenes hiperespectrales.

Una imagen en blanco y negro o en escala de grises contiene una banda. Una imagen en color contiene tres, ya que los colores se expresan como una terna de colores básicos: rojo, verde y azul. Este es el fundamento del modelo de color RGB, en el cual todo color es la combinación de distintas intensidades de los anteriores colores básicos. Las intensidades de cada banda (o las intensidades de la única banda en el caso de una imagen en escala de grises) se expresan habitualmente con valores entre 0 y 255, un rango que resulta insuficiente para el manejo de otras variables tales como las variables físicas que pueden emplearse en un SIG, ya que estas presentan valores continuos.

En estos casos, los formatos de imágenes no son adecuados en su forma original, y deben o bien adaptarse o bien emplearse formatos más específicos que tengan en cuenta el tipo particular de datos que se almacenan.

Otro problema es la presencia de celdas sin datos. La existencia de celdas sin datos es un hecho que no contemplan los formatos de imágenes. A estas celdas se les asigna un valor establecido por defecto, el cual ha de definirse en el propio archivo para que después sea reconocido por el SIG (para que sepa que, donde aparezca ese valor, realmente no existen datos), pero muchos formatos de imagen no puede almacenarlo. Una posible solución es la utilización de formatos que permitan transparencia. En estos, se puede especificar un color como transparente, que a efectos de su utilización en un SIG puede considerarse como indicación de la ausencia de datos. Estos formatos, no obstante, no son los más adecuados para datos SIG, y esta solución no resuelve por completo esta deficiencia.

Otra carencia de la mayoría de formatos de imágenes es que no pueden recoger la referencia geográfica de la imagen. Salvo que las imágenes sean utilizadas en un SIG, no hay necesidad de que estas contengan información tal como el tamaño de píxel (los metros que cada píxel representa en la realidad) o las coordenadas de la zona que recogen. Por ello, las definiciones de los formatos de imagen, al estar pensadas para recoger meras imágenes digitales (y no imágenes de satélite o aéreas destinadas a un análisis espacial), no tienen en cuenta estas necesidades.

Una forma habitual de resolver esto es acompañar cada fichero de imagen con un pequeño fichero de texto plano donde se contengan los datos geográficos correspondientes a la imagen. Este fichero se denomina World File , y contiene los siguientes valores:

Este World File tiene el mismo nombre que el archivo de imagen, y su extensión se forma con la primera y la última letra de la extensión de dicho archivo, y la letra w . Así, para un archivo imagen.tif , se tendrá un archivo imagen.tfw . Cuando el SIG abre la imagen, busca dicho fichero y, en caso de existir este, toma de él la información que necesita para poder incorporar la imagen al SIG de forma completa, de tal modo que sobre ella puedan llevarse a cabo análisis espaciales u operaciones como la digitalización en pantalla (heads--up) que hemos visto anteriormente.

Por último, un aspecto importante de los archivos de imagen es el tipo de compresión que utilizan. Las imágenes con las que se trabaja en un SIG pueden ser muy voluminosas, y para almacenarlas es necesaria gran cantidad de espacio (puede ser del orden de gigabytes para el caso de imágenes de alta resolución). Por esta razón, los formatos de imagen, especialmente los que han sido creados específicamente para imágenes SIG, incluyen algún método de compresión para disminuir el volumen del archivo.

En el apartado relativo a los modelos de almacenamiento vimos algunas ideas sobre compresión, presentando la codificación run--length . Esta es una estrategia para almacenar la información de forma que se minimice el tamaño de los datos necesarios, y en base a los datos recogidos puede recuperarse toda la imagen de forma exacta. Es decir, la utilización de estas formas de compresión no supone una degradación de la información contenida en la imagen, y nada de esta se pierde en el proceso. Podemos comprimir y descomprimir la imagen tantas veces como queramos, y el resultado siempre será el mismo, fiel a la imagen original. Un formato de archivo que cumple esto se dice que emplea un método de compresión sin pérdidas .

Por el contrario, existen otros métodos de compresión con pérdidas , en los cuales se pierde información y la imagen resultante, además de ocupar menos espacio, tiene una menor calidad y no es exactamente igual a la original, sino simplemente muy similar a esta. Los algoritmos de compresión con pérdidas toman de la imagen original la información más importante para después recrear esta, ignorando la menos relevante, que se pierde en aras de obtener un menor volumen de almacenamiento.

Siempre que sea posible, los formatos de compresión sin pérdidas deben preferirse frente a los que utilizan algoritmos de compresión con pérdidas. En función de las necesidades que se tenga con respecto a las imágenes a almacenar, debe elegirse el formato adecuado, considerando siempre la degradación que la compresión con pérdidas implica.

Algunos formatos de imagen que emplean compresión con pérdidas son altamente populares, ya que se emplean para tareas donde la reducción de tamaño de los ficheros es prioritaria, y este tipo de compresión ofrece una reducción en general mayor que la de los algoritmos sin pérdidas. Así, por ejemplo, las imágenes que se incorporan en paginas Web han de ser de pequeño tamaño para agilizar su carga, y ese tamaño resulta un factor decisivo, especialmente donde la velocidad de conexión es limitada. Para el trabajo con un SIG, no obstante, la calidad de la imagen es de mucho mayor importancia que su tamaño, y los formatos de compresión sin pérdidas responden mejor a las necesidades del almacenamiento de datos SIG.

En la imagen \ref{Fig:Compresion_con_perdidas} puede verse el efecto de la utilización de compresión con pérdidas.

Efectos de la utilización de algoritmos de compresión con pérdidas. a) Imagen original. b) Imagen almacenada mediante compresión con pérdidas. c) Imagen tras diez procesos de lectura y almacenamiento en un formato de archivo con compresión con pérdidas.
$$\label{Fig:Compresion_con_perdidas}$$

Formatos para datos SIG

Junto con los formatos de archivo para imágenes, los SIG ráster han desarrollado sus propios formatos para el almacenamiento de capas ráster en general, y en particular de aquellas que no representan imágenes, tales como capas de variables físicas.

Estos formatos están pensados para las características de estas capas, que habitualmente recogen valores decimales (a diferencia de los valores enteros de los Niveles Digitales de una imagen), y que no suelen contener más que una única banda.

Prácticamente cada SIG tiene su propio formato de archivo ráster, y otras aplicaciones que trabajan con este tipo de datos, tales como todas aquellas que usan por una u otra razón información de elevaciones, también disponen de sus formatos particulares. Muchos SIG pueden leer algunos de estos formatos junto con los suyos propios .

Principales formatos existentes

Dentro de la gran variedad de formatos existentes, he aquí una breve lista de los principales, los cuales suelen encontrarse con frecuencia a lo largo del desarrollo de un proyecto SIG habitual.

Dentro de los formatos para imágenes, cabe destacar los siguientes:

Algunos formatos específicos para imágenes SIG tales como imágenes de satélite, son:

Por último, entre los formatos para datos ráster (no imágenes) más comunes destacar el siguiente:

Formatos para datos vectoriales

Sin ser tan abundantes como los formatos para datos ráster, existe también un buen número de formatos de archivo para datos vectoriales. Al igual que en el caso ráster, estos formatos de archivo no derivan únicamente de los SIG, sino también de otras aplicaciones que utilizan capas de tipo vectorial, con particular importancia de las de diseño asistido por ordenador (CAD).

A la hora de definir las características de un formato de archivo para datos vectoriales, encontramos dos aspectos principales, a saber:

En el primer aspecto, debemos considerar que existen SIG no topológicos, es decir, que no son capaces de manejar información sobre la topología de la capa, y por tanto no la necesitan. Los formatos de archivo de estos SIG no estarán por tanto pensados para trabajar con topología, y por ello no la almacenan.

Respecto a la capacidad para recoger los atributos de una capa, este aspecto afecta principalmente a los formatos propios de las aplicaciones CAD. En estas, la componente espacial es la que prima, no teniendo tanta relevancia la componente temática. Los puntos, líneas y polígonos con los que se trabaja en un CAD no tiene atributos asociados salvo aquellos relacionados con su propia representación tales como color, grosor o estilo. Existen formas de asociar una componente temática a esas entidades, pero estas son variadas y la interoperabilidad disminuye en caso de emplearlas, ya que no están soportadas con carácter general en los distintos SIG.

Por esta razón, estos formatos son aptos para introducir información dentro de un SIG o para exportarla a un CAD con objeto de utilizar capacidades de este que no se tengan en el SIG, pero como formatos de almacenamiento de datos dentro de un SIG no son los más adecuados, y debe optarse por otros más específicos para datos SIG.

Principales formatos existentes

Los formatos más extendidos para datos SIG vectoriales son los siguientes:

Resumen

Los datos con los que trabajamos en un SIG pueden tener muy distintas procedencias. Distinguimos aquellos que provienen directamente de algún tipo de medida o del empleo directo de alguna instrumentación (fuentes de datos primarias), y otros que proceden de procesar un dato ya existente para adaptarlo a su uso en un SIG (fuentes de datos secundarias).

Una forma básica de crear datos espaciales digitales es la utilización de fuentes no digitales y su digitalización. Este proceso puede llevarse a cabo tanto de forma manual como automatizada, y puede dar como resultado tanto capas ráster como capas vectoriales.

La teledetección es una fuente de datos de gran importancia para los SIG. Dentro de ella se incluyen técnicas de muy diversa índole cuyos productos son muy distintos entre sí. El fundamento de la teledetección es la medición de las propiedades de los objetos realizada sin que medie contacto con estos. Para ello, se emplean sensores que pueden ir a bordo de aviones o montados sobre satélites, y que pueden ser de tipo pasivo o activo. El resultado del proceso de teledetección son imágenes con un número variable de bandas, aunque tecnologías como el radar o el LiDAR pueden emplearse para la generación de cartografía de elevaciones.

Dentro de las tecnologías que permiten la recogida de datos en campo, el GPS ha supuesto un cambio en la realización de este tipo de trabajos, y su integración en SIG es sencilla. Esto les ha convertido en una fuente de datos muy utilizada en un gran número de proyectos SIG.

Independientemente de su origen, los datos espaciales se almacenan en archivos cuyos formatos son a su vez muy variados. En este capítulo hemos visto algunos de los más habituales, así como los aspectos más importantes que los definen, y que han de tenerse en cuenta a la hora de trabajar con dichos formatos y elegir los más adecuados.

Portada
Índice
capítulo
Índice
general

ÍNDICE GENERAL