Más

Aplicar simbología a rásteres usando Arcpy Script

Aplicar simbología a rásteres usando Arcpy Script


Tengo un script de ArcPy para aplicar la simbología de una capa ráster a todas las capas ráster en la tabla de contenido. He usado este script antes con capas de entidades en lugar de capas ráster, y funcionó perfectamente. Ahora, cuando lo ejecuto, se ejecuta continuamente y no cambia la simbología de ninguna de las capas ráster en la tabla de contenido. No me da ningún mensaje de error; aparece la ventana, diciendo que cambió correctamente la simbología. Además, funciona cuando aplico manualmente la simbología de una capa ráster a las otras capas en la tabla de contenido. El script parece recorrer la lista sin cambiar nada.


Hay algunos pequeños contratiempos en su código, lo he reescrito (con suerte) mejor:

import arcpy arcpy.env.workspace = "c:  Archivos DEM" # no requerido mxd = arcpy.mapping.MapDocument ("Actual") # Este MXD df = arcpy.mapping.ListDataFrames (mxd, "Georgia") [0] # el primer marco de datos llamado Georgia rasters = arcpy.mapping.ListLayers (mxd, "*", df) # todas las capas # normalmente la capa sería un archivo de capa, no tanto una capa en el mapa symbologyLayer = "Feature_El147" # Asumo que esto existe para ThisLayer en rásteres: print "Working on" + ThisLayer.name si no ThisLayer.isBroken: # solo intenta trabajar con capas que no estén rotas imprime "-not broken" si no ThisLayer.name .upper () == symbologyLayer. dataSource) print "--Estadística calculada" arcpy.ApplySymbologyFromLayer_management (ThisLayer, symbologyLayer) print "--Symbology Applied" mxd.save () del mxd

Esto supone que el marco de datos llamado Georgia existe en el mxd actual, si no es así, tendrá problemas. Agregué una condición para isRasterLayer en caso de que tenga capas mixtas de entidades / ráster / grupo; tenga en cuenta que es posible que desee incluir la layer.isBroken también si tiene capas sin referencia (signos de exclamación rojos).

He cambiado el guión y lo he probado; esta versión funciona en ArcGis 10.1:

import arcpy, sys try: symbologyLayer = arcpy.mapping.Layer (sys.argv [1]) excepto: arcpy.AddError ("Los parámetros de entrada no se pudieron resolver") sys.exit (-1) arcpy.AddMessage ("Source Layer is% s "% symbologyLayer.symbologyType) # Salir si la capa de origen está rota si symbologyLayer.isBroken: arcpy.AddError (" La capa de origen está rota ") sys.exit (-2) # Salir si la capa de origen no es un ráster layer si no es simbologyLayer.isRasterLayer: arcpy.AddError ("La capa de origen no es una capa ráster") sys.exit (-3) mxd = arcpy.mapping.MapDocument ("Current") # This MXD #df = arcpy.mapping. ListDataFrames (mxd, "Georgia") [0] # el primer marco de datos llamado Georgia df = arcpy.mapping.ListDataFrames (mxd) [0] # Solo el primer marco de datos en los rásteres MXD = arcpy.mapping.ListLayers (mxd, "*", df) # todas las capas para ThisLayer en rásteres: arcpy.AddMessage ("Working on" + ThisLayer.name) si no ThisLayer.isBroken: # solo intente trabajar con capas que no estén rotas arcpy.AddMessage ( "-not roto") si no es ThisLayer.name.upper () == symbologyLayer.name.upper (): arcpy.AddMessage ("-no la capa de origen") # no es la capa de origen si ThisLayer.isRasterLayer: arcpy.AddMessage ("-es una capa de ráster") # solo se aplica a las capas de ráster arcpy. CalculateStatistics_management (ThisLayer. Simbología aplicada ") # mxd.save () # No estoy guardando, descomenta esto para guardar del mxd

He comentado líneas que no se adaptan a mi entorno ...

Es posible que tenga problemas para ejecutarse desde la ventana de Python, así que configuro el código para que se ejecute desde una caja de herramientas, copie y pegue el código en el bloc de notas, lo guarde como archivo .py, luego cree una nueva caja de herramientas en el Catálogo y agregue el script con uno parámetro:Capa a juego, escribeArchivo de capa.

En ArcMap, ejecute la herramienta desde la caja de herramientas (en la vista de catálogo está bien) y aplicará la simbología del archivo de capa ... para obtener el archivo de capa original, haga clic derecho en la capa de simbología correcta y seleccione 'Guardar como archivo de capa'.


El siguiente código funciona para mí, aunque creo que es un poco descuidado. Tuve que incluir hacer una capa ráster y guardarla en una capa para que funcione.

arcpy. map mxd = arcpy.mapping.MapDocument ("CURRENT") df = arcpy.mapping.ListDataFrames (mxd, "*") [0] addLayer = arcpy.mapping.Layer (simbolizado_raster) arcpy.mapping.AddLayer (df, addLayer, "FONDO")

El código funciona correctamente y agrega el mapa a la pantalla, pero tiene un problema con la fuente de datos. Se origina en una ubicación temporal en lugar del entorno del espacio de trabajo.

Carpeta: C:  Users  User  AppData  Local  Temp Raster: x234bc54_d8c9_c34_by1c458

Acabo de probar el código a continuación y funciona bien. Debe tener cuidado en su código de no intentar aplicar la simbología al ráster de la plantilla, de lo contrario, recibirá un error, así que agregué una declaración if.

import arcpy mxd = arcpy.mapping.MapDocument ("CURRENT") df = arcpy.mapping.ListDataFrames (mxd) [0] rasters = arcpy.mapping.ListLayers (mxd, "", df) para la capa en df: templatelyr = ' Feature_E1147 'if layer.name! = TemplateLyr: lyr = arcpy.mapping.Layer (templatelyr) arcpy.ApplySymbologyFromLayer_management (layer, lyr)

¿Qué es "Feature_El147"? La ayuda para esa función dice que el segundo argumento tiene que ser: Feature Layer; Capa ráster, capa TIN; Capa de análisis de red; Capa geoestadística.

Lo que en este contexto se refiere a una capa actualmente en el documento de mapa que tiene la simbología que desea. ¿Así es como lo tienes configurado?


Aplicar simbología a rásteres mediante Arcpy Script - Sistemas de información geográfica

No sé mucho sobre sistemas de coordenadas.

En mi oficina solemos tratar con datos espaciales provenientes de sitios arqueológicos. Cada sitio tiene su propio sistema de coordenadas x-y-z (GCS). Tres ejes cartesianos ortogonales simples. En los últimos años hemos estado manejando estos datos espaciales a través del software GIS (ArcGIS), sin usar un sistema de coordenadas específico (solo déjelo como "indefinido")

Me gustaría saber si existe algún GCS diseñado para lidiar con tales conjuntos de datos utilizando un eje ortogonal cartesiano simple, sin distorsiones de cuadrícula del GCS típico. Además, me gustaría saber si este sistema es adecuado para usarlo en una aplicación de mapas en línea.

Por cierto, gestionamos entornos 2D (ArcMap) y 3D (ArcScene) y trabajamos con "mm" como unidad base de longitud.

Si tal cosa no existe, tal vez alguien sepa cómo crearla.

Suponiendo que sus áreas de interés son bastante pequeñas en comparación con el mundo, podría configurar una proyección de mercator transversal personalizada.

Tienes que conocer las coordenadas geográficas lat_0 y lon_0 del origen de tu CRS, y la dirección de los ejes xey:

Para usar con Arcgis, el archivo .prj debe contener:

Si no están en paralelo con las direcciones norte y este, sería necesaria una rotación utilizando una proyección mercator oblicua:

El archivo .prj para esta proyección es:

Aquí están los dos juntos (tmerc en azul y omerc en rojo):

Lat_0 y lon_0 (o lonc) son las coordenadas de su origen CRS local. Tienes que explorarlos con un GPS o con otros mapas. El ángulo que tienes que calcular a partir de las coordenadas de dos puntos conocidos en tu eje X local.

Lo único que no funciona como se esperaba es el milímetro como unidades. Debería funcionar, pero no en el QGIS actual :-(

Las versiones actuales de QGIS ahora pueden trabajar con proyecciones locales usando mm como unidades.


Hfrhyu

¿Por qué mkfifo con un modo de 1755 no otorga permisos de lectura y bit de adherencia al usuario?

¿Cuáles son las motivaciones para publicar nuevas ediciones de un libro de texto existente, más allá de los nuevos descubrimientos en un campo?

¿Qué tienen los niños de los Banks contra el agua de cebada?

¿Cómo traducir "ser como"?

¿Cuál podría ser la fuente de energía adecuada para una motosierra gigante desechable de 15 segundos de vida útil?

¿Podemos generar números aleatorios usando números irracionales como & # 960 ye?

¿Cuál es la forma más eficaz de almacenar un rango numérico?

Cómo escribir un guión largo / em `& # 8212`

¿Existen otros métodos para aplicar para resolver ecuaciones simultáneas?

Con respecto a un efecto que se dispara cuando una criatura ataca, ¿cómo se aplica cuando entra al campo de batalla girado y atacando?

Si un hechicero lanza el hechizo Destierro en un PJ mientras está en Avernus, ¿regresa el PJ a su plano de origen?

¿Qué quiere decir Linus Torvalds cuando dice que Git "nunca jamás" rastrea un archivo?

¿La forma de un dado afecta la probabilidad de que salga un número?

¿Qué significó "alinear" una radio?

¿Qué hacer cuando se mueve junto a un santuario de aves con un gato poco domesticado?

¿Cómo mostrar líneas en un archivo como ls muestra archivos en un directorio?

¿Es el sol más brillante de lo que vemos?

¿Puede un pícaro usar un ataque furtivo con armas que tienen la propiedad arrojada incluso si no se lanzan?

Comando para anular espacios

"tantos detalles como puedas recordar"

Antigua película de ciencia ficción de los años 50 o 60 con hombres con uniformes rojos sólidos que interrogan a un espía del pasado.

El viaje en el tiempo altera la historia, pero la gente sigue diciendo que nada ha cambiado

Soy palabra de ocho letras. Encuéntrame, ¿quién soy yo?

Dividir shapefile con muchos polígonos en partes iguales

Los resultados de la encuesta para desarrolladores de desbordamiento de pila de 2019 se basan en la creación de polilíneas & # 8220 mapa de calor & # 8221 a partir de pistas GPS? ¿Cortar la capa en muchas partes usando shapefile? o consultar & # 8221 el resultado de una limitación de hardware? Unión espacial de polígonos a la cuadrícula de polígonos con límites compartidos en ArcGIS Desktop? Cortar el polígono en partes iguales Problemas con la unión de uno a varios ArcGISOutput shapefile no tiene registros después de unir el shapefile con la tabla y exportar el resultado Unión espacial de polígonos, muchos a muchos Número de puntos que difieren en un atributo específico dentro del polígono en ArcGIS Desktop Los atributos de salida de la unión espacial difieren según la entrada FC o SHP

Tengo un shapefile con cientos de corredores de movimiento de caribúes.
Con estos datos, estoy tratando de crear un mapa que muestre la frecuencia de uso para determinar rutas importantes de movimiento y migración para diferentes rebaños.

El shapefile original tiene varios años de datos de movimientos de caribúes con collar individuales derivados del modelado de movimientos de puentes brownianos.
A partir de este archivo, he creado con éxito el resultado deseado mediante:
1. Usando la herramienta de unión
2. De varias partes a una sola parte
3. Unión espacial consigo misma
4. Cambie la simbología del shapefile.

El problema con el que me encuentro ahora es que he ampliado mis fechas de estudio e incluido varios años en un solo modelo. Cuando trato de seguir los pasos anteriores con el conjunto de datos grande, arrojo un código de error 'memoria insuficiente' en el paso de unión espacial (3.).
Claramente, mi computadora no tiene suficiente RAM para ejecutar este cálculo, por lo que he estado tratando de dividir mi shapefile en 4 partes iguales, usando una cuadrícula de red, que planeo fusionar nuevamente después de ejecutar la unión espacial en cada paquete. He creado con éxito la cuadrícula y, nuevamente, utilizando la herramienta Unión, creé 4 shapefiles de datos separados. Ahora, cuando trato de 'dividir' los polígonos de caribú del atributo de cuadrícula, la operación falla.

Entiendo que ArcGIS pro y quizás un parche para arcmap podrían ayudar a mi computadora a acceder a más de su RAM para ejecutar dicha operación, sin embargo, actualmente no tengo acceso a estos, así que estoy buscando algún tipo de método alternativo para lograr los resultados deseados. .


Mapeo de paisajes y superficies impermeables en el área metropolitana de las ciudades gemelas utilizando técnicas de reconocimiento de características y árbol de decisión

Cornerstone: una colección de trabajos académicos y creativos para la Universidad Estatal de Minnesota, Mankato, le ofrece esta tesis de forma gratuita y de acceso abierto. Ha sido aceptado para su inclusión en Tesis, Disertaciones y Otros Proyectos Capstone por un administrador autorizado de Cornerstone: A Collection of Scholarly and Creative Works para Minnesota State University, Mankato.

Nagel, Philipp, & # 34Mapeo de paisajes y superficies impermeables en el área metropolitana de Twin Cities utilizando técnicas de reconocimiento de características y árbol de decisión & # 34 (2014).Tesis, disertaciones y otros proyectos finales.Documento 309.

utilizando técnicas de árbol de decisión y reconocimiento de características

Una Tesis presentada en Cumplimiento Parcial de los Requisitos para el Título de Maestría en Ciencias.

Universidad Estatal de Minnesota, Mankato Mankato, Minnesota

Mapeo de paisajes y superficies impermeables en el Área Metropolitana de las Ciudades Gemelas utilizando técnicas de Reconocimiento de Características y Árbol de Decisión

Esta tesis ha sido examinada y aprobada por los siguientes miembros del comité de estudiantes. ________________________________ Fei Yuan, Ph. D. ________________________________ Martin Mitchell, Ph. D. ________________________________ Cynthia Miller, Ph. D.

Expresiones de gratitud

Me gustaría agradecer a mi asesora, la Dra. Fei Yuan, por su continuo apoyo, aliento y dedicación. Ella persistentemente me presionó para que hiciera mi mejor trabajo. Su orientación no solo en mi investigación y redacción de tesis, sino también en mis esfuerzos anteriores en la Universidad Estatal de Minnesota (MSU) fue esencial para mi éxito académico. También me gustaría agradecerle por ayudar a financiar este proyecto a través de su beca de investigación de la facultad. Ella es verdaderamente una gran maestra y consejera.

También me gustaría agradecer a los miembros restantes de mi comité de tesis, la Dra. Cynthia Miller y el Dr. Martin Mitchell. Ambos me han enseñado mucho durante mi tiempo en MSU. Soy muy afortunado de tener la oportunidad de trabajar con y tener en mi comité académicos tan excelentes e interesantes.

Muchas gracias al Departamento de Geografía y a todo su cuerpo docente y personal por crear un ambiente de trabajo acogedor y colegiado.

Me gustaría agradecer a mi esposa por su aliento y empujarme siempre a mi mejor trabajo.

Finalmente, mi más sincero agradecimiento a mis padres por su apoyo financiero y por apoyarme y animarme incluso cuando me mudé a otro continente.

Mapeo de paisajes y superficies impermeables en el Área Metropolitana de las Ciudades Gemelas utilizando técnicas de Reconocimiento de Características y Árbol de Decisión

Tesis de Maestría en Ciencias en Geografía de la Universidad Estatal de Minnesota, Mankato, mayo de 2014

Abstracto

El uso y la cobertura del suelo (LULC) y el área de superficie impermeable (ISA) son parámetros importantes para muchos estudios ambientales y sirven como una herramienta esencial para los tomadores de decisiones y las partes interesadas en la planificación urbana y regional. Las ortoimágenes aéreas de alta resolución espacial recientemente disponibles y los datos LiDAR, en combinación con técnicas especializadas, orientadas a objetos y de clasificación de árboles de decisión, permiten un mapeo preciso de estas características. En este estudio, se desarrolló un método para clasificar LULC primero usando un clasificador basado en objetos, y luego usar el mapa resultante como entrada para un modelo de árbol de decisiones para clasificar ISA en el Área Metropolitana de Twin Cities en Minnesota.

Se encontró que las clases de cobertura vegetal eran las más prevalentes en el área de estudio, representando más de la mitad del área terrestre. El agua fue la clase más pequeña, seguida de la cobertura del suelo urbano, que representó el 11%. Se determinó que la superficie impermeable constituía el 14% del área TCMA. La precisión de clasificación general para la cubierta LULC se estimó en 74% y 95% para la clasificación ISA.

Tabla de contenido

2.1. Uso del suelo y cobertura del suelo. 6

2.3. Determinación del área de superficie impermeable. 9

2.5.1. Árboles de decisión en geografía. 14

2.5.2. Árboles de decisión para la extracción de superficies impermeables. 17

3.1. Adquisición y preprocesamiento de datos. 21

3.1.3. Datos de la línea central de la carretera y densidad de la carretera. 24

3.1.4. Datos de apoyo adicionales. 24

3.2. Clasificación del uso del suelo y cobertura del suelo. 25

3.3. Clasificación de superficies impermeables. 29

3.3.2. Modelado de árboles de decisión. 30

3.4. Evaluación de la precisión. 34

4.1. Clasificación del uso del suelo y cobertura del suelo. 36

4.1.1. LULC: Área de estudio completa. 36

4.1.3. LULC: por ciudad y municipio. 48

4.2. Clasificación de superficies impermeables. 54

4.2.2. Superficie impermeable: por comarca. 57

4.2.3. Superficie impermeable: por ciudad o municipio. 62

4.3. Evaluación de la precisión. sesenta y cinco

4.3.1. Precisión del uso del suelo y de la cobertura del suelo. sesenta y cinco

4.3.2. Precisión de superficie impermeable. 66

5.1. Clasificación LULC e ISA. 68

5.1.1. Distribución y patrones de LULC e ISA. 68

5.1.2. Metodología LULC e ISA. 73

5.2. Estudio de clasificación LULC anterior. 74

5.3. Visualización de datos . 78

6.1. Resumen de métodos y resultados. 80

6.2. Limitaciones de este estudio e implicaciones para estudios futuros. 82

Apéndice A. Ecuación I de Moran global. 98

Apéndice B. Ecuación G * de Getis-Ord. 99

Apéndice D. Área de LULC por condado, 2006. 106 Apéndice E. Superficie impermeable por ciudad o municipio. . 107

Lista de Figuras

Figura 1.1: Mapa general del área de estudio. . 5

Figura 3.1: Ejemplo de representación foveal de Feature Analyst (patrón de Manhattan). . 29

Figura 3.2: Modelo de árbol de decisión. . 34

Figura 4.2: Distribución de LULC sobre el área de estudio (en millas cuadradas). . 43

Figura 4.3: Puntos calientes y fríos de LULC y estadísticas I de Moran. . 44

Figura 4.4: Cobertura de LULC por condado. La anotación del mapa muestra el área de la clase LULC indicada para cada condado. . 47

Figura 4.5: Cobertura de LULC por ciudad o municipio. . 53

Figura 4.6: Mapa de superficie impermeable. . 56

Figura 4.7: Densidad de la superficie impermeable (área hexagonal de 1 milla cuadrada). . 57

Figura 4.8: Área total y porcentaje impermeable para cada condado. . 58

Figura 4.9: Porcentaje de la superficie impermeable total a TCMA por condado. . 59

Figura 4.10: Superficie impermeable por condado (porcentaje y área total). . 61

Figura 4.11: Mapa de puntos calientes de hexágonos superficiales impermeables. . 62

Figura 4.12: Porcentaje de superficie impermeable por ciudad o municipio. 64

Figura 5.1: Densidad de población en TCMA en 2010.. 70

Figura 5.2: Tierras de conservación por condado (UMN 2013). . 71

Lista de tablas

Tabla 4.1: Área de LULC por condado. . 37

Tabla 4.2: Superficie impermeable por comarca. . 59

Tabla 4.3: Matriz de precisión para mapa LULC. 66

Lista de ecuaciones

Ecuación 3.1: Cálculo de la varianza donde es el valor DN del píxel en i, j, y es el número de píxeles en la ventana. Adoptado de (Yuan 2008). . 23

Ecuación 3.2: Estimación Kappa de Cohen (Cohen 1960 Congalton y Mead 1983). . 35

1.

Introducción

Los mapas de paisaje precisos, como los mapas de uso y cobertura de la tierra (LULC) y de superficie impermeable (ISA) son insumos esenciales para los tomadores de decisiones locales, así como para muchos investigadores.Si bien se desea un producto con alta resolución espacial y gran precisión, los datos disponibles en la actualidad suelen tener una resolución espacial de baja a media y diversos grados de precisión.

Es difícil extraer información LULC e ISA utilizando imágenes de detección remota de alta resolución, datos de elevación derivados de LIDAR y otros datos auxiliares. Esta dificultad se debe en parte al hecho de que los datos de entrada necesarios para generar mapas de cobertura terrestre a menudo están disponibles solo con una resolución espacial baja o media, mientras que las imágenes de alta resolución a menudo tienen un precio demasiado alto para permitir su uso eficiente. Además, faltan técnicas bien establecidas para procesar datos espaciales de alta resolución. Muchos conjuntos de datos establecidos también son relativamente antiguos. En particular, para el área de estudio del Área Metropolitana de las Ciudades Gemelas (TCMA), el conjunto de datos más reciente se basa en imágenes Landsat de 2006 con una resolución espacial de 30 metros (Yuan 2010). Si bien este conjunto de datos LULC para el área de estudio posee una buena precisión, ahora tiene ocho años. El desarrollo urbano es acelerado, por lo tanto, sería deseable un producto actualizado para proporcionar datos más recientes y permitir el análisis de cambios. Se necesitan nuevos datos de LULC e ISA para el área de estudio para ayudar a las partes interesadas a evaluar los efectos de la urbanización y otros cambios de LULC. Es posible que las técnicas de clasificación tradicionales no ofrezcan los mejores resultados posibles cuando se aplican a las imágenes de alta resolución espacial recientemente disponibles. En este contexto, desarrollé un análisis

Método para extraer la LULC de alta resolución deseada y la información de superficie impermeable utilizando técnicas avanzadas como la clasificación orientada a objetos y el modelado de árboles de decisión.

En el pasado, los métodos desarrollados para la identificación de características terrestres se han centrado en el uso de imágenes de satélite de resolución media. Dado que las imágenes aéreas de alta resolución y los datos LIDAR se han vuelto más disponibles y la potencia informática ha aumentado, las nuevas técnicas son cada vez más prometedoras. En particular, en este estudio, utilicé un clasificador basado en objetos para mapear tipos de cobertura terrestre de alta resolución a partir de ortoimágenes digitales de 1 m para el TCMA, Minnesota. También desarrollé un modelo de árbol de decisiones para extraer datos de superficies impermeables a partir de una combinación de fuentes de datos. Los datos resultantes y el método desarrollado proporcionan importantes insumos y herramientas para la toma de decisiones para los gobiernos locales y otras agencias y organizaciones en el área.

Este estudio se centrará en el área metropolitana de las ciudades gemelas (Minneapolis y St. Paul) de Minnesota. En particular, el área de estudio consta de siete condados: los condados de Anoka, Carver, Dakota, Hennepin, Ramsey, Scott y Washington (Figura 1.1). Estas

los condados tienen un área combinada de aproximadamente 2,939 millas cuadradas. De 2000 a 2010, la población aumentó de 2,6 millones a 2,8 millones, lo que representa aproximadamente el 54% de la población total de Minnesota (Metropolitan Council 2000 US Census 2013). En el centro del TCMA se encuentran las ciudades de Minneapolis y St. Paul. St. Paul es la capital de Minnesota, que tiene una cultura distinta a la de Minneapolis. Hay muchos suburbios populosos, así como áreas altamente comercializadas. El Mall of America, uno de los centros comerciales cubiertos más grandes de los Estados Unidos (EE. UU.), Se encuentra en Bloomington, al sur de Minneapolis. Otro gran centro comercial, el Southdale Center en Edina, se considera el centro comercial más antiguo de los EE. UU. Varias corporaciones importantes y compañías Fortune 500, como Target Corporation en Minneapolis, The Toro Company en Bloomington, Dairy Queen en Edina, 3M en Maplewood y General Mills en Golden Valley, tienen su sede en Twin Cities.

Una gran parte de la economía inicial de las Ciudades Gemelas estuvo influenciada por la presencia del río Mississippi y sus cataratas Saint Anthony, que proporcionaron energía hidroeléctrica a los aserraderos y posteriormente a los molinos de harina. Estas instalaciones en Saint Anthony Falls fueron algunas de las primeras en utilizar energía hidroeléctrica en los EE. UU. (Anfinson 1995). El área también fue un importante centro de transporte para los servicios de pasajeros y carga ferroviaria y marítima. El grano era un bien común que se enviaba a las Ciudades Gemelas por vía fluvial o ferroviaria y, en consecuencia, la harina y otros

A continuación, se exportaron los productos de la molienda. La madera recolectada en Minnesota también fue un bien de transporte importante. La manufactura siguió siendo una parte importante de la economía de las Ciudades Gemelas. Hoy en día, la economía está dominada por empresas del sector terciario, investigación y producción de alta tecnología y servicios financieros.

El paisaje del área de estudio es relativamente diverso, con una gran cantidad de lagos. El desarrollo urbano de alta densidad se encuentra principalmente en la parte central, mientras que la cubierta vegetal y las tierras agrícolas se encuentran en el perímetro exterior. Los mapas y los datos producidos en este estudio elaborarán patrones específicos de estas clases de cobertura terrestre. El clima en las Ciudades Gemelas es típico del medio oeste de los EE. UU. Con temperaturas extremadamente frías en el invierno y calor extremo en el verano. La precipitación alcanza su punto máximo en los meses de verano. El área es propensa a muchos tipos de desastres naturales, como tornados y otras tormentas de viento, inundaciones repentinas, temperaturas extremas y tormentas invernales.

Varias encuestas han determinado que las Ciudades Gemelas en los últimos años son una de las áreas metropolitanas más atractivas de los EE. UU. Y uno de los mejores lugares para vivir. Estas calificaciones se debieron en gran parte a la proximidad a características naturales como lagos, el extenso sistema de parques y senderos y la economía robusta.

2.

Revisión de literatura

Este estudio se ocupa de la extracción precisa de datos de superficies impermeables y clases LULC de imágenes aéreas de alta resolución y otras fuentes de datos. A continuación, se ofrece una descripción general de la literatura existente que es pertinente a las diversas técnicas utilizadas aquí. Primero discutiré la importancia de la impermeabilidad y algunas técnicas que se han utilizado para identificar áreas de superficie impermeables. Además, daré una descripción general de la investigación que se ha realizado en relación con los diversos componentes de este estudio, como la integración de datos, el modelado de árboles de decisión y la clasificación basada en objetos.

2.1. Uso y cobertura del suelo

Los datos sobre el uso de la tierra y la cobertura de la tierra son insumos y herramientas esenciales para los tomadores de decisiones locales y regionales. Si bien el crecimiento urbano indica crecimiento económico, también es una preocupación ambiental importante. El crecimiento urbano no solo conduce a un aumento de las superficies impermeables y los problemas asociados (ver sección 2.2), sino que también degrada significativamente la calidad del aire a escalas locales y globales, así como aumenta el consumo de energía y consume recursos agrícolas y forestales (Squires 2002). Collinge (1996) realizó una revisión exhaustiva de la literatura sobre los efectos de la expansión urbana descontrolada en la biodiversidad. Concluyó que la expansión urbana, debido a sus patrones de crecimiento segmentados, es un factor importante que contribuye a la fragmentación del hábitat y, por lo tanto, a la reducción de la biodiversidad. Los datos precisos de LULC son importantes para ayudar a los tomadores de decisiones a escala local, regional y global a mejorar las políticas

con respecto al desarrollo futuro, la conservación de humedales y hábitats y la protección del clima (Anderson et al. 1976).

El concepto y la cuestión de la impermeabilidad ha recibido mucho interés en muchos campos recientemente, particularmente en los estudios geográficos y urbanos. La superficie impermeable restringe el flujo de agua a través de la superficie. A menudo se considera que está compuesto por tejados de edificios y elementos de transporte (Schueler 1994); sin embargo, también debe tenerse en cuenta que el suelo desnudo y compactado o el lecho rocoso expuesto, en los sitios de extracción, por ejemplo, pueden tener cualidades impermeables. En el caso de eventos de lluvia, nieve derretida o inundaciones, el agua no puede penetrar el suelo, sino que se transporta a la superficie, recogiendo muchos contaminantes de la superficie a lo largo del camino (Chen et al. 2007). No obstante, con la creciente dependencia del automóvil en los EE. UU. Y otros países desarrollados y en desarrollo, la cantidad de superficies impermeables y sus problemas inherentes están aumentando.

Las superficies impermeables aceleran el movimiento de la escorrentía y los contaminantes acumulados en una gran superficie, lo que se atribuye a muchos de los problemas actuales de contaminación del agua. Ya en 1994, la Agencia de Protección Ambiental de EE. UU. Determinó que la contaminación de fuente difusa (de la cual la contaminación por escorrentía superficial impermeable es un ejemplo) es el mayor contribuyente y amenaza a la calidad del agua en los EE. UU. (1994). Dado que los contaminantes de fuentes difusas se transportan a las aguas superficiales y subterráneas, afectan tanto a los ecosistemas naturales como a los humanos.

La superficie impermeable no solo contribuye en gran medida a la contaminación de fuentes difusas, sino que también es un muy buen indicador de la calidad del agua. Se ha descubierto que las superficies impermeables son un "indicador ambiental clave" para estimar muchos otros factores. Arnold Jr y Gibbons (1996) encontraron que el conocimiento de la cantidad de superficie impermeable puede servir como marco para resolver problemas de planificación de recursos naturales. Esto es particularmente ventajoso para las agencias de planificación local que pueden no tener los recursos para realizar estudios más complejos de áreas problemáticas particulares. La superficie impermeable no solo es un indicador ambiental general en sí mismo, sino que también está fuertemente relacionada con otros indicadores que son mucho más difíciles de medir y puede considerarse como una medida indirecta (Schueler 1994). La superficie impermeable se puede utilizar como una medida del impacto ambiental no solo a nivel local, sino también a nivel mundial, como lo señalaron Sutton et al. (2009), quienes construyeron un modelo global basado en imágenes de satélite y calibraron el modelo con imágenes aéreas de alta resolución en un esfuerzo por mostrar que la superficie impermeable puede ser una medida aproximada de la huella ecológica general de las sociedades. Aunque la impermeabilidad tiene fuertes impactos en el medio ambiente en diferentes escalas, es más poderoso a escala local. Como señaló Schueler (1994), los datos sobre superficies impermeables son relativamente fáciles de obtener en comparación con otros indicadores ambientales, y la cantidad de superficie impermeable puede gestionarse mediante políticas locales.

2.3. Determinación del área de superficie impermeable

Existen muchos enfoques para estimar la cantidad de ISA en un área de estudio. El mapeo de campo se puede utilizar para lograr resultados precisos, pero a menudo requiere mucho tiempo y es costoso. Las técnicas de teledetección ofrecen un método más eficaz. Los enfoques tradicionales por píxel clasifican los datos de teledetección asignando clases de cobertura terrestre a cada píxel de una imagen, a menudo basándose en un algoritmo que hace suposiciones estadísticas sobre los datos. Para extraer superficies impermeables, la imagen se clasifica en primer lugar en categorías que permitirán al investigador agregarlas en cubiertas impermeables y permeables en el siguiente paso. Por ejemplo, las clases de urbanismo, transporte, suelo desnudo (como pozos de grava o sitios de construcción) y minería / extracción se considerarían impermeables, mientras que las clases de aguas abiertas, tierras de cultivo y humedales se considerarían permeables. Dougherty y col. (2004) compararon este enfoque con un método de subpíxeles. Descubrieron que el método tradicional por píxel producía resultados ligeramente mejores que el método subpíxel, pero la precisión de ambos métodos dependía en gran medida de los tipos de cobertura terrestre clasificados (Dougherty et al. 2004). Lua y col. (2011) describieron un método que utiliza el método de clasificación tradicional en combinación con un método basado en la segmentación y la edición manual para eliminar los inconvenientes de cada método individual.

Otra técnica que es relativamente frecuente es el uso de clasificadores de subpíxeles para estimar el porcentaje de superficie impermeable por unidad de área o píxel. Este método se basa en el uso de imágenes de teledetección que tienen una resolución espacial de baja a media, lo que significa que un píxel representa un área bastante grande en la superficie de la tierra y probablemente comprende muchos tipos diferentes de cobertura terrestre. Este método fue utilizado por Civco y Hurd

(1997) para mapear la cantidad de superficies impermeables de Connecticut. Su enfoque implicó el uso de una red neuronal artificial, que se puede calibrar con datos de entrenamiento de alta resolución espacial, pero se puede aplicar a imágenes de resolución espacial media para ofrecer resultados más precisos para áreas más grandes. Stocker (1998) también utilizó métodos similares. Van De Voorde y col. (2009) utilizaron dos modelos de clasificación de subpíxeles diferentes para extraer porcentajes de superficie impermeable en un estudio comparativo. Al igual que Civco y Hurd (1997), utilizaron imágenes de alta resolución espacial para calibrar su modelo y luego aplicaron el modelo a imágenes de menor resolución espacial de grandes áreas. Descubrieron que el modelo de perceptrón multicapa, que es relativamente complejo de usar, funcionó relativamente mejor que el modelo de análisis de mezcla espectral. Llevando más allá el enfoque de clasificación de subpíxeles, Jennings et al. (2004) desarrollaron un modelo para estimar áreas de superficies impermeables, en el que se utilizaron varias fuentes de datos como el National Land Cover Dataset (NLCD) y capas de transporte municipal para generar mapas de superficies impermeables de subpíxeles. Estos mapas se clasificaron luego en clases conceptuales que describen la cantidad de áreas de superficie impermeable.

Ridd (1995) adoptó un enfoque diferente con un modelo de “Vegetación - Impermeable - Suelo” (VIS) para diferenciar las clases de cobertura del suelo urbano. El modelo se desarrolló inicialmente para la interpretación visual de imágenes aéreas, pero fue adaptado por Ridd (1995) para ser utilizado con datos de teledetección digital. El modelo VIS describe la composición de la tierra en función de las tres clases por las que recibe su nombre, y se puede utilizar con la adición de una clase de agua para determinar la cantidad de superficie impermeable.

Chabaeva et al. Desarrollaron un método de modelado que no se basó estrictamente en datos de teledetección. (2004). Los autores crearon un modelo que puede determinar la ISA en función de los parámetros de población derivados de los datos del censo de EE. UU. Construyeron el modelo usando shapefiles NLCD y crearon un modelo de regresión usando software de aprendizaje inductivo. Calibraron el modelo para diferentes localidades y pudieron determinar el porcentaje de ISA con bastante precisión, pero solo al nivel del tramo censal (Chabaeva et al. 2004).

Después de revisar la literatura sobre la extracción de superficies impermeables, queda claro que este tema todavía tiene muchas preguntas abiertas en términos de qué método ofrece los resultados más precisos. Cada método descrito tiene sus propias ventajas. El método utilizado debe elegirse en función de los resultados deseados y los datos disponibles.

La mayoría de los métodos de extracción de superficies impermeables discutidos anteriormente solo usaban un conjunto específico de datos como entrada, como imágenes satelitales o aéreas, o datos de censo y parcelas. Sin embargo, algunos estudios utilizaron más de un tipo de datos para extraer información sobre la cobertura terrestre o la superficie impermeable de un área. Sin embargo, se requieren métodos más especializados para clasificar utilizando una combinación de imágenes y tipos de datos auxiliares más abstractos.

Por ejemplo, Kontoes et al. (1993) describieron un método que utiliza imágenes SPOT y datos de mapas auxiliares que se digitalizan y editan manualmente. Los autores utilizaron datos derivados tanto de las imágenes como de los datos auxiliares en un sistema basado en el conocimiento.

eso les permitió clasificar los datos y extraer la cobertura de cultivos agrícolas con una precisión relativamente alta. En otro enfoque, McNairn et al. (2005) combinó varios tipos de imágenes para extraer los datos deseados. Emplearon y compararon los métodos de máxima verosimilitud y árbol de decisión. Informaron que un enfoque de árbol de decisiones permite la integración de datos adicionales que no son imágenes.

Mesev (1998) describió un método para extraer información sobre la cobertura del suelo urbano mediante la combinación de imágenes con datos censales. Sin embargo, a diferencia de Kontoes et al. (1993), que empleó un modelo basado en el conocimiento, pudo integrar los datos adicionales en un clasificador de máxima verosimilitud (MLC).

Lu y Weng (2006) adoptaron un enfoque que integra los datos de reflectancia con los datos de temperatura de la superficie derivados de los datos de Landsat. En este caso, los investigadores utilizaron un producto de imágenes y un derivado de la capa de emisión infrarroja adicional que se entrega con los datos de Landsat TM. Los investigadores también han combinado la teledetección óptica con productos de teledetección activa como las imágenes de radar para mejorar los resultados de las clasificaciones. Rignot y col. (1997) compararon las clasificaciones de un sitio en la selva tropical de Brasil obtenidas de los datos del radar SIR-C y los sensores ópticos Landsat TM, SPOT y JERS-1. Descubrieron que cada sensor tenía fortalezas y debilidades específicas. Pudieron combinar estos resultados para obtener un mapa final general más preciso para identificar la biomasa en su área de estudio. Saatchi y col. (1997) también utilizaron datos de radar para mapear la deforestación en la selva tropical brasileña. Utilizaron datos de Landsat TM para verificar sus resultados y también combinaron los resultados derivados de ambos datos para mejorar la precisión general de su clasificación. Los datos de sensores remotos ópticos y de radar se complementan entre sí y

por lo tanto, puede mejorar la precisión y los datos de radar se pueden usar cuando los datos ópticos muestran debilidades debido a la cobertura de nubes o la vegetación en capas.

El modelado de árboles de decisión es una técnica de inteligencia artificial y aprendizaje automático, como lo demostraron Breiman (1984) y Wu y Kumar (2009). En este estudio, se utilizó una combinación de clasificación basada en objetos, integración de varias fuentes y tipos de datos y clasificador de árbol de decisión. El software del árbol de decisiones es un programa de aprendizaje automático que analiza los datos existentes y crea un modelo de árbol de decisiones que se ajusta mejor a los datos en clases predeterminadas. Los árboles de decisión se utilizan no solo para la clasificación de imágenes, sino también para muchas otras aplicaciones en varios campos. En general, son útiles para analizar datos de casos basados ​​en atributos específicos y asignar valores de salida discretos a cada caso (Mitchell 1997). Hay muchos estudios médicos que utilizan modelos de árboles de decisión: Granzow et al. (2001) utilizaron árboles de decisión para encontrar relaciones entre tipos de tumores y propiedades genéticas. En una aplicación diferente en la investigación del cáncer, Kuo et al. (2002) construyeron un modelo de árbol de decisiones que podría calibrarse para encontrar patrones de tumores de mama en diferentes tipos de datos de ultrasonido. Silva y col. (2003) utilizaron modelos de árboles de decisión para clasificar grandes cantidades de datos que se encuentran en las bases de datos de la Unidad de Cuidados Intensivos para ayudar a los médicos a predecir la probabilidad de insuficiencia orgánica de los pacientes.

Los árboles de decisión también se han utilizado en estudios económicos para ayudar en la toma de decisiones para la creación de carteras de acciones (Tseng (2003). Sen y Hernandez (2000) crearon un modelo de árbol de decisión que ayudó a los compradores de apartamentos a analizar los diversos datos sobre

los departamentos y los mercados de bienes raíces que están disponibles públicamente, y tomar mejores decisiones de compra basadas en estos datos. Arditi y Pulket (2005) pudieron utilizar modelos de árboles de decisión para predecir el resultado de los litigios de construcción. Otro ejemplo interesante de modelos de árboles de decisión para aplicaciones del mundo real fue presentado por Copeck et al. (2002) con su proceso de aprendizaje automático para resumir documentos.

2.5.1. Árboles de decisión en geografía

En los estudios geográficos, los árboles de decisión se utilizan con mayor frecuencia para la clasificación de imágenes, pero también han encontrado otras aplicaciones: Lang y Blaschke (2006) utilizaron un modelo de árbol de decisión para identificar las ubicaciones más adecuadas para los puentes de vida silvestre para proteger el hábitat del oso pardo en Eslovenia. Hansen y col. (1996) describieron los árboles de decisión como una alternativa a los clasificadores tradicionales de cobertura terrestre y encontraron que tienen una precisión similar a la Clasificación de máxima verosimilitud, al tiempo que ofrecen más flexibilidad para los requisitos de los datos de entrada. Gahegan (2000) examinó las ventajas y desventajas particulares del uso de algoritmos de aprendizaje automático para analizar datos geográficos, en comparación con las herramientas estadísticas más tradicionales utilizadas en muchos estudios. También sugirió que las herramientas de aprendizaje automático a menudo son más adecuadas para hacer frente a los grandes conjuntos de datos que ahora se utilizan en Geografía (Gahegan 2000, 2003). Pal y Mather (2003) presentaron una comparación general de clasificadores tradicionales, redes neuronales artificiales (ANN) y clasificadores de árboles de decisión. Los investigadores encontraron que los clasificadores de árboles de decisión tienen ventajas sobre los clasificadores tradicionales, ya que pueden manejar varios tipos de datos en diferentes escalas y unidades, y no dependen de supuestos estadísticos sobre los datos. En comparación con las redes neuronales artificiales, encontraron que los árboles de decisión son ventajosos

porque son más fáciles de usar, requieren menos capacitación y configuración de parámetros, procesan grandes conjuntos de datos rápidamente y están ampliamente disponibles en Internet. También encontraron que el árbol de decisiones ofrecía resultados aceptables en comparación con otros clasificadores en la mayoría de los casos (Pal y Mather 2003). Por el contrario, Rogan et al. (2008) y Rogan et al. (2003) encontraron que ANN puede lograr mejores precisiones para el mapeo de cambios en la cobertura terrestre.

En las publicaciones se presentan algunos buenos ejemplos de aplicaciones de árboles de decisión para conjuntos de datos muy grandes en relación con varios conjuntos de datos de cobertura de la tierra en todo el país. Se utilizaron clasificadores de árboles de decisión para construir una base de datos de 22 clases de cobertura terrestre con datos de teledetección de 2000 y 16 clases con datos de 2001 para todo Estados Unidos (Homer et al. 2007 Homer et al. 2002). Fomentando el uso de estos conjuntos de datos, Fry et al. (2009) utilizaron modelos de árboles de decisión para mapear las diferencias entre los productos de la Base de datos nacional de cobertura terrestre de 1992 y 2001 de manera eficiente. Otro producto a nivel nacional que se desarrolló con modelos de árboles de decisión es la capa de datos de tierras de cultivo de 2009 (Johnson y Mueller 2010).

Una ventaja adicional de la clasificación del árbol de decisiones es que puede manejar muchos atributos o conjuntos de datos e identificar los más importantes. Esto está ejemplificado por Bricklemyer et al. (2007) para verificar la asociación de prácticas agrícolas con el secuestro de carbono del suelo. Del mismo modo, Ban et al. (2010) utilizaron árboles de decisión para combinar datos de Quickbird y Radarsat para ayudar en la clasificación de la cobertura del suelo urbano. Zhang y Wang (2003) también utilizaron modelos de árboles de decisión para clasificar los tipos de cobertura del suelo urbano a partir de imágenes multiespectrales de alta resolución. Otro estudio utilizó dos tipos de imágenes (Landsat de resolución espacial media e imágenes aéreas de alta resolución espacial) para estimar la

densidad de la cubierta arbórea para grandes áreas (Huang et al. 2001). En lugar de utilizar dos fuentes de imágenes, Harris y Ventura (1995) utilizaron imágenes Landsat y datos geográficos más abstractos, como datos de parcelas y censos, para clasificar los tipos de cobertura del suelo urbano. Por el contrario, Griffin et al. (2011) utilizaron árboles de decisión para incluir factores ambientales en una clasificación de varios tipos de vegetación en un ecosistema específico. Para un estudio para evaluar los hábitats de los animales y la cobertura de la tierra agrícola, Lucas et al. (2007) emplearon un árbol de decisiones basado en reglas para mapear los hábitats y las clases de cobertura basándose en imágenes satelitales multitemporales, varios derivados de las imágenes y datos recuperados de un sistema de gestión agrícola. Wright y Gallant (2007) adoptaron un enfoque similar para aumentar la precisión del mapeo de humedales en el Parque Nacional Yellowstone.

Además de todas las ventajas mencionadas anteriormente del modelado del árbol de decisiones, otro beneficio de esta técnica es su capacidad para tratar muy bien los errores (Mitchell 1997). Dos fuentes de error importantes en la teledetección son las incertidumbres que ya están presentes en las imágenes debido a problemas de adquisición y procesamiento, y los errores introducidos por el analista al generar datos de entrenamiento (Foody et al. 2002). Los modelos de árboles de decisión son particularmente tolerantes con estos dos tipos de errores, e incluso pueden manejar casos en los que faltan algunos de los atributos muy bien (Mitchell 1997).

Es evidente que los sistemas de clasificación de árboles de decisión pueden ofrecer resultados precisos para muchas aplicaciones diferentes en la investigación geográfica, particularmente cuando se trata de conjuntos de datos que son muy grandes, contienen diferentes escalas o unidades de datos o son problemáticos para los modelos tradicionales o estadísticos. Los árboles de decisión son flexibles, fáciles de usar y eficientes.

2.5.2. Árboles de decisión para la extracción de superficies impermeables

Los estudios que utilizaron árboles de decisión para identificar ISA solo han surgido en los últimos diez o quince años. Smith (2000) empleó un modelo de árbol de decisión para estimar el nivel de subpíxeles ISA a partir de imágenes de Landsat en el área diversamente urbanizada de Santa Bárbara en el sur de California. Del mismo modo, Yang, Huang, et al. (2003) y Yang, Xian, et al. (2003) utilizaron árboles de decisión para extraer ISA de subpíxeles de Landsat TM y ETM + e imágenes aéreas de alta resolución, y para detectar cambios en la cobertura del suelo urbano, respectivamente. Cutter et al. Utilizaron imágenes aéreas de alta resolución espacial. (2002) para extraer ISA. Goetz y col. (2003) utilizaron árboles de decisión para extraer no solo superficies impermeables, sino también coberturas de árboles de las imágenes de IKONOS.

Si bien los clasificadores de árboles de decisión se han utilizado ocasionalmente para extraer superficies impermeables de imágenes de resolución espacial media mediante la clasificación de subpíxeles, parecen ser más eficientes para su uso con imágenes de alta resolución espacial. Esto lo señalan Cutter et al. (2002), quienes encontraron que los clasificadores tradicionales a menudo son incapaces de manejar los desafíos que plantean las imágenes de alta resolución espacial. El hecho de que estas imágenes de alta resolución espacial estén cada vez más disponibles también puede explicar el hecho de que se ha realizado muy poco trabajo para la extracción de cubiertas impermeables con árboles de decisión hasta hace poco.

2.6. Clasificación basada en objetos

Si bien se utilizó un enfoque de árbol de decisión en este estudio para clasificar ISA, la clasificación LULC restante se completó utilizando una clasificación basada en objetos. La clasificación basada en objetos es un concepto relativamente nuevo en comparación con la clasificación basada en objetos de píxeles. Su desarrollo comenzó cuando se descubrió que faltaba la clasificación por píxel en algunos aspectos y cuando aumentó la potencia de cálculo, lo que permite el desarrollo de técnicas más avanzadas. Tobler (1970) definió la primera ley de la geografía como: "Todo está relacionado con todo lo demás, pero las cosas cercanas están más relacionadas que las distantes". Por lo tanto, muchos investigadores han criticado el enfoque en el píxel como unidad en las clasificaciones de imágenes. Han descubierto que tiene más sentido geográfico incluir no solo la información que está presente en un píxel, sino también lo que rodea ese píxel. Teniendo esto en cuenta, uno no solo debe enfocarse en píxeles individuales en un estudio, sino que también debe considerar los datos en su entorno (Fisher (1997) y Cracknell (1998). Haralick et al. (1973), Haralick y Shapiro (1985), y Myint (2001) sugirieron integrar la información contextual calculando texturas basadas en los valores de los píxeles circundantes para implementar este principio en aplicaciones de teledetección. En este estudio, se siguió el enfoque de bandas de textura para la clasificación de superficies impermeables.

La clasificación basada en objetos se utilizó como método adicional para incorporar información contextual. En lugar de mirar cada píxel individualmente, este método intenta encontrar patrones en los valores de los píxeles y agrupar los píxeles de acuerdo con estos patrones. Este proceso también se conoce como segmentación de imágenes (Blaschke y Strobl 2001). Se ha encontrado que este enfoque es ventajoso, particularmente al clasificar

imágenes que tienen una resolución espectral muy limitada, como imágenes en escala de grises (Blaschke y Strobl 2001), y para imágenes cuya clasificación es problemática debido a su alta resolución espacial (Miller et al. 2009). Si bien la clasificación basada en objetos es principalmente adecuada para la extracción de ciertos objetos (como árboles, edificios, cuerpos de agua), puede adaptarse para usarse en la extracción de clases de cobertura terrestre basadas en objetos de múltiples escalas (Baatz y Schäpe 2000) . En este estudio, se utilizó la clasificación basada en objetos para la parte general de clasificación LULC.

Feature Analyst es el software elegido aquí para implementar la clasificación LULC basada en objetos. Feature Analyst es una extensión de terceros para ESRI ArcGIS y se considera un sistema de clasificación de aprendizaje inductivo basado en objetos.

De hecho, Feature Analyst es una combinación de varios algoritmos de clasificación. Está basado en objetos porque hace uso de la segmentación de imágenes y es capaz de identificar objetos individuales en una imagen, en comparación con muchos otros sistemas que solo pueden realizar las llamadas clasificaciones "de pared a pared" donde cada objeto dentro de una imagen tiene para ser incluido en la clasificación.

Aparte de la segmentación de imágenes, Feature Analyst hace uso de varios otros modelos de clasificación. Estos incluyen: (1) árboles de decisión, (2) variantes de ANN, que están diseñadas para evaluar la información de manera similar al cerebro humano (Opitz y Blundell 2008 Rumelhart et al.1986), (3) aprendizaje bayesiano, que es similar a las ANN, pero además hace uso de supuestos de probabilidad sobre los datos, y (4) K-más cercano

vecino, que intenta asignar una clase a un caso simplemente basándose en cuán "cercanos" están sus atributos a los de los casos conocidos (Mitchell 1997). Feature Analyst incluye automáticamente uno o más de estos enfoques en sus modelos de clasificación, según cuál sea el más adecuado para clasificar los datos (Opitz y Blundell 2008).

Además de seleccionar uno o varios enfoques de clasificación, Feature Analyst también hará uso de conjuntos, un concepto muy similar al impulso en árboles de decisión (ver 3.3.2). Los conjuntos son conjuntos de modelos de clasificación, que se entrenan con los mismos datos y cuyos resultados se combinan para producir un resultado final. Si bien hay varias opciones para combinar los resultados, la más común y la que se usa en Feature Analyst es un promedio ponderado de todos los resultados (Opitz 1999). Varios estudios han encontrado que las predicciones por conjuntos se vuelven más precisas si los predictores individuales discrepan tanto como sea posible (Breiman 1996 Freund y Schapire 1996 Opitz y Shavlik 1996a, 1996b). Por lo tanto, Feature Analyst intenta activamente construir varios modelos que produzcan resultados diversos, aumentando así la posible precisión de todo el conjunto (Opitz y Blundell 2008). Se afirma que este enfoque es más preciso que técnicas similares, como el impulso del árbol de decisiones.

En resumen, Feature Analyst hace uso de varias técnicas de clasificación de imágenes innovadoras y avanzadas que prometen una precisión mejorada para imágenes de alta resolución espacial en comparación con otras técnicas de clasificación basadas en píxeles.

3.

Métodos

3.1. Adquisición y preprocesamiento de datos

Los datos utilizados en este estudio se obtuvieron del sitio web Seamless Data Warehouse del Servicio Geológico de los Estados Unidos (USGS) (http://seamless.usgs.gov/) y del Centro de Información de la Oficina de Información Geoespacial de Minnesota (MNGEO) (http: // www.mngeo.state.mn.us/). Los conjuntos de datos específicos fueron ortoimágenes digitales de alta resolución de 2010, datos de elevación de detección y rango de luz (LIDAR) y datos de la línea central de la carretera.

3.1.1. Imágenes aéreas

Las imágenes aéreas fueron parte del programa de Inventario Nacional Agrícola (NAIP) financiado por la Agencia de Servicios Agrícolas de los Estados Unidos (FSA), que hace que estos datos estén disponibles para uso público sin cargo. Las ortoimágenes NAIP de 2010 se volaron durante la temporada de crecimiento agrícola, específicamente durante los meses de julio y agosto. Las imágenes tienen una resolución espacial de 1 metro por píxel y una resolución radiométrica de 8 bits de profundidad de píxel. Las imágenes NAIP son orto-rectificadas por el proveedor de datos con una precisión horizontal de +/- 5 metros usando puntos de control en tierra. El proveedor también hizo mosaicos de las imágenes individuales para producir mosaicos del condado utilizando una estrategia de último en último en la parte superior, y equilibró el color de los mosaicos utilizando el software Impho Orthovista.

Las imágenes aéreas se adquirieron como mosaicos completos del condado para cada uno de los siete condados metropolitanos. En lugar de crear un mosaico de estos archivos individuales en un nuevo ráster, se utilizó la funcionalidad de dataset de mosaico de ArcGIS. Un dataset de mosaico es un mosaico dinámico

y una herramienta de procesamiento que permite crear mosaicos de imágenes sobre la marcha, en lugar de hacerlo de forma estática. El conjunto de datos en sí solo contiene referencias a los archivos individuales y, por lo tanto, es muy eficiente en cuanto al espacio en disco. Además de aplicar varias funciones de creación de mosaicos, también es posible agregar otras funciones ráster sobre la marcha, por ejemplo, NDVI, nitidez panorámica o procesamiento de sombreado para rásteres de elevación. Las principales ventajas del dataset de mosaico incluyen: es muy rápido para aplicar funciones, reduce el espacio de almacenamiento requerido al evitar la duplicación de datos y es compatible con cualquier herramienta ráster de ArcGIS. En este estudio, el dataset de mosaico se utilizó primero para crear un mosaico de las imágenes NAIP para lograr la cobertura de toda el área de estudio. Se aplicó una función de recorte para excluir áreas fuera del área metropolitana de interés de los siete condados.

Con el fin de proporcionar parámetros de clasificación adicionales tanto para LULC como para la clasificación de superficies impermeables, también se utilizó la banda de infrarrojo cercano de las imágenes NAIP para calcular los valores de textura. La textura, cuando se pensaba como una variación en partes específicas localizadas de los datos, anteriormente se consideraba indeseable ya que podría dificultar la clasificación con métodos por píxel (Ryherd y Woodcock 1996 Gong y Howarth 1990 Herold et al. 2003 Zhang 1999) . Este estudio utiliza un clasificador de árbol de decisión basado en objetos y uno basado en píxeles. Se sabe que la información de textura es valiosa para su uso en sistemas basados ​​en objetos (Ryherd y Woodcock 1996) y, debido a la función de aventado de C5, también se puede utilizar en este enfoque basado en píxeles. Cuando la textura se usa específicamente como entrada para la clasificación de imágenes, especialmente en procesos basados ​​en segmentación, puede ser beneficioso. La capa de textura se calculó como la variación de una ventana de 3x3 píxeles (Yuan 2008). La ecuación utilizada para calcular la varianza es la siguiente:

Desafortunadamente, debido a que las funciones que se pueden usar con datasets de mosaico están predefinidas, este paso no se pudo realizar directamente con una función. El encadenamiento de funciones en un dataset de mosaico permite aplicar varias funciones a los datos en un orden específico. Por lo tanto, la varianza se implementó aplicando primero una función de desviación estándar y luego elevando al cuadrado el resultado de esa función en una función separada. Estas funciones se aplicaron con una ventana de 3 x 3 píxeles.

3.1.2. Datos de elevación

Además de las imágenes aéreas, se utilizaron los datos de elevación derivados de los datos LiDAR. Los datos de elevación utilizados en este estudio fueron adquiridos en 2011 y 2012 por proveedores privados en cooperación con el Departamento de Recursos Naturales de Minnesota (MNDNR). Estos datos son parte del Proyecto de Mapeo de Elevación en todo el estado de Minnesota. El conjunto de datos de la región metropolitana de Twin Cities que se utiliza aquí tiene tres densidades de puntos diferentes, según el área cubierta: los condados de Anoka, Carver, Hennepin, Ramsey, Scott y Washington se muestrearon a 1,5 puntos por metro cuadrado, el condado de Dakota a 2 puntos por metro cuadrado y las ciudades de Minneapolis, St. Paul y Maple Grove a 8 puntos por metro cuadrado. El MNDNR determinó que la precisión vertical era de 5 cm, 10,8 cm y 8,3 cm para todo el

Ecuación 3.1: Cálculo de la varianza donde es el valor DN del píxel en i, j y es el número de píxeles en la ventana. Adoptado de (Yuan 2008).

área metropolitana, condado de Dakota y Maple Grove, respectivamente. El proveedor de datos produjo un modelo de elevación digital (DEM) a partir de estos datos de puntos LiDAR basados ​​en los puntos del terreno únicamente. Dado que los archivos DEM se proporcionan con la misma resolución espacial que las imágenes aéreas (tamaño de píxel de 1 m), no fue necesario ningún procesamiento adicional. Los rásteres DEM se crearon en mosaico utilizando un dataset de mosaico y se enmascararon en la misma medida que las imágenes aéreas mediante una función de dataset de mosaico.

3.1.3. Datos de la línea central de la carretera y densidad de la carretera

Como conjunto de datos adicional, el mapa base de carreteras se descargó del sitio web MNDNR Data Deli, un portal de datos geoespaciales a nivel estatal. El propósito de la capa de carreteras en este estudio fue la producción de una capa de densidad de carreteras. La capa de carreteras es un mapa de carreteras digitalizado, elaborado por el Departamento de Transporte de Minnesota (MNDOT). Las carreteras se digitalizaron en base a mapas topográficos cuadrangulares del USGS de 7,5 minutos y se actualizaron en 2001. La precisión horizontal de estas carreteras es inferior a +/- 12 m. Las carreteras se representan como líneas centrales y se proporciona información detallada sobre las clases de carreteras.

3.1.4. Datos de apoyo adicionales

Además de los datos antes mencionados que se utilizaron directamente para crear los mapas de clasificación, se adquirieron conjuntos de datos auxiliares para respaldar el análisis y la interpretación de los resultados. Primero, se adquirieron shapefiles poligonales de límites políticos para los niveles de condado y municipio. Los límites de los condados se recuperaron del Centro de intercambio de datos geográficos de MNGeo en línea (http://www.mngeo.state.mn.us/). Estos límites estaban vigentes a junio de 2013. Están representados a una escala nominal de

1:24 000 y tienen una precisión espacial de +/- 12 metros (40 pies). Del mismo modo, los límites de todos los municipios también se recuperaron de MNGeo. Estos límites tienen las mismas características temporales y espaciales que los límites de los condados e incluyen ciudades, municipios y territorios no organizados (CTU). Cabe señalar que los límites de los municipios se refieren a entidades políticas, que no necesariamente coinciden con las entidades de agrimensura pública.

Además, se utilizó el sitio web del censo de EE.UU. Factfinder (http://factfinder2.census.gov) para adquirir datos de población para el área y las entidades políticas representadas en los archivos de límites mencionados anteriormente.

3.2. Clasificación del uso del suelo y de la cobertura del suelo

La clasificación LULC se realizó utilizando Feature Analyst, una extensión para ArcGIS que emplea un algoritmo de clasificación de aprendizaje inductivo, patentado y basado en objetos. Antes de realizar la clasificación, se determinó el esquema de clases. Las clases de LULC extraídas incluyen agua (ríos, lagos, piscinas y otros cuerpos de agua abiertos), infraestructura impermeable urbana (carreteras, edificios), tierras de cultivo (campos y pastos sin vegetación y con vegetación), áreas boscosas (caducifolios, perennifolios y pastizales). bosques mixtos), otras áreas con vegetación (arbustos, plantas herbáceas, humedales no boscosos) y suelo desnudo y roca (operaciones mineras como pozos de grava, lecho rocoso).Una nota importante es que la clase de tierras de cultivo se clasificó en dos pasos: primero, se separó en las partes de tierras de cultivo con y sin vegetación, y luego estas dos clases se fusionaron para formar una clase. Estos pasos se tomaron debido a la distribución bimodal de los valores espectrales.

dentro de esta clase. Si bien los métodos de clasificación basados ​​en objetos deberían ser mejores para hacer frente a este problema que los enfoques tradicionales basados ​​en píxeles, las pruebas iniciales mostraron que este paso aumenta la precisión de clasificación para la clase de tierras de cultivo al evitar su confusión con otras clases LULC.

La clasificación basada en objetos en Feature Analyst hace uso del enfoque de aprendizaje inductivo. Esto significa que el algoritmo depende de un experto o profesor para identificar ejemplos del resultado deseado en las imágenes y, por lo tanto, proporciona un conjunto de datos de entrenamiento al sistema de clasificación. Luego, el algoritmo usa la información contenida en estas muestras para construir el modelo que se usa para realizar la clasificación. Las muestras de entrenamiento debían determinarse manualmente en función de un conjunto de criterios para cada clase. El clasificador no solo se basa en la información espectral contenida en cada píxel, sino que también considera la información derivada de los grupos de píxeles. Esto se basa en un proceso conocido como segmentación de imágenes, que divide los píxeles individuales en grupos, que representan objetos. La segmentación se basa generalmente en valores, bordes y formas de píxeles homogéneos. Después de definir estos objetos, se utiliza información adicional de los datos de entrenamiento para determinar a qué clase pertenece un objeto. Los valores espectrales, junto con datos adicionales como el tamaño y la forma del objeto, y sus patrones, textura y objetos vecinos, se utilizan para asignar valores de clase. En consecuencia, las muestras de entrenamiento tenían que representar todas estas características para cada clase. Las muestras de entrenamiento se crearon como polígonos y se dibujaron lo más cerca posible del borde de cada entidad para permitir que la muestra represente la forma y el tipo de borde del objeto. Por ejemplo, la mayoría de los edificios son características rectangulares relativamente simples, mientras que los ríos o lagos tienen contornos curvos más complejos que se indicaron por la forma de

sus polígonos de entrenamiento. También se tuvo cuidado de incluir la variedad completa de cada característica que se encuentra en el área de estudio. Por ejemplo, pequeñas dependencias, viviendas residenciales y grandes instalaciones comerciales o industriales se incluyeron en el conjunto de formación urbana para representar adecuadamente la gama de tamaños y formas de este tipo de objeto dentro del área de estudio.

Después de crear el conjunto de polígonos de entrenamiento, Feature Analyst presenta varias otras configuraciones que se utilizan durante el proceso de clasificación para ajustar el algoritmo para la situación específica y mejorar su precisión. Primero, se definen los datos de entrada. Feature Analyst permite el uso de múltiples conjuntos y tipos de datos. Por lo tanto, la clasificación LULC se basó en las imágenes NAIP de cuatro bandas de 2010, junto con los datos de elevación derivados de LiDAR y una capa de textura. Esto es posible en Feature Analyst sin apilar o alterar previamente las capas de entrada, simplemente se agregan a una lista de entradas y se define su tipo (es decir, óptica, elevación, textura). Dado que Feature Analyst es capaz de extraer características individuales o realizar clasificaciones completas, exhaustivas e inclusivas de características de cobertura terrestre, hay varias otras opciones disponibles. Primero, se seleccionó la opción "de pared a pared" para obligar al analista de características a clasificar todas las áreas de las imágenes, en lugar de simplemente extraer algunas características. Feature Analyst también puede estirar automáticamente los datos de la imagen; sin embargo, esta opción se deshabilitó porque las funciones del dataset de mosaico ya estiraron los datos sobre la marcha. Para hacer uso de la información contextual (es decir, analizar objetos en función de sus objetos vecinos), Feature Analyst utiliza un sistema llamado representación de entrada. Estas representaciones son esencialmente ventanas locales que permiten al clasificador ver más de un píxel a la vez durante

Procesando. Esto permite que el clasificador construya su modelo basándose no solo en un píxel, sino también en los píxeles vecinos. Sin embargo, este enfoque aumenta la cantidad de tiempo de procesamiento necesario para construir e implementar el modelo, y todavía solo tiene en cuenta áreas relativamente pequeñas que rodean cada píxel. Feature Analyst permite patrones de ventana más complejos, que se conocen como representaciones foveales, ya que están diseñadas para imitar la forma en que el ojo humano ve las cosas (Opitz y Bain 1999). La figura 3.1 muestra un

ejemplo de estas representaciones foveales utilizadas en Feature Analyst, el patrón de Manhattan. Los píxeles de color son aquellos que serían visibles para el clasificador al analizar el píxel central, mientras que los píxeles sin color se ignorarían. En comparación con las ventanas locales simples, este enfoque permite que el clasificador dé más importancia a los píxeles más cercanos al píxel que se está procesando, pero también tiene en cuenta la información que se encuentra en los píxeles más alejados. Este enfoque debería aumentar la cantidad de información disponible para el clasificador, mientras que al mismo tiempo no aumenta la cantidad de datos a procesar tanto como el enfoque de ventana simple. Este enfoque hace que la integración de información contextual en un modelo de clasificación sea más eficiente, y nuevamente es un testimonio de la Primera Ley de Geografía de Tobler, que establece que las cosas cercanas están más relacionadas que las cosas distantes (Tobler 1970).

3.3. Clasificación de superficies impermeables

3.3.1. Densidad de la carretera

La densidad de carreteras a menudo se considera una medida importante de urbanización (Schueler 1994). Por lo tanto, la densidad de la carretera se calculó como una superficie ráster que se utilizará como uno de los parámetros de entrada para el modelador del árbol de decisión de la superficie impermeable. La densidad de carreteras se define generalmente como kilómetros de carretera por 100 kilómetros cuadrados de área, o millas de carretera por millas cuadradas de área. Para hacer que el procesamiento de datos sea más manejable y asegurar que la densidad de carreteras se considere localmente en lugar de globalmente para toda el área de estudio, se calculó para un área de 1 kilómetro cuadrado alrededor de cada píxel. El cálculo de la densidad de la carretera se realizó sobre la base de la capa de la línea central de la carretera. La densidad se calculó como metros de carreteras por kilómetro cuadrado de área y se almacenó en un ráster de punto flotante con un tamaño de píxel de 1 m. Los datos resultantes se utilizaron como parámetros de entrada para el modelo de árbol de decisión.

3.3.2. Modelado de árboles de decisión

La superficie impermeable se clasificó utilizando un clasificador de árbol de decisión. Específicamente, se utilizó el software See5 para generar el árbol de decisiones basado en el algoritmo C5 (Quinlan 2013a). C5 es muy similar al algoritmo C4.5, con la adición de varias características que tienen el potencial de aumentar la precisión de la clasificación (Quinlan 1993, 2013b).

En general, C4.5 y C5 son sistemas de conocimiento experto que requieren aportaciones humanas en forma de datos de formación. El propósito general es utilizar los datos de entrenamiento para identificar a qué clase debe pertenecer cada caso, y luego encontrar una representación de modelo precisa para asignar una clase a cada caso en la población general. Para lograr esto, los algoritmos C4.5 y C5 comienzan dividiendo los casos en función de sus atributos y luego identifican un punto de ruptura natural en el atributo según el valor de la clase. Este enfoque produce un conjunto de reglas de decisión que se pueden combinar para construir un árbol que consta de ramas y hojas. Cada rama representa una prueba que se realiza en los datos y conduce a una rama adicional, o una hoja, donde se toma una decisión y se asigna una clase. Estos pasos los realiza automáticamente el algoritmo C5. Además, C5 puede realizar aventar (decidir excluir atributos si no contribuyen significativamente al modelo) y podar (eliminar ramas que no contribuyen significativamente al modelo) (Quinlan 1993, 2013a, 2013b).

Para crear datos de entrenamiento para el modelo de árbol de decisión, se creó un conjunto de 300 puntos distribuidos aleatoriamente. Se creó un segundo conjunto de puntos que siguen el mismo principio para utilizarlo en la evaluación de la precisión (Congalton 1988). Ambos conjuntos se crearon en este momento porque C5 puede realizar la evaluación de precisión automáticamente después

generando el modelo basado en un conjunto separado de puntos. Por lo tanto, la precisión del modelo de árbol de decisión podría evaluarse de inmediato y la configuración del algoritmo podría ajustarse si fuera necesario. Para cada conjunto de puntos, se utilizó la herramienta ArcGIS “Valor a puntos” para escribir valores ráster en la tabla de atributos para cada punto. En este proceso se incluyeron los valores de cada banda de las imágenes aéreas, la capa de textura calculada, el ráster de elevación, el ráster LULC y el mapa de densidad de carreteras. Se agregó un campo que contiene datos binarios de superficies impermeables y se completó determinando visualmente si cada punto está ubicado en una superficie impermeable o no. Luego, las tablas resultantes se ajustaron en Microsoft Excel y se exportaron para su uso en See5.

En See5, los datos se analizaron varias veces utilizando diferentes opciones para identificar las configuraciones que pueden ofrecer la mejor precisión y eficiencia. Específicamente, se evaluaron las opciones de aventado, poda y refuerzo. Aventar le pide a See5 que evalúe el impacto de cada atributo en el modelo final y decida si debe usarse o no. Esto ayuda a un procesamiento más rápido y hace que el árbol de decisiones resultante sea más pequeño y menos complejo, lo que a menudo conduce a una mayor precisión (Quinlan 1993 Foody et al. 2002). La poda también es un método para hacer que los árboles de decisión grandes sean más pequeños y menos complejos. Cuando se utiliza la poda, el árbol se produce primero normalmente y luego se poda. La poda funciona dividiendo el árbol en varios subárboles y estimando la probabilidad de clasificación errónea para cada subárbol. Luego, esta estimación se compara con el caso en el que el subárbol simplemente sería reemplazado por una hoja. Si este cambio no cambia la probabilidad de clasificación errónea en más de un cierto umbral, el cambio se compromete con el árbol; de lo contrario, el subárbol se deja como está (Quinlan 1993). La poda es útil para mejorar

árboles que sufren de sobreajuste, una condición en la que el árbol de decisión se ajusta a los datos de entrenamiento casi a la perfección, pero está sesgado a estos datos y, por lo tanto, no modela con precisión los datos de prueba o evaluación de precisión (Foody et al. 2002).

El impulso es un método que se usa solo para aumentar la precisión de los árboles de decisión, a costa de hacer que el modelo sea más complejo y computacionalmente costoso. El impulso funciona creando más de un modelo para resolver el mismo problema y usando los resultados de cada modelo para “votar” por un resultado final (Freund et al. 1999 Quinlan 2013b Schapire 1999). Por ejemplo, si se crean diez modelos para clasificar píxeles, y seis de ellos determinan que un píxel está en la clase a, mientras que cuatro asignan la clase b, el resultado final sería el voto mayoritario, la clase a.

La salida de See5 es un archivo de texto que representa el árbol de decisiones de forma pseudográfica. Este modelo fue "traducido" manualmente para ser utilizado en un script de Python para llevar a cabo el procesamiento de datos real. La secuencia de comandos hace uso del módulo ArcGIS ArcPy, que permite el uso de herramientas de ArcGIS dentro de una secuencia de comandos de Python.

El árbol de decisiones se implementó en el script mediante el uso de una serie de declaraciones condicionales "Con" anidadas de ArcGIS Spatial Analyst. La función Con evalúa una condición por píxel y puede generar una constante, otro valor ráster o iniciar otra declaración con anidada dentro de ella. Algunas de las ventajas de implementar esta función en un script de Python es que es fácilmente posible guardar y ajustar el script en cualquier momento, y que las operaciones se pueden realizar en la memoria en lugar de desde el disco duro, mejorando así el rendimiento. El uso de ArcPy también hace posible utilizar datasets de mosaico de ArcGIS como entradas, en lugar de archivos ráster con mosaicos estáticos.

Si bien sería posible procesar el modelo de árbol de decisión en Python sin utilizar componentes de ArcPy, esto solo funcionaría con archivos ráster completamente en mosaico. Por lo tanto, al utilizar datasets de mosaico, se elimina del flujo de trabajo un paso adicional de procesamiento y uso intensivo de datos. Después de procesar el árbol de decisiones en función de las capas de entrada definidas, el resultado se escribió en el disco como un archivo ráster de 1 bit. La superficie impermeable se clasificó utilizando este modelo de árbol de decisión recientemente desarrollado. Específicamente, para construir el modelo, el algoritmo tuvo acceso a los siguientes atributos para cada caso (píxel de muestra): las imágenes aéreas NAIP de cuatro bandas, el LIDAR DEM, la capa de textura generada a partir de la banda infrarroja cercana de las imágenes aéreas, el capa de densidad de carreteras y el mapa ráster LULC. Al construir el modelo de árbol de decisión, se evaluaron varias opciones avanzadas en términos de su capacidad para aumentar la precisión de clasificación del modelo. Estas opciones son específicamente aventar, podar y potenciar (ver 3.3.2). Se encontró que el uso de aventado no marcó una diferencia en el modelo. See5 utilizó los mismos atributos independientemente de si se utilizó aventar o no. Por lo tanto, no se utilizó aventar para el modelo final. Además, el modelo de árbol de decisión creado sin poda ya era relativamente pequeño y tenía muy buena precisión. La poda del árbol no redujo su tamaño lo suficiente como para justificar la pérdida de precisión causada por el uso de la poda. Para las opciones de refuerzo, se evaluó una cantidad manejable de diez ensayos. Se descubrió que el uso de impulso con diez modelos no aumentó la precisión lo suficiente como para justificar la complejidad adicional y el gasto computacional del modelo resultante. De hecho, mientras que la precisión aumentó para el conjunto de datos de entrenamiento, el aumento disminuyó la precisión alcanzada para el conjunto de datos de prueba. Con base en estos resultados de la evaluación, se eligió como modelo final el árbol de decisión básico sin opciones avanzadas.

El modelo de árbol de decisión final solo incluye las bandas uno, tres y cuatro de la imagen aérea. El árbol de decisión consta de dos ramas y cuatro hojas (ver Figura 3.2).

Se llevó a cabo una evaluación de la precisión tanto en el LULC como en los mapas de superficie impermeable de forma independiente. Para cada mapa, se creó un conjunto de 300 puntos de muestra aleatorios (Congalton 1988, 1991b). A estos puntos se les asignaron valores de referencia que se suponían que eran “reales en tierra” basándose en la inspección visual de las imágenes. Para determinar los valores clasificados para el mapa LULC, se utilizó la herramienta ArcGIS “Valor a puntos” para escribir automáticamente valores ráster del mapa LULC en la tabla de puntos de muestra. Para la superficie impermeable, esta tarea fue lograda por See5, que permite la entrada de un conjunto separado de datos de evaluación de precisión y evalúa automáticamente el modelo contra estos datos.

Se generaron matrices de precisión estándar para ambos mapas, y la precisión de usuario y productor por clase, la precisión general y la precisión de Kappa estimada se calcularon basándose en las matrices (Cohen 1960 Bishop et al. 1975 Congalton 1991a Congalton y Mead 1983). La precisión del usuario también se conoce como error de comisión, que describe errores de clasificación en los que un píxel que pertenece a una clase se asignó falsamente a una clase diferente. En contraste, la precisión del productor o el error de omisión es un error en un píxel al que se le debería haber asignado un cierto valor de clase, pero no se incluyó en esa clase (Campbell 2002). Las estadísticas Kappa se estimaron con una ecuación dada por Cohen (1960) (ver Ecuación 3.2). Kappa de Cohen también se conoce como acuerdo interobservador y se originó en estudios psicológicos (Cohen 1960). El coeficiente Kappa fue propuesto por primera vez por Congalton y Mead (1983). estima “la diferencia entre la concordancia observada entre dos mapas […] y la concordancia que podría lograrse únicamente por [casualidad]” (Campbell 2002).


Aplicar simbología a rásteres mediante Arcpy Script - Sistemas de información geográfica

Estoy estudiando ecología migratoria de patos marinos en la costa atlántica de América del Norte.

En mi análisis, necesito datos ambientales sustanciales en un amplio rango geográfico durante los últimos 15 años y he tenido un gran éxito en el uso de la base de datos ICOADS para la mayoría de los parámetros de mi modelo deseados. Sin embargo, no rastrean la precipitación y me dejaron necesitando una fuente diferente para ello. NARR es la única fuente con una escala lo suficientemente estrecha como para ser de utilidad real para mis propósitos, pero la encuentro mucho menos simplista que ICOADS.

NARR utiliza una proyección cónica conforme de Lambert y estoy teniendo algunas dificultades para reproyectarla en forma de latitud larga. He consultado algunas otras publicaciones de foros similares, como R: ¿Cómo obtener latitudes y longitudes de un RasterLayer? , pero todavía estoy confundido con respecto a lo que realmente significan las sugerencias y si las estoy aplicando a mis propios datos correctamente.

Siguiendo el enlace anterior, utilicé esta codificación para rasterizar y reproyectar mi archivo de datos de precipitación (aquí está el enlace al archivo apcpc.2000.nc en caso de que alguien quisiera jugar con los datos: ftp: //ftp.cdc.noaa .gov / Conjuntos de datos / NARR / Dailies / monolevel /):

Parece que funciona bastante bien, pero supongo que lo que se supone que debo ingresar como el CRS inicial aquí. Simplemente tiene sentido intuitivo ingresar la referencia de coordenadas listada del ráster, pero el ejemplo en la publicación que he consultado no hace esto (usan: "+ proj = lcc + lat_1 = 48 + lat_2 = 33 + lon_0 = -100 + ellps = WGS84 "). Además, NARR establece que los límites de cobertura solo se extienden a aproximadamente 145 W y E y solo a 45-50 N; sin embargo, parece que tengo valores para todo el hemisferio norte. Esto podría deberse fácilmente a la cobertura actualizada, ya que se dijo hace varios años, pero sirve para alimentar mi preocupación de que me equivoqué en alguna parte.

Además, la trama no parece proporcionar la variable "tiempo" en ninguna parte. ¿Hay alguna forma de extraer esto también? Como hay 366 días en este archivo, sería molesto, pero no difícil, agregarlos más tarde basándose en pares de coordenadas repetidos.

Espero que alguien tenga experiencia con la base de datos NARR (o simplemente convierta lcc a long-lat) y pueda explicar si lo hice mal y cómo, y luego guiarme por el camino correcto.

*** ACTUALIZAR **** Trazar r.pts Longitud y Latitud revela que la codificación funciona bien para la reproyección deseada. Pero dejaré la publicación abierta en caso de que alguien pueda sugerir algo para la variable "tiempo".

No puedo ayudarte dentro de R, pero usar GDAL te lleva más lejos:

le dice que las dos primeras bandas contienen las coordenadas lat y lon, y están en grados WGS84:

Con el nombre correcto del subconjunto de datos, puede extraerlo a un Geotiff con una proyección diferente usando gdalwarp:

Esto funciona independientemente del CRS en los metadatos, porque -geoloc solo toma la información de coordenadas de las dos primeras bandas. Puede visualizar el resultado en cualquier software GIS:

Verá que los datos cruzan la línea de fecha, por lo tanto, la extensión en grados parece cubrir todo el hemisferio norte. En realidad, es solo entre 148 & # 176E y 5 & # 176W, pero el camino más largo.


Ytdjtkui

¿Debería un mago comprar tintas finas cada vez que quiera copiar hechizos en su libro de hechizos?

Cambiar el tamaño de las barras verticales (símbolos de valor absoluto)

Los AppleTV crean una red WiFi alternativa habladora

Conexión de Mac Book Pro 2017 a 2 proyectores a través de USB C

¿Cuál es la diferencia entre un "ataque a distancia" y un "ataque con arma a distancia"?

¿Cómo 'elige' la luz entre el comportamiento de ondas y partículas?

Si Windows 7 no es compatible con WSL, ¿qué es "Subsistema para aplicaciones basadas en UNIX"?

¿Qué adaptaciones permitirían a los enanos de fantasía estándar sobrevivir en el desierto?

¿Creando un cuerpo para el espíritu de un objeto mágico?

¿Cómo funcionan las matemáticas al comprar millas aéreas?

¿Cómo produjeron y llevaron los Fremen suficientes golpes para usar Sandworms como Ubers de facto?

¿Cuánto daño le haría a la Tierra una taza llena de materia de estrella de neutrones?

¿Cuál es la diferencia entre CTSS e ITS?

Convirtió una función escalar en una función TVF para ejecución paralela: aún se ejecuta en modo serie

No mostró toda la columna al exportar el archivo CSV mientras usaba Google Earth Engine

Unicorn Meta Zoo n. ° 1: ¿Por qué otro podcast? Contar el número de píxeles identificados como agua de una colección de imágenes de Landsat ¿Tratando de trazar y reducir regiones de imágenes con Google Earth Engine? Google Earth Engine: Exportar una colección completa Google Earth Engine, cómo distinguir entre ríos / arroyos y estanques / lagos en una máscara de agua Iterar un cálculo de Earth Engine (reductor) en todos los países del mundo: un ejemplo simple Aplicar un reductor sobre una característica muy grande ¿Usar Google Earth Engine para filtrar la imagen de Landsat Daytime? Exportar ráster sobre un bucle en Google Earth Engine Derivando la temperatura de Landsat (Google Earth Engine) Calculando intersección para dos colecciones de características

Estoy tratando de calcular las áreas de agua y las estadísticas de cada banda para cada área de agua para ver si hay cambios estacionales.

El archivo .csv exportado solo tiene las columnas ("GNIS_ID", "AreaSqKm", "waterArea") antes de unirse. Imprimí la variable, Unir, y tiene toda la columna que necesito. ¿Por qué no aparecieron en el archivo CSV exportado? ¿Me he perdido algo?

Bienvenido a GIS SE. Como nuevo usuario, realice el recorrido que enfatiza la importancia de hacer Una pregunta por pregunta. Edite su pregunta para centrarse en su pregunta más urgente.

Su título todavía tiene un "y" en él, esto indica varias preguntas

Lo siento, pensé que ya lo había borrado. Gracias por vigilar

Estoy tratando de calcular las áreas de agua y las estadísticas de cada banda para cada área de agua para ver si hay cambios estacionales.

El archivo .csv exportado solo tiene las columnas ("GNIS_ID", "AreaSqKm", "waterArea") antes de unirse. Imprimí la variable, Unir, y tiene toda la columna que necesito. ¿Por qué no aparecieron en el archivo CSV exportado? ¿Me he perdido algo?

Bienvenido a GIS SE. Como nuevo usuario, realice el recorrido que enfatiza la importancia de hacer Una pregunta por pregunta. Edite su pregunta para centrarse en su pregunta más urgente.

Su título todavía tiene un "y" en él, esto indica varias preguntas

Lo siento, pensé que ya lo había borrado. Gracias por vigilar

Estoy tratando de calcular las áreas de agua y las estadísticas de cada banda para cada área de agua para ver si hay cambios estacionales.

El archivo .csv exportado solo tiene las columnas ("GNIS_ID", "AreaSqKm", "waterArea") antes de unirse. Imprimí la variable, Unir, y tiene toda la columna que necesito. ¿Por qué no aparecieron en el archivo CSV exportado? ¿Me he perdido algo?

Estoy tratando de calcular las áreas de agua y las estadísticas de cada banda para cada área de agua para ver si hay cambios estacionales.

El archivo .csv exportado solo tiene las columnas ("GNIS_ID", "AreaSqKm", "waterArea") antes de unirse. Imprimí la variable, Unir, y tiene toda la columna que necesito. ¿Por qué no aparecieron en el archivo CSV exportado? ¿Me he perdido algo?

Bienvenido a GIS SE. Como nuevo usuario, realice el recorrido que enfatiza la importancia de hacer Una pregunta por pregunta. Edite su pregunta para centrarse en su pregunta más urgente.

Su título todavía tiene un "y" en él, esto indica varias preguntas

Lo siento, pensé que ya lo borré. Gracias por vigilar

Bienvenido a GIS SE. Como nuevo usuario, realice el recorrido que enfatiza la importancia de hacer Una pregunta por pregunta. Edite su pregunta para centrarse en su pregunta más urgente.

Su título todavía tiene un "y" en él, esto indica varias preguntas

Lo siento, pensé que ya lo había borrado. Gracias por vigilar

Bienvenido a GIS SE. Como nuevo usuario, realice el recorrido que enfatiza la importancia de hacer Una pregunta por pregunta. Edite su pregunta para centrarse en su pregunta más urgente.

Bienvenido a GIS SE. Como nuevo usuario, realice el recorrido que enfatiza la importancia de hacer Una pregunta por pregunta. Edite su pregunta para centrarse en su pregunta más urgente.


2 respuestas 2

  1. En Qgis, elija los elementos del menú Configuración - & # 62 Proyecciones personalizadas y el cuadro de diálogo Coordenadas personalizadas. aparece.

    2.En el cuadro de diálogo, presione el botón '+'.

3.Introduzca el nombre Shankar o lo que sea.

4.Introduzca la definición de su proyección como se muestra en la sección Parámetros del dial og.

5.Haga clic en Aceptar y elija Proyecto - & # 62Properties.

6. En el cuadro de diálogo Propiedades del proyecto, elija la pestaña CRS y seleccione la proyección Shankar recién generada.


7. Esa será la proyección de tu mapa.

  1. Si desea utilizar UTM 44 modificado para elipsoide personalizado en metros, debe proponer una definición como esta.
    + proj = tmerc + a = 6377301.243 + b = 6356100.2284 + lat_0 = 0 + lon_0 = 81 + k_0 = 0.9996 + x_0 = 500000 + y_0 = 0 + towgs84 = 295.00,736.00,257.00,0,0,0,0 + unidades = m + no_defs

Además, extravió los valores para el norte y el este. Noth - 27 y East 82

Sigo tus instrucciones a fondo. Desafortunadamente, la proyección de salida muestra / cambia en el sistema WGS84 (sistema de grados). El sistema de proyección funciona bien en la versión QGIS 2.18 pero no en QGIS 3.4.4. Es tan frustrante para mi. por favor

& # 8211 & # 160Shankar Prasad Gupta
5 de febrero a las 11:10

Proporcione algunos detalles que prueben su caso. Algunas capturas de pantalla.

Aquí he adjuntado algunas capturas de pantalla. en la figura 1, agrego la capa que está en la proyección de zona WGS84 / UTM 44N. En la figura 2, configuro la proyección personalizada, denominada UTM modificada para el centro de Nepal. En la figura 3, calculo el valor de la proyección de conversión, pero el resultado muestra lo mismo. En la figura 4, en las propiedades del proyecto, configuro la proyección del proyecto en una proyección personalizada, es decir, UTM modificado para el centro de Nepal. En la figura 5, la proyección de la capa no cambia en la proyección deseada, cambia automáticamente al sistema WGS84 solamente.

& # 8211 & # 160Shankar Prasad Gupta
6 de febrero a las 7:17

He descubierto una definición de su UTM 44 modificado (mire mi respuesta) pero, por supuesto, debería verificarlo.

Gracias. Finalmente obtuve la solución y la siguiente cadena de proyección funciona bien:


+ proj = tmerc + lat_0 = 0 + lon_0 = 84 + k = 0.9999 + x_0 = 500000 + y_0 = 0 + a = 6377276.345 + b = 6356075.41314024 + towgs84 = 296.207,731.545,273.001,0,0,0,0 + unidades = m



1 respuesta 1

Lo estás haciendo bien, en la mayor parte. dado que sus polígonos podrían estar en cualquier lugar de la tierra, debe usar un sistema de coordenadas que use metros como unidad y cubra toda la tierra, el mejor ajuste sería el pseudo mercator 'epsg: 3857'

simplemente reemplace la proyección que elija con esta y debería estar bien

Hicham Zouarhi, ¡gracias por tu respuesta! Probé proyecciones EPSG: 3857 y EPSG: 26944 en 2 polígonos pequeños (de menos de 5 m de diámetro cada uno) en California, para EPSG: 26944 dio una distancia de 191 m entre polígonos, mientras que para EPSG: 3857 fue de 249 m. Esto me parece una gran diferencia :( ¿Alguna idea de por qué y cómo obtener algo más preciso (que funcionaría en cualquier parte del mundo)? Por cierto, traté de medir la distancia entre los centroides de esos polígonos usando la distancia great_circle del módulo geopy, tenía alrededor de 193 m, por lo que coincide con los resultados de la proyección EPSG: 26944.

Los polígonos que estaba probando son: polygon1 = [(-121.483071, 39.702249), (-121.483071, 39.702231), (-121.483035, 39.702231)] polygon2 = [(-121.483361, 39.700525), (-121.483361), 39.700 121,483380, 39,700507)]


Una colección del último software ArcGIS con todas las funciones para uso de los estudiantes.

¿Qué hay de nuevo en ArcGIS Desktop?

ArcGIS Desktop es la aplicación GIS de escritorio insignia de Esri para mapear, analizar y administrar datos geoespaciales. Mejoramos constantemente ArcGIS Desktop para que pueda visualizar mejor los datos espaciales 2D y 3D, editar y analizar datos y conectarse en todo el sistema ArcGIS.

ArcMap (con ArcCatalog) es la aplicación de edición y creación de SIG tradicional líder en la industria. Si bien continuaremos lanzando y respaldando ArcMap, nuestro enfoque de desarrollo e innovación está en ArcGIS Pro. Las nuevas versiones de ArcMap proporcionan parches, actualizaciones y nuevas certificaciones ambientales.

¿Qué extensiones están disponibles para ArcGIS Desktop?

Las siguientes extensiones están disponibles para ArcGIS Desktop:

  • ArcGIS 3D Analyst 1
  • Aeropuertos de aviación de ArcGIS
  • Gráficos de aviación de ArcGIS
  • Batimetría de ArcGIS
  • ArcGIS Business Analyst 2
  • Interoperabilidad de datos de ArcGIS 1
  • Revisor de datos de ArcGIS 1
  • Analista geoestadístico 1 de ArcGIS
  • ArcGIS Image Analyst 1,2
  • ArcGIS LocateXT 1
  • ArcGIS Maritime
  • ArcGIS Network Analyst 1
  • Referenciación de canalizaciones de ArcGIS
  • ArcGIS Publisher 1
  • Carreteras y carreteras de ArcGIS
  • Esquemas de ArcGIS 1
  • ArcGIS Spatial Analyst 1
  • Analista de seguimiento de ArcGIS 1
  • Administrador de flujo de trabajo de ArcGIS 1
  • Mapeo de defensa de ArcGIS
  • Mapeo de producción de ArcGIS

Las extensiones con licencia para ArcGIS Desktop se pueden usar con ArcGIS Pro y ArcMap (según estén disponibles).

1 Incluido en el paquete de todas las extensiones de ArcGIS Desktop

2 Disponible solo para ArcGIS Pro

¿Cómo obtengo ArcGIS Pro?

ArcGIS Pro se incluye con ArcGIS Desktop. Cuando esté al día con el mantenimiento de ArcGIS Desktop, tendrá acceso a ArcGIS Pro. Puede descargar ArcGIS Pro desde My Esri.

¿Cuáles son las opciones de licencia para ArcGIS Desktop?

ArcGIS Desktop tiene licencia tanto por nivel de licencia como por tipo de licencia.

Los mismos niveles de licencia (Básico, Estándar y Avanzado) se aplican a las dos aplicaciones de ArcGIS Desktop: ArcGIS Pro y ArcMap.

Los tres tipos de licencia son de uso único, uso concurrente y usuario nominal (solo ArcGIS Pro).

  • Una licencia de uso único permite que un usuario instale y use ArcGIS Desktop en una computadora.
  • Una licencia de uso concurrente permite instalar ArcGIS Desktop en cualquier computadora. El uso de las aplicaciones por parte de varios usuarios se gestiona a través de un administrador de licencias en una computadora en red.
  • Una licencia de usuario nominal permite que ArcGIS Pro sea utilizado por una persona con credenciales que inicie sesión en la aplicación en cualquier equipo donde esté instalado. Actualmente, el tipo de licencia de Usuario designado solo está disponible para ArcGIS Pro y no para otras aplicaciones de ArcGIS Desktop.

Al igual que con el nivel de licencia, usted elige el tipo de licencia para cada licencia de ArcGIS Desktop que adquiera. Puede adquirir tipos y niveles de licencia en cualquier combinación. Por ejemplo, puede comprar cinco licencias de uso único avanzado de ArcGIS Desktop, tres licencias de uso único estándar de ArcGIS Desktop y una licencia de uso único básico de ArcGIS Desktop.

Cuando compra una licencia de ArcGIS Desktop para usar con ArcMap, debe ser de uso concurrente o de uso único. Con cada uno de estos, se proporciona una licencia de usuario nominal para ArcGIS Pro y se utiliza con ArcGIS Pro de forma predeterminada. Sin embargo, las licencias de usuario nominal de ArcGIS Pro se pueden convertir a uso único o concurrente según el tipo de licencia adquirido para ArcGIS Desktop.

¿Qué recursos están disponibles para ayudarme a comenzar con ArcGIS Pro?

  • Hay más de 200 recursos relacionados con ArcGIS Pro en el sitio de formación de Esri, incluidos seminarios, cursos web, formación dirigida por un instructor y tutoriales.
  • El sitio de Learn ArcGIS también tiene muchas lecciones sobre el uso de ArcGIS Pro, incluida una excelente lección de introducción.
  • Hay videos disponibles en YouTube creados por Esri y Esri Canadá.
  • El blog Getting Technical de Esri Canada incluye publicaciones frecuentes sobre temas relacionados con ArcGIS Pro.
  • El Blog de ArcGIS y GeoNet tienen una amplia gama de contenido y una comunidad activa en torno a ArcGIS Pro.
  • Para aquellos de ustedes que prefieren aprender de los libros, Esri Press tiene varios títulos que incluyen Cambiar a ArcGIS Pro desde ArcMap, Introducción a ArcGIS Pro y Comprensión de SIG: un libro de trabajo de proyecto de ArcGIS Pro.
  • El completo sistema de ayuda en línea de ArcGIS Pro también está disponible para todos.
  • Si está buscando migrar sus herramientas personalizadas de ArcMap a ArcGIS Pro, consulte estos recursos para desarrolladores.

¿Cómo puedo personalizar y ampliar ArcGIS Pro?

Hay muchas formas de configurar, automatizar y ampliar ArcGIS Pro según sus necesidades:

  • Configure las herramientas y botones que aparecen en las pestañas de la cinta y la barra de herramientas de acceso rápido en la aplicación. En la versión 2.4, puede guardar y compartir archivos de personalización de la interfaz de usuario (UI).
  • Crea y comparte tareas. Las tareas le permiten crear un flujo de trabajo personalizado completo con pasos e instrucciones que puede compartir con otras personas que realizan el mismo tipo de trabajo. Las tareas garantizan que todos los que las utilicen realizarán un flujo de trabajo coherente y realizarán el trabajo más rápido.
  • Utilice ArcPy, un paquete de sitio de Python, para automatizar el análisis y el mapeo. Puede usar Python, por ejemplo, para crear una herramienta de secuencia de comandos que realice análisis complejos, o el paquete ArcPy.mp para crear un diseño de mapa automatizado que se actualice según el contenido del mapa. La automatización a través de Python puede reducir en gran medida las horas dedicadas al procesamiento redundante y las actividades necesarias para crear mapas.
  • Desarrolle complementos con ArcGIS Pro SDK para Microsoft .NET Framework para crear una interfaz de usuario de ArcGIS Pro personalizada y una experiencia de usuario para su organización. Con ArcGIS Pro SDK para .NET, puede crear sus propias herramientas y flujos de trabajo personalizados dentro de Microsoft Visual Studio utilizando la potente API y las plantillas de SDK fáciles de usar en ArcGIS Pro. Hay tres patrones de personalización principales: complementos, configuraciones de soluciones y fuentes de datos de complementos, y todos son fáciles de compartir e implementar. Las actualizaciones de ArcGIS Pro SDK for .NET se incluyen con cada versión de ArcGIS Pro, y hay muchas mejoras de API nuevas disponibles en la versión 2.4. Puede obtener más información en el documento conceptual & quotMigración a ArcGIS Pro & quot.

¿Cuál es la importancia de Arcade como lenguaje de programación multiplataforma?

Necesitábamos un lenguaje de secuencias de comandos portátil y seguro que le permitiera realizar expresiones en la plataforma ArcGIS de manera coherente. Después de investigar otros lenguajes de secuencias de comandos, incluidos JavaScript y Python, descubrimos que para satisfacer esta necesidad, necesitábamos escribir nuestro propio lenguaje de secuencias de comandos para asegurarnos de que fuera seguro y proporcionara funciones de mapeo comunes. Este lenguaje de secuencias de comandos se llama Arcade. Arcade le permite escribir una expresión y asegurarse de que funcionará de la misma manera en ArcGIS Pro, mapas y capas web, y aplicaciones web, así como aplicaciones creadas con ArcGIS Runtime SDK. Por ejemplo, una expresión de Arcade podría usarse para realizar una operación matemática en un atributo cuyo resultado impulsa una propiedad de un símbolo. Esta expresión funcionará igual y proporcionará el mismo resultado en todas las aplicaciones y dispositivos. Además, desde que escribimos el lenguaje, hemos podido incluir funciones simplificadas para realizar tareas que son comunes en el mapeo. Por ejemplo, la función Proper se puede usar para convertir una cadena en mayúsculas y minúsculas (una letra inicial mayúscula seguida de minúsculas), que es una función muy útil para los cartógrafos.

¿Se puede virtualizar ArcGIS Pro?

sí. ArcGIS Pro se puede utilizar en entornos virtualizados, tanto en las instalaciones como en la nube, con gran éxito. Esri comprende la importancia de la tecnología de virtualización para nuestros usuarios. ArcGIS Pro está ampliamente probado y es compatible con todos los principales entornos de virtualización, incluidos Citrix XenDesktop, Microsoft Hyper-V VDI y VMware Horizon View. Trabajamos en estrecha colaboración con los principales proveedores de virtualización en las instalaciones, incluidos Microsoft, VMware y Citrix, y los principales proveedores de hardware, incluido Dell. También nos asociamos estrechamente con NVIDIA, cuyas GPU (unidades de procesamiento de gráficos) de estación de trabajo de escritorio virtual y la tecnología de hipervisor GRID Manager son importantes para virtualizar ArcGIS Pro.

ArcGIS Pro también se puede utilizar con soluciones de virtualización y transmisión de aplicaciones basadas en la nube, como Amazon AppStream y Frame.

Probamos ArcGIS Pro en una variedad de entornos y configuraciones de virtualización para comprender y proporcionar la información más reciente sobre cómo obtener la mejor densidad de VM / servidor y brindar una experiencia de usuario óptima.

La información más reciente se puede encontrar en la página Requisitos del sistema de ArcGIS Pro. También puede obtener más información al revisar la documentación de virtualización de ArcGIS Pro.

Esri se ha asociado con NVIDIA, VMware y Dell para proporcionar el dispositivo de virtualización ArcGIS Desktop. Este es un servidor que se ha probado exhaustivamente para determinar los flujos de trabajo de los usuarios, la cantidad de máquinas virtuales y las experiencias de los usuarios que están disponibles con este servidor. La configuración se actualiza constantemente para ofrecer la mejor densidad y experiencia de usuario posibles.

¿Qué entornos virtualizados son compatibles con ArcGIS Pro?

ArcGIS Pro es compatible con los entornos virtuales Citrix XenDesktop, VMware (Horizon View) y Microsoft (Hyper-V VDI). La página Requisitos del sistema de ArcGIS Pro proporciona una lista de todos los entornos de virtualización compatibles. Revisamos y actualizamos constantemente esta página para brindarles a nuestros usuarios la información más actualizada. Debido a que la tecnología de virtualización está cambiando y evolucionando tan rápidamente, es importante consultar la página de Requisitos del sistema de ArcGIS Pro y la etiqueta de ArcGIS Pro en el Blog de ArcGIS con frecuencia.


Ver el vídeo: PYTHON IN ARC GIS #4CREATE CONTOUR FROM DEMRASTER FOR GIVEN CONTOUR INTERVAL IN ARC GIS