Más

Extracción de datos de ArcGIS Server: el trabajo no existe o es inaccesible

Extracción de datos de ArcGIS Server: el trabajo no existe o es inaccesible


Seguí la documentación y el video para configurar un servicio de geoprocesamiento de extracción de datos, al que estoy accediendo con ArcGIS Viewer for Flex (v. 2.3.1). Cuando ejecuto el widget Extraer datos en el visor, aparece un error: el trabajo '(nombre de la carpeta del trabajo)' no existe o es inaccesible. Cuando voy a la carpeta arcgisjobs en el servidor, la carpeta está allí, junto con la carpeta temporal y el archivo .zip de salida que contiene los datos que se recortaron. Según el archivo messages.xml de la carpeta temporal, el trabajo finaliza correctamente.

He comprobado los registros de ArcGIS Server y Windows y no he encontrado nada obvio que apunte a un problema. Los permisos de carpeta deben ser correctos, ya que la tarea puede crear la carpeta de trabajo, recortar los datos y crear la carpeta .zip de salida. La tarea se ejecutará correctamente cuando se utilice a través de ArcGIS Desktop.

Entonces, ¿alguien ha experimentado un comportamiento similar con la herramienta de extracción de datos o cualquier otra tarea de GP? ¿Alguna idea de dónde puedo buscar a continuación?

Ambiente:
ArcGIS Server 10, .NET, SP2: instalación distribuida
ArcGIS Desktop 10, SP2
Windows Server 2008 x64 R2
Gracias, tim

Actualizar:
Hice algunas pruebas hoy (en Firefox) y encontré algunas cosas más:
1. El Servicio GP no de vez en cuando trabajo, parece. Cada pocos intentos, recibo un mensaje para descargar los datos extraídos, solo para obtener una violación de la zona de pruebas de seguridad:
http: //SERVIDOR IP/Samples/DataExtract/Flex/widgets/DataExtract/DataExtractWidget.swf no puede cargar datos desde http: //NOMBRE DEL SERVIDOR/arcgisjobs/sumner.dataextract_gpserver/j77643b1b114e458f82e6f416262aaf58/scratch/output.zip.
2. Cuando se me solicita que descargue el archivo, Firebug muestra que no puede descargar mi archivo crossdomain.xml. Muestra la dirección como http: //NOMBRE DEL SERVIDOR/crossdomain.xml

En ambos casos, está intentando acceder a una URL de nombre de servidor http: // y no puede llegar allí. El problema es que no puedo averiguar de dónde obtiene esta URL. Intenté modificar las URL del directorio virtual y volver a publicar los servicios utilizando la IP de ArcGIS Server en lugar del nombre de la máquina, sin cambios en el comportamiento.


Si es el script en el que estoy pensando, el directorio de trabajos está codificado en el script. Abra el script y asegúrese de que el directorio de trabajos en el script se alinee con lo que tiene en su entorno.

Por lo que ha dicho, parece que el trabajo se está completando correctamente, simplemente está devolviendo la URL incorrecta a FlexApp para descargar el archivo .zip.


Tengo una configuración distribuida AGS10 SP2 que parece similar a la suya. He estado desarrollando un servicio PDF basado en ArcPy.Mapping Simple ExportToPDF Geoprocessing Service Example y me encuentro con el mismo mensaje "Job xx no existe o es inaccesible".

En mi caso, parece ser una cuestión de tiempo: la tarea se completa pero el proceso intenta acceder a los resultados antes de que se puedan mover del SOC a la carpeta de trabajos del SOM.

Una solución temporal es interceptar el error específico, extraer el JobID y realizar una llamada para recuperar el PDF generado:

function gpError (e) {if (e.message.search ("no existe o es inaccesible")> -1) {var jobId = e.message.replace (/ Job '([az, 0-9] *) 'no existe o es inaccesible  ./, "$ 1"); gp.getResultData (jobId, "Output_PDF"); } else {showDialog (dojo.string.substitute ('

Error: $ {error}

', {error: e.message})); }}

Definitivamente, esto no es algo que pondría en producción, pero me permite solucionar el error y continuar con el trabajo de desarrollo mientras espero que ESRI resuelva el problema.


Privacidad de Kingston Data Traveler Vault: más intentos de contraseña

La unidad USB Kingston Data Traveler Vault Privacy tiene una cantidad predeterminada de 10 entradas de contraseña antes de que se borre. Me quedo con uno y la pregunta es si alguno de los dos enfoques siguientes me permitirá realizar más intentos para escribir la contraseña (debería saber cuál es la correcta, solo ha pasado mucho tiempo desde que la configuré). No pretendo usar la fuerza bruta.

copie los datos cifrados de la unidad y realice el descifrado fuera de la unidad

copie los datos encriptados como una copia de seguridad, ingrese la contraseña en la unidad, permita que se formatee y luego copie los datos respaldados en la unidad nuevamente

aprender la representación AES de la contraseña almacenada e intentar adivinar la contraseña fuera del entorno de la unidad e ingresar la contraseña correcta solo después de que se haya encontrado la representación AES correspondiente


6 respuestas 6

Soy de Crossref. El DOI siempre debe resolverse en alguna ubicación, incluso si el contenido se ha movido de ubicación en la web o ha cambiado de editor. ¿Puede compartir el ejemplo para que podamos informarlo? Es posible que no sea un DOI Crossref, por supuesto (hay varias otras agencias DOI), pero puedo averiguarlo en el DOI. El prefijo a menudo denota un editor en particular, pero las revistas cambian de manos con frecuencia a medida que las sociedades negocian diferentes acuerdos de publicación, por lo que no es necesariamente una forma segura de resolver el problema (¡que estoy de acuerdo no debería ser su problema!). Feliz de ayudar si comparte el (los) ejemplo (s) :-)

También soy de Crossref. Los enlaces DOI rotos no son buenos y tratamos de solucionarlos. Si obtiene la página de error & quot DOI Not Found & quot, por ejemplo, al seguir este enlace, https://doi.org/10.15680/IJIRSET.2019.0806081, significa que el DOI no se ha registrado. Si completa el formulario, este error se informa a la agencia de registro correspondiente. En el caso de Crossref, notificamos al editor del error y le pedimos que solucione el problema; por lo general, se soluciona, pero si el editor ha dejado de funcionar o ya no es miembro de Crossref, es posible que el enlace no se pueda solucionar. Cuando existen arreglos de archivo, el DOI puede redirigirse a copias archivadas del contenido.

Si bien no son tan volátiles como las URL, los DOI aún pueden revocarse o dejar de estar disponibles.

En su caso, considere si existe la posibilidad de que el DOI vuelva a estar disponible (puede haber dificultades técnicas con el host) o si hay otra fuente disponible (otro DOI). Personalmente, incluiría el DOI en la bibliografía y enviaría un mensaje al autor (es) o al proveedor (este no debería ser tu problema para resolverlo).

Todos los DOI accesibles se pueden buscar con Crossref (búsqueda por título, autor, DOI y otros metadatos).

Si bien los DOI son muy convenientes, es posible que en realidad no sean un problema si están rotos. Por lo general, las citas incluyen el nombre de los autores, el nombre de la revista, el número de la revista, el año y posiblemente la referencia de la página y el título del artículo. Solo con esta información debería poder encontrar un artículo referenciado utilizando el método tradicional. Por lo tanto, los DOI pueden considerarse un servicio de conveniencia con consecuencias no demasiado grandes si se rompen. Otro "servicio" conveniente es preguntarle a un bibliotecario de su institución si tiene dificultades para encontrar una fuente de referencia.

Además, tenga en cuenta que un DOI simplemente puede contener un error tipográfico y, por lo tanto, no puede resolverse correctamente. Por supuesto, esto también puede suceder con las referencias tradicionales, pero suele ser más fácil ver que el artículo de & quotNautre & quot se publica en & quotNature & quot.

Por último, me gustaría señalar que Internet tiene otras herramientas para resolver DOI que los sitios web habituales. Por ejemplo, puedo encontrar fácilmente el artículo que mencionaste en los comentarios usando un motor de búsqueda normal en Internet.

Esta respuesta se deriva parcialmente de otras respuestas y comentarios para esta pregunta:

Respuesta a la pregunta 1

A pesar de que los DOI debería permanecen operativos / accesibles, existen diferentes razones por las que pueden volverse inaccesibles:

Algunas editoriales pueden desaparecer con el tiempo. En este caso, se puede contactar a una autoridad DOI para reportar el DOI roto.

Es posible que un editor se haya fusionado con otro editor. En caso de que dicho DOI no funcione, se puede notificar al editor o una autoridad del DOI. Por lo general, el nuevo editor puede solucionarlo.

Algunos artículos pueden ser revocados después de su publicación. En este caso, se debe contactar a una autoridad DOI para que el DOI no se vincule a una URL que, p. No existe más.

Un dominio de un editor puede estar inactivo temporalmente. Este caso se puede probar cargando otras páginas web del mismo editor. Si varias páginas están inactivas al mismo tiempo, es recomendable esperar algunas horas y luego volver a verificar el estado del dominio. Un poco de paciencia podría resolver este problema.

Puede existir un problema técnico con un sitio web específico del dominio del editor. P.ej. el contenido podría haberse movido a una ubicación / dirección diferente. Esto puede comprobarse comprobando otras páginas web del mismo editor. Si funcionan correctamente, lo más probable es que un sitio web específico tenga algún problema que deba solucionar el editor. Por lo tanto, se debe informar al editor.

A veces, cuando se publicaron artículos recientemente, es posible que el DOI ya exista, pero el artículo aún no está disponible. En el caso de trabajos muy recientes, solo un poco de paciencia puede resolver este problema, hasta que el contenido se cargue correctamente.

Algunos artículos también pueden ser falsos o el editor puede proporcionar artículos de baja calidad. En caso de que un DOI sea inaccesible, puede ser útil verificar la confiabilidad de un editor:

  • ¿Es una editorial bastante desconocida?
  • ¿El sitio web parece sospechoso?
  • ¿Hay muchos errores tipográficos en los artículos o en el dominio web del editor?
  • ¿El editor ha publicado artículos solo para, por ejemplo, 1 o 2 años?
  • ¿Hay varios artículos con DOI inaccesibles de esta editorial?
  • ¿Puedes encontrar otras inconsistencias?
  • Opcional y no recomendado en general: ¿Este artículo nunca ha sido citado por otro autor o por muy pocos autores (recuento de citas)? Esta no es una recomendación general, ya que cada artículo nuevo debe comenzar con un recuento de citas de cero. Además, no siempre es perfectamente transparente cómo los sistemas existentes crean los recuentos de citas. Los diferentes sistemas pueden informar diferentes recuentos de citas. Además, el recuento de citas difícilmente será completamente exacto. Si se considera, esto solo debe verse como un pequeño indicador en combinación con otros criterios.

Cuantas más preguntas se puedan responder con un sí, más sospechoso es que el editor pueda ser fraudulento. También puede suceder que este editor sea un editor de "baja calidad", que proporcione artículos de baja calidad, sin un proceso de revisión por pares extendido. En cualquier caso mencionado, se recomienda considerar la búsqueda de artículos alternativos, probablemente también de otras editoriales, si es posible.

El DOI apunta al papel equivocado. Si un DOI apunta a un documento o contenido incorrecto, se debe informar a una autoridad del DOI.

Es posible que exista algún error tipográfico en el DOI. Finalmente, también es posible que haya un error tipográfico en el DOI dado.


Fuentes de datos H-K

Fuente de datos Conectarse desde el escritorio Conectarse y actualizarse del servicio Conexión DirectQuery / Live Puerta de enlace (compatible) Gateway (requerido) Flujos de datos de Power BI
Archivo Hadoop (HDFS) No No No No No
Hive LLAP No No
Consulta interactiva de HDInsight No No No
IBM DB2 No
Base de datos IBM Informix No No No
IBM Netezza No
Impala
Indexima No
Tienda de aplicaciones industrial No No No No
Cuadrícula de información No No No No
Intersystems IRIS No
Almacén de datos de Intune No No No No
Jethro ODBC No
JSON No Sí** Numero 3
Kyligence Enterprise No

Seguridad informática para tecnologías de recopilación de datos ☆

Muchas organizaciones del mundo en desarrollo (por ejemplo, ONG) incluyen la recopilación de datos digitales en su flujo de trabajo. Los datos recopilados pueden incluir información que puede considerarse confidencial, como datos médicos o socioeconómicos, y que podría verse afectada por ataques a la seguridad informática o mal manejo involuntario. Las actitudes y prácticas de las organizaciones que recopilan datos tienen implicaciones para confidencialidad, disponibilidad, y integridad de datos. Este trabajo, una colaboración entre la seguridad informática y los investigadores de ICTD, explora las actitudes, prácticas y necesidades de seguridad y privacidad dentro de las organizaciones que utilizan Open Data Kit (ODK), una destacada plataforma de recopilación de datos digitales. Realizamos un detallado modelado de amenazas ejercicio para informar nuestra opinión sobre posibles amenazas a la seguridad, y luego realizar y analizar una encuesta y entrevistas con expertos en tecnología en estas organizaciones para basar este análisis en experiencias de implementación reales. Luego reflexionamos sobre nuestros resultados, extrayendo lecciones tanto para las organizaciones que recopilan datos como para los desarrolladores de herramientas.


Dado que TDE se basa en un certificado almacenado en el maestro (que se utiliza para cifrar la clave de cifrado de la base de datos), esto solo funcionaría Si podría restaurar la base de datos maestra en otro servidor de tal manera que el certificado pueda ser descifrado.

Esta es la jerarquía de cifrado TDE:

  1. Llave maestra de servicio (protegida por Windows vinculada a las credenciales de la cuenta de servicio y una llave de máquina)
  2. Clave maestra de la base de datos (en este caso, la de la base de datos maestra)
  3. Certificado
  4. Clave de cifrado TDE

Los primeros tres elementos se almacenan en la base de datos maestra y se puede realizar una copia de seguridad de todos ellos. El cuarto se almacena (encriptado por el certificado del n. ° 3) en el encabezado de la base de datos encriptada.

Entonces, en un escenario de falla, tendría que restaurar suficiente jerarquía de cifrado para permitirle leer la clave TDE. SQL Server crea la clave maestra del servicio en la instalación, por lo tanto, mientras se restaura la base de datos maestra en una instancia diferente, también se restaurarán los elementos 2 y 3, las claves necesarias para descifrarlas no estarán presentes. Resultado: datos ilegibles.

Las dos mejores opciones son restaurar el certificado (n. ° 3) desde una copia de seguridad (una buena opción si el maestro no se puede restaurar por cualquier motivo) o restaurar su base de datos maestra y su clave maestra (n. ° 2) desde una copia de seguridad. Restaurar la clave maestra puede ser una mejor opción si tiene muchos certificados / claves protegidos por esta clave y necesita hacerlos accesibles a todos a la vez. Esto viene con las mismas precauciones normalmente asociadas con la restauración de la base de datos maestra (intercalaciones, inicios de sesión, nombres de bases de datos y rutas de archivos, etc.)

Generalmente, solo recomendaría restaurar el maestro en un escenario de recuperación. Para un escenario de migración / escalamiento horizontal (como el uso de grupos de disponibilidad / duplicación con una base de datos encriptada con TDE), es mejor hacer una copia de seguridad / restaurar el certificado (n. ° 3) para que esté encriptado usando las claves maestras únicas para cada instancia que se está moviendo a. Deberá incluir la clave privada con la copia de seguridad del certificado.

En cualquier caso, tendrá que hacer copias de seguridad de claves / certificados, así que guárdelas bien y guárdelas en ubicaciones seguras y redundantes. Simplemente tener una copia de seguridad del maestro no Para salir de un desastre de TDE, necesitará una copia de seguridad de al menos una clave o certificado.


Integración de Big Data

Herramientas de inteligencia empresarial

Inteligencia empresarial estructurada

Junto con el almacén de datos, los almacenes de datos son las herramientas tradicionales de inteligencia empresarial que operan principalmente sobre datos estructurados en bases de datos relacionales. Las herramientas tradicionales de inteligencia empresarial se vuelven más poderosas que nunca cuando se alimentan los datos en un formato estructurado apropiado desde las fuentes de datos no estructuradas a través del servidor de virtualización de datos.

Buscar inteligencia empresarial

Es fundamental para la arquitectura de big data la inclusión de herramientas para administrar documentos y correo electrónico, incluidas herramientas de inteligencia empresarial centradas en el análisis de estos datos, lo que comúnmente se conoce como tipo de análisis de "búsqueda". Las herramientas de análisis de búsqueda pueden acceder a datos de muchos tipos y en muchas ubicaciones.

Inteligencia empresarial de Hadoop y MapReduce

En muchos casos, "big data" y Hadoop se utilizan como sinónimos. Como parte del conjunto de soluciones de Hadoop, MapReduce se utiliza generalmente para la orquestación y el análisis de los datos almacenados en el sistema de archivos de Hadoop.

Visualización

Las herramientas de visualización de datos para presentar cantidades masivas de información se utilizan en comparación con los datos de la mayoría de los centros de datos intermedios, incluidos los almacenes de datos, los flujos de datos y Hadoop.


Detectando centros de población en Nigeria

Algoritmul interesante & # 8230 de citit. Mai jos se afla si un link cu sursele de date, pentru cei care vor sa afle mai multe sau sa experimenteze direct.

Hay grandes regiones del planeta que (aunque habitadas) permanecen sin cartografiar hasta el día de hoy. DigitalGlobe ha lanzado campañas de crowdsourcing para detectar centros de población remotos en Etiopía, Sudán y Swazilandia en apoyo a las iniciativas de vacunación y distribución de ayuda de las ONG. gente, pero inaccesible.

El crowdsourcing para la detección de aldeas es preciso pero lento. Los ojos humanos pueden detectar fácilmente edificios, pero les lleva un tiempo cubrir grandes extensiones de tierra. En el pasado, hemos combinado el crowdsourcing con el aprendizaje profundo en GBDX para detectar y clasificar objetos a escala. Este es el enfoque: recopile muestras de entrenamiento de la multitud, entrene una red neuronal para identificar el objeto de interés y luego implemente el modelo entrenado en áreas grandes.

En el contexto de una reciente campaña de mapeo de población a gran escala, nos enfrentamos a la pregunta habitual. ¿Encontrar edificios con la multitud o entrenar una máquina para hacerlo? Esto llevó a otra pregunta: ¿se puede entrenar la red neuronal convolucional (CNN) que entrenamos para encontrar piscinas en Adelaida para detectar edificios en Nigeria?

Para responder a esta pregunta, elegimos un área de interés en el noreste de Nigeria, en la frontera con Níger y Camerún. La biblioteca de imágenes de DigitalGlobe proporcionó el contenido requerido: nueve tiras de imágenes WorldView-2 y dos GeoEye-1 recopiladas entre enero de 2015 y mayo de 2016.

Seleccionamos cuatro tiras WorldView-2, las dividimos en chips cuadrados de 115 m por lado (250 píxeles a la resolución del sensor) y le pedimos a nuestra multitud que las etiquetara como "Edificios" o "No edificios". De esta manera, obtuvimos datos etiquetados para entrenar la red neuronal.

Luego, el modelo entrenado se implementó en el resto de las tiras. Esto implicó dividir cada imagen en chips del mismo tamaño que aquellos en los que entrenamos, luego hacer que el modelo clasificara cada chip individual como "Edificios" o "Sin edificios".

El resultado: un archivo que contiene todas las fichas clasificadas como "Edificios" o "No edificios", junto con una puntuación de confianza en cada clasificación.

Resultados

A continuación, se muestran ejemplos de clasificaciones del modelo:

La intensidad del verde es proporcional a la confianza del modelo en presencia de un edificio. Es evidente que la confianza aumenta con la densidad de edificios. ¡El modelo está haciendo su trabajo!

¿Qué está aprendiendo realmente la red neuronal? A continuación se muestran ejemplos de salidas de capas ocultas producidas durante la clasificación de un chip que contiene edificios. Tenga en cuenta que a medida que el chip es procesado por capas sucesivas, las ubicaciones de los edificios se iluminan cada vez más, lo que lleva a una decisión de alta confianza de que el chip contiene edificios.

Aquí hay una muestra más grande de los resultados. Una revisión rápida en los mapas de Google muestra que la mayoría de estos pueblos no están en el mapa.

Entonces, para responder a nuestra pregunta original: sí, la misma arquitectura de red neuronal utilizada con éxito para detectar piscinas en un entorno suburbano en Australia puede usarse para detectar edificios en el desierto de Nigeria. El modelo entrenado puede clasificar aproximadamente 200000 chips (un poco más de 3000 km2) en una instancia de Amazon equipada con GPU. GBDX permite el despliegue paralelo del modelo en un número arbitrario de franjas, lo que hace que el mapeo de centros de población a escala continental sea una realidad.

Puede encontrar la historia completa aquí y un enlace al mapa de resolución completa para un subconjunto del área de interés aquí.

Compartir este:

Como esto:


Procesos y prácticas de garantía de seguridad

La garantía de aislamiento de Azure se ve reforzada por el uso interno de Microsoft del ciclo de vida de desarrollo de seguridad (SDL) y otros procesos sólidos de garantía de seguridad para proteger las superficies de ataque y mitigar las amenazas. Microsoft ha establecido procesos y herramientas líderes en la industria que brindan una gran confianza en la garantía de aislamiento de Azure.

  • Ciclo de vida de desarrollo de seguridad (SDL) - Microsoft SDL introduce consideraciones de seguridad y privacidad en todas las fases del proceso de desarrollo, lo que ayuda a los desarrolladores a crear software altamente seguro, abordar los requisitos de cumplimiento de seguridad y reducir los costos de desarrollo. La guía, las mejores prácticas, las herramientas y los procesos de Microsoft SDL son prácticas que se utilizan internamente para crear todos los servicios de Azure y crear productos y servicios más seguros. Este proceso también se documenta públicamente para compartir los aprendizajes de Microsoft con la industria en general e incorporar comentarios de la industria para crear un proceso de desarrollo de seguridad más sólido.
  • Herramientas y procesos - Todo el código de Azure está sujeto a un amplio conjunto de herramientas de análisis tanto estáticas como dinámicas que identifican vulnerabilidades potenciales, patrones de seguridad ineficaces, corrupción de memoria, problemas de privilegios de usuario y otros problemas críticos de seguridad.
    • Fuzzing especialmente diseñado - Una técnica de prueba utilizada para encontrar vulnerabilidades de seguridad en productos y servicios de software. Consiste en alimentar repetidamente datos modificados o borrados a las entradas de software para desencadenar bloqueos, excepciones y bloqueos, es decir, condiciones de falla que un atacante podría aprovechar para interrumpir o tomar el control de aplicaciones y servicios. Microsoft SDL recomienda eliminar todas las superficies de ataque de un producto de software, especialmente aquellas superficies que exponen un analizador de datos a datos que no son de confianza.
    • Pruebas de penetración en el sitio en vivo - Microsoft realiza pruebas continuas de penetración en el sitio en vivo para mejorar los controles y procesos de seguridad en la nube, como parte del programa Red Teaming que se describe más adelante en esta sección. Las pruebas de penetración son un análisis de seguridad de un sistema de software realizado por profesionales de seguridad capacitados que simulan las acciones de un pirata informático. El objetivo de una prueba de penetración es descubrir vulnerabilidades potenciales resultantes de errores de codificación, fallas de configuración del sistema u otras debilidades de implementación operativa. Las pruebas se realizan en la infraestructura y las plataformas de Azure, así como en los propios inquilinos, aplicaciones y datos de Microsoft. Los inquilinos de los clientes, las aplicaciones y los datos alojados en Azure nunca son el objetivo; sin embargo, los clientes pueden realizar sus propias pruebas de penetración de sus aplicaciones implementadas en Azure.
    • Modelado de amenazas - Un elemento central de Microsoft SDL. Es una técnica de ingeniería que se utiliza para ayudar a identificar amenazas, ataques, vulnerabilidades y contramedidas que podrían afectar las aplicaciones y los servicios. El modelado de amenazas es parte del ciclo de vida de desarrollo de rutina de Azure.
    • Alerta de construcción automatizada de cambios en el área de superficie de ataque - Attack Surface Analyzer es una herramienta de seguridad de código abierto desarrollada por Microsoft que analiza la superficie de ataque de un sistema objetivo e informa sobre posibles vulnerabilidades de seguridad introducidas durante la instalación de software o una configuración incorrecta del sistema. La característica principal de Attack Surface Analyzer es la capacidad de "diferenciar" la configuración de seguridad de un sistema operativo, antes y después de instalar un componente de software. Esta característica es importante porque la mayoría de los procesos de instalación requieren privilegios elevados y, una vez otorgados, pueden provocar cambios no deseados en la configuración del sistema.

    Al migrar a la nube, los clientes acostumbrados a la implementación tradicional del centro de datos en las instalaciones generalmente realizarán una evaluación de riesgos para medir su exposición a amenazas y formular medidas de mitigación. En muchos de estos casos, las consideraciones de seguridad para la implementación local tradicional tienden a entenderse bien, mientras que las opciones de nube correspondientes tienden a ser nuevas. La siguiente sección está destinada a ayudar a los clientes con esta comparación.


    Borrar y retirar se definen de manera bastante similar, pero la principal diferencia entre ellos es que Eliminar medio borrar (es decir, convertido en inexistente o irrecuperable), mientras retirar connota quitar y dejar a un lado (pero mantenido en existencia).

    En su ejemplo, si el elemento existe después de la eliminación, simplemente diga retirar, pero si deja de existir, digamos Eliminar.

    Como nota al margen: Eliminar a veces se usa para referirse a archivos de computadora mover a la papelera de reciclaje / basura (por lo tanto, todavía es recuperable), pero ese no es un significado estándar fuera de ese contexto.

    Son muy similares, pero la forma en que haría la distinción aquí se basa en lo que hace la acción y en el elemento que se elimina / elimina de la lista.

    Si el elemento seguirá existiendo fuera de la lista, recomendaría "eliminar", ya que se eliminará de la lista, pero el elemento en sí no se eliminará.

    Si el elemento ya no existirá, entonces "eliminar" y "eliminar" son esencialmente equivalentes, aunque "eliminar" puede ser un poco más claro, ya que el usuario está eliminando el elemento.

    Puede eliminar algo de una colección (por ejemplo, un archivo de un proyecto, una carpeta de una biblioteca) sin eliminarlo. Si el elemento en cuestión no tiene vida fuera de su colección (por ejemplo, un párrafo de un documento de Word), no hay diferencia entre eliminar y eliminar. Pero si tiene una vida así (por ejemplo, un archivo de imagen en una página HTML), eliminar y eliminar podría ser diferente. Eliminar es más fuerte: no solo dejo de incluirlo en mi colección, de vincularlo, lo que sea, sino también de eliminarlo de donde sea que viva.


    Weary, D. J. y Doctor, D. H. Karst en los Estados Unidos: una recopilación de mapas digitales y una base de datos, https://doi.org/10.3133/ofr20141156 (2014).

    Weary, D. El costo del hundimiento del karst y el colapso de un sumidero en los Estados Unidos en comparación con otros peligros naturales. En Los sumideros y la ingeniería y los impactos ambientales del karst: actas de la decimocuarta conferencia multidisciplinaria (eds Doctor, D. H., Land, L. y Stephenson, J. B.) 433–445, https://doi.org/10.5038/9780991000951.1062 (Instituto Nacional de Investigación de Cavernas y Karst, Carlsbad, NM, 2015).

    Oficina de Regulación de Seguros de Florida. Informe sobre la revisión de la convocatoria de datos de sumideros de 2010 (2010).

    Scott, T. M. Florida's Springs in Jeopardy. Geotimes 47, 16–20 (2002).

    Lindsey, B. D. et al. Relaciones entre la densidad de sumideros y contaminantes antropogénicos en acuíferos carbonatados seleccionados en el este de los Estados Unidos. Env. Ciencia de la tierra 60, 1073–1090 (2010).

    Katz, B. G., Sepulveda, A. A. & amp Verdi, R. J. Estimación de la carga de nitrógeno en el agua subterránea y evaluación de la vulnerabilidad a la contaminación por nitratos en una gran cuenca de manantiales kársticos, Florida. Mermelada. Recurso de agua. Assoc. 45, 607–627 (2009).

    Kidanu, S. T., Anderson, N. L. & amp Rogers, J. D. Uso de análisis espacial basado en Gis para determinar los factores que influyen en la formación de sumideros en el condado de Greene, Missouri. Reinar. Ing. Geosci. 24, 251–261 (2018).

    Galve, J. P. et al. Modelado probabilístico de sumideros para la evaluación de peligros. Earth Surf. Proceso. Accidentes geográficos 34, 437–452 (2009).

    Whitman, D., Gubbels, T. & amp Powell, L. Interrelaciones espaciales entre elevaciones de lagos, niveles freáticos y presencia de sumideros en Florida Central: un enfoque GIS. Photogramm. Ing. Sensores remotos 65, 1169–1178 (1999).

    Wilson, W. L. & amp Beck, B. F. Factores hidrogeológicos que afectan el desarrollo de nuevos sumideros en el área de Orlando, Florida. Agua subterránea 30, 918–930 (1992).

    Gongyu, L. & amp Wanfang, Z. Sumideros en áreas mineras kársticas en China y algunos métodos de prevención. Ing. Geol. 52, 45–50 (1999).

    Benito, G., del Campo, P. P., Gutiérrez-Elorza, M. & amp Sancho, C. Sumideros naturales e inducidos por el hombre en terrenos de yeso y problemas ambientales asociados en el NE de España. Reinar. Geol. 25, 156–164 (1995).

    Taheri, K. et al. Mapeo de susceptibilidad de sumidero: una comparación entre los algoritmos de aprendizaje automático basados ​​en Bayes. L. Degrad. Dev, https://doi.org/10.1002/ldr.3255 (2019).

    Brook, G. A. y Allison, T. L. Mapeo de fracturas y modelado de susceptibilidad a la subsidencia del suelo en terreno kárstico cubierto: el ejemplo del condado de Dougherty, Georgia. Hundimiento de la tierra. Publicación IAHS No. 151 (1986).

    Dai, J., Lei, M., Lui, W., Tang, S. & amp Lai, S. Una evaluación de los peligros de colapso de karst en Guilin, provincia de Guangxi, China. Hundir. Ing. Reinar. Impactos Karst 156–164, https://doi.org/10.1061/41003(327)16 (2008).

    Galve, J. P., Remondo, J. & amp Gutiérrez, F. Mejoramiento de los modelos de peligro de sumideros incorporando relaciones de magnitud-frecuencia y análisis del vecino más cercano. Geomorfología 134, 157–170 (2011).

    Taheri, K., Gutiérrez, F., Mohseni, H., Raeisi, E. & amp Taheri, M. Mapeo de susceptibilidad de sumidero utilizando el proceso de jerarquía analítica (AHP) y relaciones de magnitud-frecuencia: un estudio de caso en la provincia de Hamadan, Irán. Geomorfología 234, 64–79 (2015).

    Orndorff, R. C., Weary, D. J. & amp Lagueux, K. M. Análisis de sistemas de información geográfica de controles geológicos sobre la distribución de dolinas en los Ozarks del centro-sur de Missouri, EE. UU. Acta Carsologica 29, 161–175 (2000).

    Gao, Y., Alexander, E. C. & amp Barnes, R. J. Implementación de la base de datos de karst en Minnesota: Análisis de la distribución de sumideros. Reinar. Geol. 47, 1083–1098 (2005).

    Zhou, W., Beck, B. F. & amp Adams, A. L. Aplicación del análisis matricial para delinear áreas de riesgo de hundimientos a lo largo de la carretera (I-70 cerca de Frederick, Maryland). Reinar. Geol. 44, 834–842 (2003).

    Tharp, T. M. Formación de sumideros de colapso de cobertura y plasticidad del suelo. En Los sumideros y los impactos ambientales y de ingeniería del karst 110–123 (2003).

    Él, K., Liu, C. & amp Wang, S. Colapso kárstico relacionado con el bombeo excesivo y un criterio para su estabilidad. Reinar. Geol. 43, 720–724 (2003).

    Galve, J. P. et al. Evaluación y comparación de métodos de cartografía de susceptibilidad a sumideros en el karst evaporítico del Valle del Ebro (NE España). Geomorfología 111, 160–172 (2009).

    Ciotoli, G. et al. Susceptibilidad de sumidero, región de Lazio, centro de Italia. J. Mapas 12, 287–294 (2016).

    Saha, A. K., Gupta, R. P., Sarkar, I., Arora, M. K. & amp Csaplovics, E. Un enfoque para la zonificación estadística de susceptibilidad a deslizamientos basada en SIG, con un estudio de caso en el Himalaya. Deslizamientos de tierra 2, 61–69 (2005).

    Yilmaz, I., Marschalko, M. & amp Bednarik, M. Una evaluación sobre el uso de técnicas de computación bivariada, multivariante y blanda para la susceptibilidad al colapso en el entorno SIG. J. Earth Syst. Sci. 122, 371–388 (2013).

    Yalcin, A. Mapeo de susceptibilidad a deslizamientos basado en SIG utilizando un proceso de jerarquía analítica y estadísticas bivariadas en Ardesen (Turquía): comparaciones de resultados y confirmaciones. Cadena 72, 1–12 (2008).

    Ciurleo, M., Cascini, L. & amp Calvello, M. Una comparación de métodos estadísticos y deterministas para la zonificación de susceptibilidad a deslizamientos de tierra poco profundos en suelos arcillosos. Ing. Geol. 223, 71–81 (2017).

    Lee, S. Aplicación del modelo de regresión logística y su validación para el mapeo de susceptibilidad a deslizamientos de tierra utilizando GIS y datos de teledetección. En t. J. Remote Sens. 26, 1477–1491 (2005).

    Ayalew, L. & amp Yamagishi, H. La aplicación de regresión logística basada en SIG para el mapeo de susceptibilidad a deslizamientos de tierra en las montañas Kakuda-Yahiko, Japón central. Geomorfología 65, 15–31 (2005).

    Papadopoulou-Vrynioti, K., Bathrellos, G. D., Skilodimou, H. D., Kaviris, G. & amp Makropoulos, K.Mapeo de susceptibilidad al colapso kárstico considerando la aceleración máxima del suelo en un área urbana de rápido crecimiento. Ing. Geol. 158, 77–88 (2013).

    Ayalew, L., Yamagishi, H. & amp Ugawa, N.Mapeo de susceptibilidad a deslizamientos de tierra utilizando una combinación lineal ponderada basada en SIG, el caso en el área de Tsugawa del río Agano, prefectura de Niigata, Japón. Deslizamientos de tierra 1, 73–81 (2004).

    Wu, C. H. & amp Chen, S. C. Determinación de la susceptibilidad a los deslizamientos de tierra en el centro de Taiwán a partir de la lluvia y seis factores del sitio utilizando el método de proceso de jerarquía analítica. Geomorfología 112, 190–204 (2009).

    Chen, W. et al. Mapeo de susceptibilidad a deslizamientos de tierra basado en SIG utilizando modelos de proceso de jerarquía analítica (AHP) y factor de certeza (CF) para la región de Baozhong de la ciudad de Baoji, China. Reinar. Earth Sci. 75, 1–14 (2016).

    Ercanoglu, M., Kasmer, O. & amp Temiz, N. Adaptación y comparación de la opinión de expertos al proceso de jerarquía analítica para el mapeo de susceptibilidad a deslizamientos de tierra. Toro. Ing. Geol. Reinar. 67, 565–578 (2008).

    Park, S., Choi, C., Kim, B. & amp Kim, J. Mapeo de susceptibilidad a deslizamientos de tierra utilizando relación de frecuencia, proceso de jerarquía analítica, regresión logística y métodos de redes neuronales artificiales en el área de Inje, Corea. Reinar. Earth Sci. 68, 1443–1464 (2013).

    Komac, M. A landslide susceptibility model using the Analytical Hierarchy Process method and multivariate statistics in perialpine Slovenia. Geomorphology 74, 17–28 (2006).

    Marinoni, O. Implementation of the analytical hierarchy process with VBA in ArcGIS. Comput. Geosci. 30, 637–646 (2004).

    Gutiérrez, F., Cooper, A. H. & Johnson, K. S. Identification, prediction, and mitigation of sinkhole hazards in evaporite karst areas. Reinar. Geol. 53, 1007–1022 (2008).

    Tang, Z., Yi, S., Wang, C. & Xiao, Y. Incorporating probabilistic approach into local multi-criteria decision analysis for flood susceptibility assessment. Stoch. Reinar. Res. Risk Assess. 32, 701–714 (2018).

    Park, H. J., Lee, J. H. & Woo, I. Assessment of rainfall-induced shallow landslide susceptibility using a GIS-based probabilistic approach. Eng. Geol. 161, 1–15 (2013).

    Census Bureau, U. S. & Census Bureau, U. S. QuickFacts: Marion County, Florida. US Census Bureau, Census of Population and Housing Available at, https://www.census.gov/quickfacts/fact/table/marioncountyflorida/POP060210#viewtop (Accessed: 22 nd October 2018) (2010).

    Florida Department of Community Affairs. Mapping for Emergency Management, Parallel Hazard Information System (2005).

    Miller, J. A. Hydrogeologic framework of the Floridan Aquifer System in Florida and in parts of Georgia, Alabama, and South Carolina. U.S. Geological Survey Professional Paper 1403–B (1986).

    Scott, T. M. Lithostratigraphy and hydrostratigraphy of Florida. Florida Sci. 79, 198–207 (1988).

    Kim, Y. J., Xiao, H., Wang, D., Choi, Y. W. & Nam, B. H. Development of Sinkhole Hazard Mapping for Central Florida. En Geotechnical Frontiers 2017 459–468, https://doi.org/10.1061/9780784480441.048 (American Society of Civil Engineers, 2017).

    Newton, J. G. Sinkholes resulting from ground-water withdrawals in carbonate terranes-an overview, https://doi.org/10.1130/REG6-p195 (1984).

    Sinclair, W. C. Sinkhole development resulting from ground-water withdrawal in the Tampa area, Florida (1982).

    Parise, M. A present risk from past activities: sinkhole occurrence above underground quarries. Carbonates and Evaporites 27, 109–118 (2012).

    Salvati, R. & Sasowsky, I. D. Development of collapse sinkholes in areas of groundwater discharge. J. Hydrol. 264, 1–11 (2002).

    Rawal, K. Exploring the Geomechanics of Sinkholes: A Preliminary Numerical Study. (University of Toledo, 2016).

    Arthur, J. D., Baker, A. E., Cichon, J. R., Wood, A. R. & Rudin, A. Florida aquifer vulnerability assessment (FAVA): contamination potential of Florida’s principal aquifer systems (2005).

    Singh, K. B. & Dhar, B. B. Sinkhole subsidence due to mining. Geotech. Geol. Eng. 15, 327–341 (1997).

    Shofner, G. A., Mills, H. H. & Duke, J. E. A simple map index of karstification and its relationship to sinkhole and cave distribution in Tennessee. J. Cave Karst Stud. 63, 67–75 (2001).

    Saaty, T. L. Multicriteria decision making. The analytical hierarchy process. En McGraw-Hill. 287 (McGraw Hill International, 1980).

    Saaty, T. L. Decision-making with the AHP: Why is the principal eigenvector necessary. Eur. J. Oper. Res. 145, 85–91 (2003).

    Yalcin, A. & Bulut, F. Landslide susceptibility mapping using GIS and digital photogrammetric techniques: a case study from Ardesen (NE-Turkey). Nat. Peligros 41, 201–226 (2007).

    Pourghasemi, H. R., Pradhan, B. & Gokceoglu, C. Application of fuzzy logic and analytical hierarchy process (AHP) to landslide susceptibility mapping at Haraz watershed, Iran. Nat. Peligros 63, 965–996 (2012).

    Chendeş, V., Sima, M. & Enciu, P. A country-wide spatial assessment of landslide susceptibility in Romania. Geomorphology 124, 102–112 (2010).

    King, G. & Zeng, L. Logistic regression in rare events data. Polit. Anal. 9, 137–163 (2001).

    Atkinson, P. M. & Massari, R. Generalized linear modelling of susceptibility to landsliding in the Central Apenines, Italy. Comput. Geosci. 24(4), 373–385 (1998).

    Dai, F. & Lee, C. Landslide characteristics and slope instability modeling using GIS, Lantau Island, Hong Kong. Geomorphology 42, 213–228 (2002).

    Van Den Eeckhaut, M. et al. Prediction of landslide susceptibility using rare events logistic regression: A case-study in the Flemish Ardennes (Belgium). Geomorphology 76, 392–410 (2006).

    Ohlmacher, G. C. & Davis, J. C. Using multiple logistic regression and GIS technology to predict landslide hazard in northeast Kansas, USA. Eng. Geol. 69, 331–343 (2003).

    Crone, S. F. & Finlay, S. Instance sampling in credit scoring: An empirical study of sample size and balancing. Int. J. Forecast. 28, 224–238 (2012).

    Alin, A. Multicollinearity. Wiley Interdiscip. Rev. Comput. Stat. 2, 370–374 (2010).

    Chung, C.-J. & Fabbri, A. G. Predicting landslides for risk analysis — Spatial models tested by a cross-validation technique. Geomorphology 94, 438–452 (2008).

    Brinkmann, R., Parise, M. & Dye, D. Sinkhole distribution in a rapidly developing urban environment: Hillsborough County, Tampa Bay area, Florida. Eng. Geol. 99, 169–184 (2008).

    Florida Department of Transportation Surveying and Mapping Office Geographic Mapping Section. Floridia land use, cover and forms classification system. (State of Florida, Department of Transportation, 1999).

    Ozdemir, A. Sinkhole Susceptibility Mapping Using a Frequency Ratio Method and GIS Technology Near Karapınar, Konya-Turkey. Procedia Earth Planet. Sci. 15, 502–506 (2015).

    Todd, A. & Ivey-Burden, L. A method of mapping sinkhole susceptibility using a geographic information system: a case study for interstates in the karst counties of Virginia. En Sinkholes and the Engineering and Environmental Impacts of Karst: Proceedings of the Fourteenth Multidisciplinary Conference (eds Doctor, D. H., Land, L. & Stephenson, J. B.) 299–305 (National Cave and Karst Research Institute, Carlsbad, NM, 2015).

    Gutiérrez-Santolalla, F., Gutiérrez-Elorza, M., Marín, C., Desir, G. & Maldonado, C. Spatial distribution, morphometry and activity of La Puebla de Alfindén sinkhole field in the Ebro river valley (NE Spain): applied aspects for hazard zonation. Reinar. Geol. 48, 360–369 (2005).

    Drake, J. & Ford, D. The analysis of growth patterns of two-generation populations: the examples of karst sinkholes. Can. Geogr. 16, 381–384 (1972).

    Lari, S., Frattini, P. & Crosta, G. B. A probabilistic approach for landslide hazard analysis. Eng. Geol. 182, 3–14 (2014).

    Kim, Y. J. & Nam, B. H. Sinkhole Hazard Mapping Using Frequency Ratio and Logistic Regression Models for Central Florida. En Geo-Risk 2017 246–256, https://doi.org/10.1061/9780784480717.023 (American Society of Civil Engineers, 2017).

    Ozdemir, A. Sinkhole susceptibility mapping using logistic regression in Karapınar (Konya, Turkey). Toro. Eng. Geol. Reinar. 75, 681–707 (2016).

    Theron, A. & Engelbrecht, J. The Role of Earth Observation, with a Focus on SAR Interferometry, for Sinkhole Hazard Assessment. Remote Sens. 10, 1506 (2018).

    Jones, C. & Blom, R. Pre-Event and Post-Formation Ground Movement Associated with the Bayou Corne Sinkhole. En Sinkholes and the Engineering and Environmental Impacts of Karst: Proceedings of the Fourteenth Multidisciplinary Conference (eds Doctor, D. H., Land, L. & Stephenson, J. B.) 415–422, https://doi.org/10.5038/9780991000951.1083 (National Cave and Karst Research Institute, Carlsbad, NM, 2015).

    Wu, Q., Deng, C. & Chen, Z. Automated delineation of karst sinkholes from LiDAR-derived digital elevation models. Geomorphology 266, 1–10 (2016).

    Fleury, E. S., Carson, S. & Brinkmann, R. Testing reporting bias in the Florida sinkhole database: an analysis of sinkhole occurrences in the Tampa metropolitan statistical area. Southeast. Geogr. 48, 38–52 (2008).

    Xiao, H., Kim, Y. J., Nam, B. H. & Wang, D. Investigation of the impacts of local-scale hydrogeologic conditions on sinkhole occurrence in East-Central Florida, USA. Reinar. Earth Sci. 75, 1274 (2016).


    Ver el vídeo: Tip 004 - Exportar atributos de un shapefile a Excel.