Cálculo de distancia euclideana con R – Índice de accesibilidad

En este tutorial realizamos el siguiente mapa, el cual corresponde a la distancia euclideana de la red vial del Norte del Valle del Cauca, en otras palabras, es un proxy del índice de accesibilidad.

El tutorial está en mi canal de YouTube, aquí:

Sí deseas replicar este ejercicio y aprender de la mano conmigo puedes descargar los datos y códigos aquí.

https://github.com/fabiolexcastro/tutorials_youtube/tree/master/accesibility

Sí deseas asesoría personalizada me puedes contactar por medio de Whatsapp

Distribución de gumbel para mapas de retorno de precipitación – Ejercicio práctico con R

La distribución estadística de Gumbel, también conocida como distribución de tipo I de valores extremos, es un modelo matemático utilizado en estadística para describir la distribución de los valores extremos en un conjunto de datos. Fue propuesta por el estadístico británico Emil Julius Gumbel en la década de 1950.

La distribución de Gumbel es especialmente adecuada para modelar eventos extremos, como las máximas o mínimas históricas en una serie de datos. Es comúnmente utilizada en el análisis de riesgo hidrológico y en la estimación de tasas de retorno de fenómenos como precipitación intensa, caudales máximos de ríos, vientos extremos, entre otros.

Para aplicar la distribución de Gumbel en la obtención de mapas de tasas de retorno de precipitación a diferentes escalas de tiempo, se sigue un procedimiento general que consta de los siguientes pasos:

  1. Recopilación de datos: Se recopilan registros históricos de precipitación en diferentes ubicaciones dentro de la región de interés. Cuantos más datos se tengan, mejor será la estimación.
  2. Ajuste de la distribución: Se realiza un ajuste estadístico de los datos observados a la distribución de Gumbel. Esto implica encontrar los parámetros de la distribución que mejor se ajusten a los datos, utilizando métodos estadísticos como el método de máxima verosimilitud.
  3. Estimación de la tasa de retorno: Una vez que se ha ajustado la distribución de Gumbel, se puede utilizar para estimar la tasa de retorno de diferentes eventos extremos de precipitación. La tasa de retorno se define como la probabilidad de que un evento igual o mayor al umbral dado ocurra en un período de tiempo determinado. Por ejemplo, la tasa de retorno de 100 años para un evento de precipitación sería la probabilidad de que dicho evento ocurra o se supere en promedio una vez cada 100 años.
  4. Generación de mapas de tasas de retorno: Utilizando los parámetros estimados de la distribución de Gumbel y considerando la variabilidad espacial de la precipitación, se pueden generar mapas de tasas de retorno de precipitación para diferentes períodos de retorno. Estos mapas proporcionan información sobre la probabilidad de ocurrencia de eventos extremos de precipitación en diferentes áreas de la región.

Es importante tener en cuenta que el uso de la distribución de Gumbel y la generación de mapas de tasas de retorno de precipitación están sujetos a incertidumbres y limitaciones inherentes a los datos y al modelo estadístico utilizado. Además, es crucial considerar que el cambio climático puede alterar las características de las precipitaciones extremas y, por lo tanto, puede ser necesario adaptar los métodos utilizados para tener en cuenta estas variaciones.

En resumen, la distribución estadística de Gumbel es un modelo utilizado en el análisis de eventos extremos y, en particular, en la estimación de tasas de retorno de precipitación. Su aplicación permite obtener mapas que representan la probabilidad de ocurrencia de eventos.

Aquí te comparto un vídeo tutorial en el cual explico esto a nivel práctico estimando la distribución de Gumbell para la tasa de retorno de precipitación a 2, 5, 10, 25, 50 y 100 años, todo esto con la ayuda de la librería extRemes del lenguaje R.

Si requieres asesoría personalizada me puedes escribir a mi correo electrónico o Whatsapp.

Análisis multicriterio con R – Ubicación óptima para la ubicación de un área recreativa

Los criterios que se utilizan en el análisis multicriterio espacial pueden variar dependiendo del objetivo del análisis. En este caso, nos enfocaremos en cinco criterios principales: accesibilidad, topografía, temperatura, áreas protegidas y ríos, para identificar áreas óptimas para ubicar un área recreativa en el departamento de Cundinamarca. Esto con datos tanto a nivel raster como shapefile. En la siguiente imagen se ilustra un poco a la izquierda los criterios a tener en cuenta para el análisis y a la derecha el resultado producto de la sobreposición, o como se conoce en SIG, el overlay de las capas mencionadas.

El vídeo tutorial se encuentra en mi canal de YouTube.

El vídeo tutorial se encuentra en mi canal de YouTube.

Los códigos y datos es posible descargarlos de mi repositorio tutoriales de Github.

Google Earth Engine – R para análisis de datos de cobertura de la tierra (MODIS)

En este tutorial haremos uso de Chat-GPT3 para la generación de un código en Google Earth Engine que nos permita descargar datos de cobertura de la tierra de una colección de MODIS, y luego en R realizamos la lectura de estos datos y graficamos mapas desde el año 2001 hasta el 2020.

Al final realizaremos este mapa:

Recuerda que en el tutorial te comparto los datos y códigos para que repliques el ejercicio, aquí el enlace

https://github.com/fabiolexcastro/modis_landcoverGEE

El vídeo en YouTube aquí:

Sí requieres asesoría personalizada me puedes contactar a mi Whatsapp:

Global Forest Analysis – Aplicación de librería de R para analizar datos de cobertura boscosa entre 2000 y 2020 para una zona en Colombia

El presente tutorial ilustra el cómo:

  1. Hacer la descarga de datos de cobertura boscosa, pérdida de bosque, ganancia de esta misma variable.
  2. Recorte del área para una zona en particular, en este caso, el departamento de Caquetá en Colombia
  3. Estimación de umbral para identificar cuáles son las zonas con bosque y no bosque para el año 2000
  4. Conteo de area con pérdida de bosque entre el 2001 y el 2020
  5. Realización de gráfica con los resultados del punto anterior

Este tutorial se realiza con el uso del lenguaje de programación de R y haciendo uso además de la IDE de RStudio, el tutorial lo puedes visitar en mi canal de YouTube «Un geógrafo en YouTube»

Si quieres replicar este ejercicio aquí te comparto el código y los datos, clic aquí.

Deseas contactar conmigo para asesoría, escríbeme al Whatsapp.

Modelo Random Forest para estimación del nicho ecológico de una especie forestal

En el presente tutorial realizamos una modelación con Random Forest para la especie Coyol (Acrocomia mexicana), la cual nos permitirá estimar las áreas idóneas – nicho ecológica para esta especie en el país de México de donde es originaria. Para la aplicación requerimos tener instalado R 4.2.2. (o última versión) y RStudio, así como también algunas librerías tales como SSDM, terra, rgbif y tidyverse.

# Load libraries ----------------------------------------------------------
require(pacman)
pacman::p_load(rnaturalearthdata, rnaturalearth, cptcity, SSDM, ggspatial, raster, terra, sf, fs, glue, tidyverse, rgbif, geodata)

Al final del tutorial aprenderás a realizar un mapa como el siguiente.

Para acceder a los códigos puedes dar clic aquí. Los datos a utilizar se descargan con el mismo R.

Si te interesa conocer más sobre los modelos random forest y ampliar al respecto, te pueden servir estas dos lecturas.

Recuerda apoyarme, por favor, compartiendo este contenido con tus amigos y colegas a quienes creas que este vídeo les puede servir, y no olvides en contactarme a mi Whatsapp si requieres ayuda / asesoría.

Clusterización con el método Random Forest

En este tutorial realizamos una clasificación climática de las cuencas hidrográficas en Colombia usando la técnica de Machine Learning – Random Forest; aquí hacemos uso de los datos de Worldclim y de las cuencas hidrográficas delimitadas por el IDEAM.

Al final del vídeo aprenderemos a realizar este mapa con el método RF.

En este tutorial se realizan varios pasos:

  1. Descarga de datos climáticos de temperatura y precipitación
  2. Creación de variables bioclimáticas
  3. Estadística zonal para las cuencas hidrográficas de Colombia, con las variables bioclimáticas
  4. Estimación de los clústers con Random Forest
  5. Elaboración de boxplot para identificar los nombres de los clústers
  6. Realización del mapa

El vídeo lo puedes ver en mi canal en YouTube

Para acceder a los datos y código puedes visitar este enlace.

Si requieres asesoría personalizada / clases, me puedes contactar por medio del Whatsapp

Análisis de pendiente para datos de temperatura promedio anual

Aquí respondemos la pregunta

¿Cuál ha sido el cambio en la temperatura promedio entre al año 1980 al 2020 para el municipio de Salento en Colombia?

Este tutorial es la continuación de una anterior publicación en la cual realizamos el desescalado (downscaling) de datos de temperatura promedio par el año 2023, aquí puedes revisar el vídeo y la publicación.

Hacemos uso de la librería trend para hacer el cálculo de la pendiente, aquí podrás revisar algunas publicaciones de interés sobre el tema. Líneas abajo puedes descargar los artículos mencionados en el vídeo tutorial.

Para acceder a los códigos y los datos dar clic aquí.

Si tienes preguntas dudas o inquietudes y deseas tener una asesoría personalizada me puedes contactar al Whatsapp.

Geographically Weighted Regresion para desescalado de temperatura promedio

En este tutorial realizamos un análisis GWR para desescalar 41 capas de temperatura promedio (datos anuales desde 1980 hasta el 2020), obteniendo así las capas de 5000 mt a 600 mt, mejorando mucho el tema del píxelado para áreas pequeñas, como lo es en este caso esta variable para Salento.

Ejemplificando:

En la figura superior los datos tienen una resolución de 5 km, mientras que en los datos de la figura inferior la resolución es de 600 metros, esto se hizo gracias al uso de la covariable de la altitud y el uso de la técnica mencionada GWR.

El vídeo tutorial lo puedes ver en mi canal de YouTube:

Para acceder a los datos y el código, dar clic aquí: https://github.com/fabiolexcastro/tutorials_youtube/tree/master/gwr

Si deseas hablar conmigo para alguna clase o asesoría personalizada, me puedes escribir a mi whatsapp:

Creación de página web con mapas en RMarkDown

En este tutorial creamos una página web con RMarkdown, el vídeo tutorial lo puedes encontrar aquí con toda la explicación:

En esta ocasión realizamos una breve descripción de la metodología del DNP para el cálculo del Índice de Desempeño Municipal entre los años 2016 y 2021, así como también explicamos como realizar un histograma, un mapa con leaflet y un gráfico de tendencia dinámico con la ayuda de la librería plotly. Recuerda que puedes replicar el ejercicio descargando el código y los datos, y si requieres ayuda / clase abajo te dejo mi contacto de Whatsapp.

Para acceder a los códigos: https://github.com/fabiolexcastro/tutorials_youtube/tree/master/rmkMDM

Los datos: https://terridata.dnp.gov.co/index-app.html#/descargas

Si necesitas asesoría / clase, me puedes contactar a mi whatsapp