Google Earth Engine – R para análisis de datos de cobertura de la tierra (MODIS)

En este tutorial haremos uso de Chat-GPT3 para la generación de un código en Google Earth Engine que nos permita descargar datos de cobertura de la tierra de una colección de MODIS, y luego en R realizamos la lectura de estos datos y graficamos mapas desde el año 2001 hasta el 2020.

Al final realizaremos este mapa:

Recuerda que en el tutorial te comparto los datos y códigos para que repliques el ejercicio, aquí el enlace

https://github.com/fabiolexcastro/modis_landcoverGEE

El vídeo en YouTube aquí:

Sí requieres asesoría personalizada me puedes contactar a mi Whatsapp:

Global Forest Analysis – Aplicación de librería de R para analizar datos de cobertura boscosa entre 2000 y 2020 para una zona en Colombia

El presente tutorial ilustra el cómo:

  1. Hacer la descarga de datos de cobertura boscosa, pérdida de bosque, ganancia de esta misma variable.
  2. Recorte del área para una zona en particular, en este caso, el departamento de Caquetá en Colombia
  3. Estimación de umbral para identificar cuáles son las zonas con bosque y no bosque para el año 2000
  4. Conteo de area con pérdida de bosque entre el 2001 y el 2020
  5. Realización de gráfica con los resultados del punto anterior

Este tutorial se realiza con el uso del lenguaje de programación de R y haciendo uso además de la IDE de RStudio, el tutorial lo puedes visitar en mi canal de YouTube «Un geógrafo en YouTube»

Si quieres replicar este ejercicio aquí te comparto el código y los datos, clic aquí.

Deseas contactar conmigo para asesoría, escríbeme al Whatsapp.

Modelo Random Forest para estimación del nicho ecológico de una especie forestal

En el presente tutorial realizamos una modelación con Random Forest para la especie Coyol (Acrocomia mexicana), la cual nos permitirá estimar las áreas idóneas – nicho ecológica para esta especie en el país de México de donde es originaria. Para la aplicación requerimos tener instalado R 4.2.2. (o última versión) y RStudio, así como también algunas librerías tales como SSDM, terra, rgbif y tidyverse.

# Load libraries ----------------------------------------------------------
require(pacman)
pacman::p_load(rnaturalearthdata, rnaturalearth, cptcity, SSDM, ggspatial, raster, terra, sf, fs, glue, tidyverse, rgbif, geodata)

Al final del tutorial aprenderás a realizar un mapa como el siguiente.

Para acceder a los códigos puedes dar clic aquí. Los datos a utilizar se descargan con el mismo R.

Si te interesa conocer más sobre los modelos random forest y ampliar al respecto, te pueden servir estas dos lecturas.

Recuerda apoyarme, por favor, compartiendo este contenido con tus amigos y colegas a quienes creas que este vídeo les puede servir, y no olvides en contactarme a mi Whatsapp si requieres ayuda / asesoría.

Clusterización con el método Random Forest

En este tutorial realizamos una clasificación climática de las cuencas hidrográficas en Colombia usando la técnica de Machine Learning – Random Forest; aquí hacemos uso de los datos de Worldclim y de las cuencas hidrográficas delimitadas por el IDEAM.

Al final del vídeo aprenderemos a realizar este mapa con el método RF.

En este tutorial se realizan varios pasos:

  1. Descarga de datos climáticos de temperatura y precipitación
  2. Creación de variables bioclimáticas
  3. Estadística zonal para las cuencas hidrográficas de Colombia, con las variables bioclimáticas
  4. Estimación de los clústers con Random Forest
  5. Elaboración de boxplot para identificar los nombres de los clústers
  6. Realización del mapa

El vídeo lo puedes ver en mi canal en YouTube

Para acceder a los datos y código puedes visitar este enlace.

Si requieres asesoría personalizada / clases, me puedes contactar por medio del Whatsapp

Análisis de pendiente para datos de temperatura promedio anual

Aquí respondemos la pregunta

¿Cuál ha sido el cambio en la temperatura promedio entre al año 1980 al 2020 para el municipio de Salento en Colombia?

Este tutorial es la continuación de una anterior publicación en la cual realizamos el desescalado (downscaling) de datos de temperatura promedio par el año 2023, aquí puedes revisar el vídeo y la publicación.

Hacemos uso de la librería trend para hacer el cálculo de la pendiente, aquí podrás revisar algunas publicaciones de interés sobre el tema. Líneas abajo puedes descargar los artículos mencionados en el vídeo tutorial.

Para acceder a los códigos y los datos dar clic aquí.

Si tienes preguntas dudas o inquietudes y deseas tener una asesoría personalizada me puedes contactar al Whatsapp.

Geographically Weighted Regresion para desescalado de temperatura promedio

En este tutorial realizamos un análisis GWR para desescalar 41 capas de temperatura promedio (datos anuales desde 1980 hasta el 2020), obteniendo así las capas de 5000 mt a 600 mt, mejorando mucho el tema del píxelado para áreas pequeñas, como lo es en este caso esta variable para Salento.

Ejemplificando:

En la figura superior los datos tienen una resolución de 5 km, mientras que en los datos de la figura inferior la resolución es de 600 metros, esto se hizo gracias al uso de la covariable de la altitud y el uso de la técnica mencionada GWR.

El vídeo tutorial lo puedes ver en mi canal de YouTube:

Para acceder a los datos y el código, dar clic aquí: https://github.com/fabiolexcastro/tutorials_youtube/tree/master/gwr

Si deseas hablar conmigo para alguna clase o asesoría personalizada, me puedes escribir a mi whatsapp:

Creación de página web con mapas en RMarkDown

En este tutorial creamos una página web con RMarkdown, el vídeo tutorial lo puedes encontrar aquí con toda la explicación:

En esta ocasión realizamos una breve descripción de la metodología del DNP para el cálculo del Índice de Desempeño Municipal entre los años 2016 y 2021, así como también explicamos como realizar un histograma, un mapa con leaflet y un gráfico de tendencia dinámico con la ayuda de la librería plotly. Recuerda que puedes replicar el ejercicio descargando el código y los datos, y si requieres ayuda / clase abajo te dejo mi contacto de Whatsapp.

Para acceder a los códigos: https://github.com/fabiolexcastro/tutorials_youtube/tree/master/rmkMDM

Los datos: https://terridata.dnp.gov.co/index-app.html#/descargas

Si necesitas asesoría / clase, me puedes contactar a mi whatsapp

La importancia de R en la ciencia de datos

En la era actual, la ciencia de datos es un campo en constante crecimiento y evolución, y aprender a programar en R es una habilidad clave para cualquier persona interesada en trabajar en este campo. Algunas de las razones por las que es importante aprender a programar en R son:

  1. R es un lenguaje de programación de ciencia de datos muy popular: R es uno de los lenguajes de programación más utilizados en el campo de la ciencia de datos, por lo que aprender a programar en R te abre la puerta a una amplia gama de oportunidades de trabajo.
  2. R es muy versátil: R se utiliza en una amplia variedad de aplicaciones, desde el análisis estadístico hasta el aprendizaje automático. Esto significa que si aprendes a programar en R, podrás aplicar tus habilidades a una amplia gama de problemas y proyectos.
  3. R es una herramienta de análisis de datos muy potente: R viene con una amplia gama de paquetes y librerías que te permiten hacer prácticamente cualquier cosa con tus datos. Además, la comunidad de R es muy activa y siempre está desarrollando nuevas herramientas y funcionalidades.
  4. R es de código abierto: Como lenguaje de programación de código abierto, R es gratuito y está disponible para todos. Esto significa que no tienes que preocuparte por licencias o costos ocultos.

En resumen, aprender a programar en R es una habilidad importante para cualquier persona interesada en trabajar en el campo de la ciencia de datos. Te permite acceder a una amplia gama de oportunidades de trabajo, trabajar en una amplia variedad de proyectos y utilizar una herramienta de análisis de datos muy potente y versátil. Además, al ser de código abierto, R es accesible para todos.

El análisis espacial

El análisis espacial es una rama de la ciencia de datos que se centra en el análisis de datos geográficos y en la resolución de problemas que tienen un componente espacial. R es un lenguaje de programación que se ha vuelto muy popular para el análisis espacial debido a su amplia gama de paquetes y librerías que facilitan este tipo de análisis.

Uno de los principales atractivos de R para el análisis espacial es su amplia variedad de paquetes disponibles. Por ejemplo, el paquete sp proporciona una serie de funciones para trabajar con datos espaciales vectoriales y raster, mientras que el paquete raster se especializa en el manejo de datos raster. Además, hay muchos otros paquetes que ofrecen funcionalidades específicas para el análisis espacial, como rgeos para el análisis de geometría, rgdal para la lectura y escritura de datos espaciales vectoriales y raster, y leaflet para la creación de mapas interactivos.

Además de los paquetes específicos para el análisis espacial, R también cuenta con una amplia variedad de funcionalidades estadísticas y gráficas que son útiles para el análisis espacial. Por ejemplo, R cuenta con una amplia variedad de gráficos de dispersión y mapas que pueden ser utilizados para visualizar y explorar datos espaciales. También hay muchas funciones para el análisis estadístico, como la regresión lineal y la regresión espacial, que son útiles para el análisis de datos espaciales.

En resumen, R es una herramienta muy potente para el análisis espacial debido a su amplia gama de paquetes y librerías especializados y a sus funcionalidades estadísticas y gráficas. Si estás interesado en el análisis espacial, R es una herramienta valiosa que debes tener en tu caja de herramientas.

Modelamiento con Ecocrop para identificar impacto del cambio climático sobre el cultivo de café

El presente tutorial es la continuación de un previo tutorial en el cual identificamos las zonas idóneas para el cultivo de café bajo la línea base, ahora bien, en esta ocasión realizaremos el análisis con datos de cambio climático. Dentro del mismo tutorial realizamos la descarga de los rasters de cambio climático con el SSP 585 para el GCM ACCESS-CM2 y el periodo 2021- 2040.

El mapa que tendremos al final del tutorial será:

El vídeo tutorial:

Códigos y datos: https://github.com/fabiolexcastro/tutorials_youtube/tree/master/ecocropFuture

Si quieres chatear conmigo

Descarga de datos del Banco Mundial y la FAO

Descarga de información socioeconómica de bases de datos como el Banco Mundial y la FAO, esto con ayuda de la librería WDI y FAOSTAT del lenguaje de programación de R. Análisis de información descargada, procesamiento de la misma, homegeneización y unión con archivos espaciales de países a nivel mundial.

El vídeo tutorial se encuentra disponible en mi canal de YouTube: Un geógrafo en YouTube. Aquí:

Códigos y datos disponibles aquí:https://github.com/fabiolexcastro/tutorials_youtube/tree/fabiolexcastro-patch-1/worldData

Preguntas, consultas y asesoría: