使用 R 语言下载和处理日度夜间灯光栅格数据

教育   2024-11-21 20:37   安徽  

该课程已经讲解完,感兴趣的小伙伴可以点击文末的阅读原文跳转到 RStata 平台上观看录播~

难度很高,只推荐有较好地理计算和 R 语言基础的小伙伴学习~


今天的课程中我们将一起学习如何下载和处理 NASA 的日度夜间灯光栅格数据。

日度夜间灯光的原始数据可以从这里下载:https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/。

关于该数据的介绍可以阅读这个文档:https://ladsweb.modaps.eosdis.nasa.gov/missions-and-measurements/products/VNP46A2/#overview。

该数据把全球根据经纬度划按照 10˚x10˚ 的网格进行了划分,每个分块又包含了 2400x2400 个格点,分辨率大致为 500mx500m,数据均为 HDF5 格式。因此处理该数据的第一步就是要先找到中国所处的区块文件。


上图来自:https://ladsweb.modaps.eosdis.nasa.gov/api/v2/content/archives/Document%20Archive/Science%20Data%20Product%20Documentation/Product%20Generation%20Algorithms/VIIRS_Black_Marble_ATBD_v1.1_July_2020.pdf

所以我们的下载和处理思路是:

  1. 获取所有的 HDF5 文件的链接;
  2. 筛选包含中国范围的文件;
  3. 下载;
  4. 处理 HDF5 文件得到 tiff 格式的栅格数据。

获取所有的 HDF5 文件的链接

这里我们可以通过网络数据爬取的方式获取。

首先爬取首页:

library(tidyverse)
library(rvest)
# https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/
# 爬取第一层:VNP46A2
read_html("https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/") -> html 

提取所有的子文件夹链接:

html %>% 
  html_elements("tr") %>% 
  html_attr("data-href") %>% 
  as_tibble() %>% 
  filter(str_detect(value, "VNP46A2")) -> fldf 

fldf
#> # A tibble: 13 × 1
#>    value                             
#>    <chr>                             
#>  1 /archive/allData/5000/VNP46A2/2012
#>  2 /archive/allData/5000/VNP46A2/2013
#>  3 /archive/allData/5000/VNP46A2/2014
#>  4 /archive/allData/5000/VNP46A2/2015
#>  5 /archive/allData/5000/VNP46A2/2016
#>  6 /archive/allData/5000/VNP46A2/2017
#>  7 /archive/allData/5000/VNP46A2/2018
#>  8 /archive/allData/5000/VNP46A2/2019
#>  9 /archive/allData/5000/VNP46A2/2020
#> 10 /archive/allData/5000/VNP46A2/2021
#> 11 /archive/allData/5000/VNP46A2/2022
#> 12 /archive/allData/5000/VNP46A2/2023
#> 13 /archive/allData/5000/VNP46A2/2024

创建文件夹保存下一轮结果:

dir.create("htmldir1")

fldf 中的链接都是相对链接,我们再生成完整的网址链接:

fldf %>% 
  mutate(value = paste0("https://ladsweb.modaps.eosdis.nasa.gov", value)) -> fldf2 

下面需要爬取每个链接获取子文件夹的链接:

read_html(fldf2$value[1]) -> html2

html2 %>% 
  html_elements("tr") %>% 
  html_attr("data-href") %>% 
  as_tibble() %>% 
  slice(-1, -2)
#> # A tibble: 343 × 1
#>    value                                 
#>    <chr>                                 
#>  1 /archive/allData/5000/VNP46A2/2012/019
#>  2 /archive/allData/5000/VNP46A2/2012/020
#>  3 /archive/allData/5000/VNP46A2/2012/021
#>  4 /archive/allData/5000/VNP46A2/2012/022
#>  5 /archive/allData/5000/VNP46A2/2012/023
#>  6 /archive/allData/5000/VNP46A2/2012/024
#>  7 /archive/allData/5000/VNP46A2/2012/025
#>  8 /archive/allData/5000/VNP46A2/2012/026
#>  9 /archive/allData/5000/VNP46A2/2012/027
#> 10 /archive/allData/5000/VNP46A2/2012/028
#> # ℹ 333 more rows

然后就可以循环所有的了,为了更高效,我们可以采用多线程的方式:

dir.create("html2")
library(parallel)
makeCluster(16) -> cl
parLapply(cl, fldf2$value, function(x){
  if(!file.exists(paste0(stringr::str_remove(x, "https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/"), "/index.html"))) {
    download.file(x, paste0(stringr::str_remove(x, "https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/"), "/index.html")) 
  }
}) -> res 

如果有下载失败的可以删除下载不完整的,然后再运行上面的代码,直到所有年份的 html 文件都下载成功。

然后就可以批量处理这些 html 文件提取下载链接了:

fs::dir_ls("htmldir1") %>% 
  as.character() %>% 
  as_tibble() -> fldf3

read_html(fldf3$value[1]) -> html3
html3 %>% 
  html_elements("tr") %>% 
  html_attr("data-href") %>% 
  as_tibble() %>% 
  slice(-1, -2)
#> # A tibble: 343 × 1
#>    value                                 
#>    <chr>                                 
#>  1 /archive/allData/5000/VNP46A2/2012/019
#>  2 /archive/allData/5000/VNP46A2/2012/020
#>  3 /archive/allData/5000/VNP46A2/2012/021
#>  4 /archive/allData/5000/VNP46A2/2012/022
#>  5 /archive/allData/5000/VNP46A2/2012/023
#>  6 /archive/allData/5000/VNP46A2/2012/024
#>  7 /archive/allData/5000/VNP46A2/2012/025
#>  8 /archive/allData/5000/VNP46A2/2012/026
#>  9 /archive/allData/5000/VNP46A2/2012/027
#> 10 /archive/allData/5000/VNP46A2/2012/028
#> # ℹ 333 more rows
# 循环所有的
fldf3 %>% 
  rename(a = value) %>% 
  mutate(data = map(a, function(x){
    read_html(x) %>% 
      html_elements("tr") %>% 
      html_attr("data-href") %>% 
      as_tibble() %>% 
      slice(-1, -2)
  })) %>% 
  unnest(data) %>% 
  select(-a) -> fldf4 

fldf4
#> # A tibble: 4,520 × 1
#>    value                                 
#>    <chr>                                 
#>  1 /archive/allData/5000/VNP46A2/2012/019
#>  2 /archive/allData/5000/VNP46A2/2012/020
#>  3 /archive/allData/5000/VNP46A2/2012/021
#>  4 /archive/allData/5000/VNP46A2/2012/022
#>  5 /archive/allData/5000/VNP46A2/2012/023
#>  6 /archive/allData/5000/VNP46A2/2012/024
#>  7 /archive/allData/5000/VNP46A2/2012/025
#>  8 /archive/allData/5000/VNP46A2/2012/026
#>  9 /archive/allData/5000/VNP46A2/2012/027
#> 10 /archive/allData/5000/VNP46A2/2012/028
#> # ℹ 4,510 more rows

循环所有的链接再爬取下一层的:

fldf4 %>% 
  mutate(value = paste0("https://ladsweb.modaps.eosdis.nasa.gov", value)) %>% 
  mutate(fid = row_number()) -> fldf4

dir.create("htmldir2")

# 这里选择 2023 年的为例进行下载:
fldf4 %>% 
  filter(str_detect(value, "2023")) -> fldf4_2023
clusterExport(cl, "fldf4_2023")
parLapply(cl, 1:nrow(fldf4_2023), function(x){
  if(!file.exists(paste0("htmldir2/", fldf4_2023$fid[x], ".html"))) {
    try({
      download.file(fldf4_2023$value[x], paste0("htmldir2/", fldf4_2023$fid[x], ".html"))
    })
  }
}) -> tempres 

按照下载得到的文件大小排序,检查哪些是下载不完整的,删除之后再重新运行上面的代码,直到所有的文件都下载成功。

然后就可以处理得到的 html 文件获取所有的 HDF5 文件的链接了:

fs::dir_ls("htmldir2") %>% 
  as_tibble() %>% 
  rename(file = value) %>% 
  mutate(data = map(file, function(x){
    read_html(x) %>% 
      html_elements("tr") %>% 
      html_attr("data-path") %>% 
      as_tibble() %>% 
      slice(-1, -2
  })) -> fldf5

fldf5
#> # A tibble: 730 × 2
#>    file               data              
#>    <fs::path>         <list>            
#>  1 htmldir2/1059.html <tibble [346 × 1]>
#>  2 htmldir2/1060.html <tibble [345 × 1]>
#>  3 htmldir2/1061.html <tibble [346 × 1]>
#>  4 htmldir2/1062.html <tibble [346 × 1]>
#>  5 htmldir2/1063.html <tibble [346 × 1]>
#>  6 htmldir2/1064.html <tibble [346 × 1]>
#>  7 htmldir2/1065.html <tibble [346 × 1]>
#>  8 htmldir2/1066.html <tibble [346 × 1]>
#>  9 htmldir2/1067.html <tibble [346 × 1]>
#> 10 htmldir2/1068.html <tibble [346 × 1]>
#> # ℹ 720 more rows
fldf5 %>% 
  unnest(data) %>% 
  select(-file) %>% 
  mutate(value = paste0("https://ladsweb.modaps.eosdis.nasa.gov", value)) -> fldf6 

fldf6$value[1]
#> [1] "https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/2023/001/VNP46A2.A2023001.h00v01.001.2023012002938.h5"

下面就可以下载这些文件了,不过这些链接并不能使用 download.file() 直接下载,而是需要使用 NASA 规定的方法。

先保存下:

fldf6 %>% 
  write_rds("fldf6.rds")

筛选含中国范围的文件

正如开头所说,该数据是把全球的数据划分成了一个个小格子,下面我们需要找到与中国范围相交的。

library(tidyverse)
library(terra)
rast(nrows = 18, ncols = 36, xmin=-180, xmax=180
     ymin=-90, ymax=90, crs = "+proj=longlat +datum=WGS84 +no_defs") -> rst
rst[] <- 1:648
rst 
#> class       : SpatRaster 
#> dimensions  : 18, 36, 1  (nrow, ncol, nlyr)
#> resolution  : 10, 10  (x, y)
#> extent      : -180, 180, -90, 90  (xmin, xmax, ymin, ymax)
#> coord. ref. : +proj=longlat +datum=WGS84 +no_defs 
#> source(s)   : memory
#> name        : lyr.1 
#> min value   :     1 
#> max value   :   648
plot(rst)

一共是 648 个格子,我给每个格子都进行了编号 1~648。

合并省级数据得到中国的范围:

library(sf)
read_sf("2021行政区划/省.shp") -> prov 
st_union(prov) %>% 
  nngeo::st_remove_holes() -> cn 
plot(cn)

把 rst 转换成 polygon 对象:

library(raster)
rst %>% 
  raster() %>% 
  rasterToPolygons() %>% 
  st_as_sf() -> rstdf

rstdf
#> Simple feature collection with 648 features and 1 field
#> Geometry type: POLYGON
#> Dimension:     XY
#> Bounding box:  xmin: -180 ymin: -90 xmax: 180 ymax: 90
#> Geodetic CRS:  +proj=longlat +datum=WGS84 +no_defs
#> First 10 features:
#>    lyr.1                       geometry
#> 1      1 POLYGON ((-180 90, -170 90,...
#> 2      2 POLYGON ((-170 90, -160 90,...
#> 3      3 POLYGON ((-160 90, -150 90,...
#> 4      4 POLYGON ((-150 90, -140 90,...
#> 5      5 POLYGON ((-140 90, -130 90,...
#> 6      6 POLYGON ((-130 90, -120 90,...
#> 7      7 POLYGON ((-120 90, -110 90,...
#> 8      8 POLYGON ((-110 90, -100 90,...
#> 9      9 POLYGON ((-100 90, -90 90, ...
#> 10    10 POLYGON ((-90 90, -80 90, -...

提取和中国相交的:

rstdf %>% 
  st_intersection(cn) -> res

这些编号对应的格子组成的范围正好涵盖了中国的区域:

res %>% 
  dplyr::select(value = lyr.1) -> ressf
ressf
#> Simple feature collection with 24 features and 1 field
#> Geometry type: GEOMETRY
#> Dimension:     XY
#> Bounding box:  xmin: 73.50235 ymin: 3.83703 xmax: 135.0957 ymax: 53.56362
#> Geodetic CRS:  +proj=longlat +datum=WGS84 +no_defs
#> First 10 features:
#>     value                       geometry
#> 138   138 POLYGON ((119.1566 50.03325...
#> 139   139 POLYGON ((120 51.51333, 120...
#> 170   170 MULTIPOLYGON (((74.38025 40...
#> 171   171 POLYGON ((80 42.04188, 80 4...
#> 172   172 POLYGON ((90 47.88057, 90 4...
#> 173   173 POLYGON ((100 42.64699, 100...
#> 174   174 POLYGON ((110 42.63796, 110...
#> 175   175 MULTIPOLYGON (((127.5189 50...
#> 176   176 POLYGON ((130 49.02151, 130...
#> 206   206 POLYGON ((80 30.67492, 80 4...

我们注意到每个 h5 文件的文字里面都有类似 h00v01 的编号:

fldf6$value[1]
#> [1] "https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/2023/001/VNP46A2.A2023001.h00v01.001.2023012002938.h5"

下面我们还需要找到 ressf 数据中的编号与 hv 的对应关系:

0:17 %>% 
  crossing(0:35) %>% 
  set_names("v""h") %>% 
  arrange(v, h) %>% 
  mutate_all(~sprintf("%02d", .x)) %>% 
  mutate(names = paste0("h", h, "v", v)) %>% 
  mutate(value = 1:648) -> tabdf

tabdf
#> # A tibble: 648 × 4
#>    v     h     names  value
#>    <chr> <chr> <chr>  <int>
#>  1 00    00    h00v00     1
#>  2 00    01    h01v00     2
#>  3 00    02    h02v00     3
#>  4 00    03    h03v00     4
#>  5 00    04    h04v00     5
#>  6 00    05    h05v00     6
#>  7 00    06    h06v00     7
#>  8 00    07    h07v00     8
#>  9 00    08    h08v00     9
#> 10 00    09    h09v00    10
#> # ℹ 638 more rows

所以筛选这些格子的正则表达式就是这个:

ressf %>% 
  inner_join(tabdf) %>% 
  pull(names) %>% 
  paste0(collapse = "|") -> regexp

regexp
#> [1] "h29v03|h30v03|h25v04|h26v04|h27v04|h28v04|h29v04|h30v04|h31v04|h25v05|h26v05|h27v05|h28v05|h29v05|h30v05|h26v06|h27v06|h28v06|h29v06|h30v06|h28v07|h29v07|h28v08|h29v08"

然后就可以根据这个正则表达式筛选中国的格子了:

fldf6 %>% 
  filter(str_detect(value, regexp)) -> cnfldf6 

cnfldf6 
#> # A tibble: 17,322 × 1
#>    value                                                                        
#>    <chr>                                                                        
#>  1 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/2023/001…
#>  2 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/2023/001…
#>  3 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/2023/001…
#>  4 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/2023/001…
#>  5 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/2023/001…
#>  6 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/2023/001…
#>  7 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/2023/001…
#>  8 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/2023/001…
#>  9 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/2023/001…
#> 10 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46A2/2023/001…
#> # ℹ 17,312 more rows

由于时间关系,我们只下载前 5 天的数据:

# 提取日期
cnfldf6 %>% 
  mutate(date = str_extract(value, "A\\d{7}")) %>% 
  mutate(date = str_remove_all(date, "A")) %>% 
  mutate(year = as.numeric(str_sub(date, 14)),
         day = as.numeric(str_sub(date, 57)),
         newdate = ymd(paste0(year, "-01-01")) + day - 1) %>% 
  dplyr::select(-date, -year, -day) -> cnfldf62

# 选择前 5 天的
cnfldf62 %>% 
  filter(newdate <= ymd("2023-01-05")) -> cnfldf7

cnfldf7
#> # A tibble: 240 × 2
#>    value                                                              newdate   
#>    <chr>                                                              <date>    
#>  1 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46… 2023-01-01
#>  2 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46… 2023-01-01
#>  3 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46… 2023-01-01
#>  4 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46… 2023-01-01
#>  5 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46… 2023-01-01
#>  6 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46… 2023-01-01
#>  7 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46… 2023-01-01
#>  8 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46… 2023-01-01
#>  9 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46… 2023-01-01
#> 10 https://ladsweb.modaps.eosdis.nasa.gov/archive/allData/5000/VNP46… 2023-01-01
#> # ℹ 230 more rows

下载 HDF5 文件

下面就可以逐一下载这些文件了。

NASA 推荐的下载方法是使用 wget,Mac 系统自带这个命令,不过 Windows 电脑需要安装,安装方法可以参考:https://ladsweb.modaps.eosdis.nasa.gov/tools-and-services/data-download-scripts/#wget ,另外也可以百度一下 wget 的使用。这个命令在 Mac 上是在“终端” App 上运行的,在 Windows 上是在命令行工具(按 win+R 输入 cmd 回车就可以打开了)里面运行的。

另外使用 httr 包下载也是可以的,试试一个:

library(httr)
GET(cnfldf7$value[1], 
    add_headers(c(
      Authorization = "Bearer eyJ0eXAiOiJKV1QiLCJvcmlnaW4iOiJFYXJ0aGRhdGEgTG9naW4iLCJzaWciOiJlZGxqd3RwdWJrZXlfb3BzIiwiYWxnIjoiUlMyNTYifQ.eyJ0eXBlIjoiVXNlciIsInVpZCI6ImN6eGEiLCJleHAiOjE3MjI3NTAzNjAsImlhdCI6MTcxNzU2NjM2MCwiaXNzIjoiRWFydGhkYXRhIExvZ2luIn0.nJalDlQx31wHllEyIBsFMMjLhRA8tCEV9zaSC3q5K4JrY5Gem5m622NDRqQoF_R7w1KksN4cLmVJroilLH0zKeLRUX4vHS97jy008zRNuNoBcAhwXBeXue6scUsWsAfYre3Y-u61HNswQy0w6emOa5IbkG11Kc6umbHXh9XOHj2R5eOcXeSkiAHKmFv4LZSQXAkbJV_UIzcE-WLzxI3gyQnNrl_DVyfZonQM2FkZlSpc7Gt--Tn7pL03kKgb_Qz9KGhLxt7RfHqt0icgc4lnHjIaRW1xXS9G490xPyqlKWwuc7tfYL0Ymq7Kky7KP_xft9Jn-wWbuR5bvpFIoafeuw"
    ))) -> getres 

其中 eyJ...afeuw 是我的 token,大家可以从这里生成和查看自己的 token:https://urs.earthdata.nasa.gov/profile (Generate Token 页面)

保存为 h5 文件:

content(getres) %>% 
  writeBin("temp.h5")

然后就可以循环下载所有的 h5 文件了:

dir.create("h5data")
parLapply(cl, cnfldf7$value, function(x){
  if (!file.exists(paste0("h5data/", basename(x)))) {
    httr::GET(x, 
              httr::add_headers(c(
                Authorization = "Bearer eyJ0eXAiOiJKV1QiLCJvcmlnaW4iOiJFYXJ0aGRhdGEgTG9naW4iLCJzaWciOiJlZGxqd3RwdWJrZXlfb3BzIiwiYWxnIjoiUlMyNTYifQ.eyJ0eXBlIjoiVXNlciIsInVpZCI6ImN6eGEiLCJleHAiOjE3MjI3NTAzNjAsImlhdCI6MTcxNzU2NjM2MCwiaXNzIjoiRWFydGhkYXRhIExvZ2luIn0.nJalDlQx31wHllEyIBsFMMjLhRA8tCEV9zaSC3q5K4JrY5Gem5m622NDRqQoF_R7w1KksN4cLmVJroilLH0zKeLRUX4vHS97jy008zRNuNoBcAhwXBeXue6scUsWsAfYre3Y-u61HNswQy0w6emOa5IbkG11Kc6umbHXh9XOHj2R5eOcXeSkiAHKmFv4LZSQXAkbJV_UIzcE-WLzxI3gyQnNrl_DVyfZonQM2FkZlSpc7Gt--Tn7pL03kKgb_Qz9KGhLxt7RfHqt0icgc4lnHjIaRW1xXS9G490xPyqlKWwuc7tfYL0Ymq7Kky7KP_xft9Jn-wWbuR5bvpFIoafeuw"
              ))) -> getres 
    writeBin(content(getres), paste0("h5data/", basename(x)))
  }
}) -> tempres 

处理 h5 文件得到栅格数据

h5 文件可以使用 rhdf5 包处理,该包的安装方法:

if (!require("BiocManager", quietly = TRUE))
    install.packages("BiocManager")

BiocManager::install("rhdf5")

读取:

library(rhdf5)
library(terra)
# 查看所有的层
rhdf5::h5ls("temp.h5") %>% 
  as_tibble()
#> # A tibble: 15 × 5
#>    group                                  name                otype dclass dim  
#>    <chr>                                  <chr>               <chr> <chr>  <chr>
#>  1 /                                      HDFEOS              H5I_… ""     ""   
#>  2 /HDFEOS                                ADDITIONAL          H5I_… ""     ""   
#>  3 /HDFEOS/ADDITIONAL                     FILE_ATTRIBUTES     H5I_… ""     ""   
#>  4 /HDFEOS                                GRIDS               H5I_… ""     ""   
#>  5 /HDFEOS/GRIDS                          VNP_Grid_DNB        H5I_… ""     ""   
#>  6 /HDFEOS/GRIDS/VNP_Grid_DNB             Data Fields         H5I_… ""     ""   
#>  7 /HDFEOS/GRIDS/VNP_Grid_DNB/Data Fields DNB_BRDF-Corrected… H5I_… "INTE… "240…
#>  8 /HDFEOS/GRIDS/VNP_Grid_DNB/Data Fields DNB_Lunar_Irradian… H5I_… "INTE… "240…
#>  9 /HDFEOS/GRIDS/VNP_Grid_DNB/Data Fields Gap_Filled_DNB_BRD… H5I_… "INTE… "240…
#> 10 /HDFEOS/GRIDS/VNP_Grid_DNB/Data Fields Latest_High_Qualit… H5I_… "INTE… "240…
#> 11 /HDFEOS/GRIDS/VNP_Grid_DNB/Data Fields Mandatory_Quality_… H5I_… "INTE… "240…
#> 12 /HDFEOS/GRIDS/VNP_Grid_DNB/Data Fields QF_Cloud_Mask       H5I_… "INTE… "240…
#> 13 /HDFEOS/GRIDS/VNP_Grid_DNB/Data Fields Snow_Flag           H5I_… "INTE… "240…
#> 14 /                                      HDFEOS INFORMATION  H5I_… ""     ""   
#> 15 /HDFEOS INFORMATION                    StructMetadata.0    H5I_… "STRI… "( 0…

我们主要需要的是 Gap-Filled DNB BRDF-Corrected NTL 层,该层的名字是 /HDFEOS/GRIDS/VNP_Grid_DNB/Data Fields/Gap_Filled_DNB_BRDF-Corrected_NTL (group 也要带上)

# 读取该层的数据
rhdf5::h5read("temp.h5", name = "/HDFEOS/GRIDS/VNP_Grid_DNB/Data Fields/Gap_Filled_DNB_BRDF-Corrected_NTL") -> mat

# 得到的是个矩阵下面我们再把它转换成栅格数据
dim(mat)
#> [1] 2400 2400

矩阵数据转换成栅格数据需要设定坐标系和范围。所有的数据坐标系都是 +proj=longlat +datum=WGS84 +no_defs,但是范围却是不同的。下面我们再生成各个格子的范围数据:

# 计算每个格子的 bounding box:
rstdf %>% 
  mutate(value = 1:648) %>% 
  inner_join(ressf %>% st_drop_geometry()) %>% 
  inner_join(tabdf) %>% 
  dplyr::select(names) %>% 
  mutate(bbox = map(geometry, ~st_bbox(.x))) %>% 
  st_drop_geometry() %>% 
  as_tibble() -> bboxdf

bboxdf
#> # A tibble: 24 × 2
#>    names  bbox      
#>    <chr>  <list>    
#>  1 h29v03 <bbox [4]>
#>  2 h30v03 <bbox [4]>
#>  3 h25v04 <bbox [4]>
#>  4 h26v04 <bbox [4]>
#>  5 h27v04 <bbox [4]>
#>  6 h28v04 <bbox [4]>
#>  7 h29v04 <bbox [4]>
#>  8 h30v04 <bbox [4]>
#>  9 h31v04 <bbox [4]>
#> 10 h25v05 <bbox [4]>
#> # ℹ 14 more rows
# 保存
bboxdf %>% 
  write_rds("bboxdf.rds")

这样我们就可以根据 hv 编号给不同的栅格数据设定不同的范围了。

处理 h5 文件得到栅格数据

首先索引所有的 h5 文件并生成日期:

fs::dir_ls("h5data") %>% 
  as.character() %>% 
  as_tibble() %>% 
  mutate(date = str_extract(value, "A\\d{7}")) %>% 
  mutate(date = str_remove_all(date, "A")) %>% 
  mutate(year = as.numeric(str_sub(date, 14)),
         day = as.numeric(str_sub(date, 57)),
         newdate = ymd(paste0(year, "-01-01")) + day - 1) %>% 
  dplyr::select(-date, -year, -day) -> h5fl

例如 2023 年 1 月 1 号的:

h5fl %>% 
  filter(newdate == ymd("2023-01-01")) %>% 
  pull(value) -> files 

读取为栅格数据:

lapply(files, function(x){
  rhdf5::h5read(x, name = "/HDFEOS/GRIDS/VNP_Grid_DNB/Data Fields/Gap_Filled_DNB_BRDF-Corrected_NTL") -> mat
  mat[mat > 65534] <- NA
  terra::rast(mat) %>% 
    trans() %>% 
    `crs<-`("+proj=longlat +datum=WGS84 +no_defs"
}) -> rstlist

这里出现了 65534 这个数字。从该数据的介绍文档的第 50 页可以看到:https://ladsweb.modaps.eosdis.nasa.gov/api/v2/content/archives/Document%20Archive/Science%20Data%20Product%20Documentation/VIIRS_Black_Marble_UG_v1.3_Sep_2022.pdf,该夜间灯光数据有有效值是 0-65534,所以超过 65534 的被设定为了 NA。

提取 hv 编号并和 bboxdf 合并:

str_extract(files, "h\\d{2}v\\d{2}") %>% 
  as_tibble() %>% 
  set_names("names") %>% 
  left_join(bboxdf) %>% 
  pull(bbox) -> bboxlist

然后循环给 rstlist 里栅格数据设定正确的范围:

lapply(1:length(files), function(x){
  c(bboxlist[[x]]) -> bboxtmp
  rstlist[[x]] %>% 
    `ext<-`(c(bboxtmp["xmin"], bboxtmp["xmax"],
              bboxtmp["ymin"], bboxtmp["ymax"]))
}) %>% 
  sprc() %>% 
  mosaic() -> rstall

rstall
#> class       : SpatRaster 
#> dimensions  : 14400, 16800, 1  (nrow, ncol, nlyr)
#> resolution  : 0.004166667, 0.004166667  (x, y)
#> extent      : 70, 140, 0, 60  (xmin, xmax, ymin, ymax)
#> coord. ref. : +proj=longlat +datum=WGS84 +no_defs 
#> source(s)   : memory
#> name        : lyr.1 
#> min value   :     0 
#> max value   : 60644

sprc() 和 mosaic() 的组合可以列表里面存储的栅格数据们合并成一个大栅格数据(类似拼图),这种操作被称为“镶嵌”。

rstall 就是合并好的夜间灯光栅格数据了:

plot(log(rstall))

这样我们就处理好一天的数据了。循环所有天的数据即可:

dir.create("nightlight")

unique(h5fl$newdate) -> datelist 
clusterExport(cl, "h5fl")
clusterExport(cl, "bboxdf")
clusterEvalQ(cl, ({
  library(tidyverse)
  library(terra)
})) -> tempres 
parLapply(cl, datelist, function(x){
  if (!file.exists(paste0("nightlight/", x, ".tif"))){
    h5fl %>% 
      filter(newdate == ymd(x)) %>% 
      pull(value) -> files 
    
    # 读取为栅格数据
    lapply(files, function(x){
      rhdf5::h5read(x, name = "/HDFEOS/GRIDS/VNP_Grid_DNB/Data Fields/Gap_Filled_DNB_BRDF-Corrected_NTL") -> mat
      mat[mat>65534] <- NA
      terra::rast(mat) %>% 
        trans() %>% 
        `crs<-`("+proj=longlat +datum=WGS84 +no_defs"
    }) -> rstlist
    
    # 提取 hv 编号并和 bboxdf 合并
    str_extract(files, "h\\d{2}v\\d{2}") %>% 
      as_tibble() %>% 
      set_names("names") %>% 
      left_join(bboxdf) %>% 
      pull(bbox) -> bboxlist
    
    lapply(1:length(files), function(x){
      c(bboxlist[[x]]) -> bboxtmp
      rstlist[[x]] %>% 
        `ext<-`(c(bboxtmp["xmin"], bboxtmp["xmax"],
                  bboxtmp["ymin"], bboxtmp["ymax"]))
    }) %>% 
      sprc() %>% 
      mosaic() %>% 
      `names<-`(x) %>% 
      writeRaster(paste0("nightlight/", x, ".tif"))
  }
}) -> res 

再读取进来检查下:

rast("nightlight/2023-01-01.tif") -> rst
rst
#> class       : SpatRaster 
#> dimensions  : 14400, 16800, 1  (nrow, ncol, nlyr)
#> resolution  : 0.004166667, 0.004166667  (x, y)
#> extent      : 70, 140, 0, 60  (xmin, xmax, ymin, ymax)
#> coord. ref. : lon/lat WGS 84 (EPSG:4326) 
#> source      : 2023-01-01.tif 
#> name        : 2023-01-01 
#> min value   :          0 
#> max value   :      60644

如果只想要中国范围的,可以再用前面的 cn 裁剪下:

rst %>% 
  terra::crop(terra::vect(cn)) %>% 
  terra::mask(terra::vect(cn)) -> rst2

至于计算各省市区县的平均夜间灯光亮度这里就不再讲解了,感兴趣的小伙伴可以学习平台上的一些栅格转面板课程。

课程信息

该课程已经讲解完,感兴趣的小伙伴可以点击文末的阅读原文跳转到 RStata 平台上观看录播~

  1. 直播地址:腾讯会议(需要报名 RStata 培训班参加)
  2. 讲义材料:需要购买 RStata 会员,详情可阅读:一起来学习 R 语言和 Stata 啦!学习过程中遇到的问题也可以随时提问!

更多关于 RStata 会员的更多信息可添加微信号 r_stata 咨询:

附件下载(点击文末的阅读原文即可跳转):

https://rstata.duanshu.com/#/brief/course/270178a4d6bb4ee2ba8b66ae71de3b8f


RStata
一起学习 R 语言和 Stata 吧!
 最新文章