выложенный на сайте? Или это антинаучная жесть?
что сложного и невозможного? Зависит от сайта и прочего. Вот, например, я писал простой скрипт для скачивания данных о мобильности во время пандемии Apple , там правда не архив, но сути не меняет: library(tidyverse) cdn_url <- "https://covid19-static.cdn-apple.com" json_file <- "covid19-mobility-data/current/v3/index.json" tf <- tempfile(fileext = ".json") curl::curl_download(paste0(cdn_url, "/", json_file), tf) json_data <- jsonlite::fromJSON(tf) csv_url <- paste0(cdn_url, json_data$basePath, json_data$regions$`en-us`$csvPath) date_csv_data <- stringr::str_extract(csv_url, "\\d{4}-\\d{2}-\\d{2}") mobility <- readr::read_csv(csv_url) write.csv2(mobility, paste0("data_raw/apple_mobility_data_", date_csv_data, ".csv"), na = "", row.names = FALSE) Вопрос совсем непонятный и абстрактный
Спасибо огромное! Вопрос не гуглился, поэтому я предположила, что это невозможно или совсем некорректно. В прошлом году я не могла спарсить базу со всеми географическими адресами, которая не хотела загружаться на ноут, а сейчас коллега спросил, возможно ли это теоретически. Извините, если неуместно получилось
Постарайтесь предельно четко сформулировать задачу. В подобных задачах нюансов масса. Иногда гораздо проще стащить руками нужные файлы и дальше просто заниматься расчетами.
Что за база адресов, которая не хотела загружаться? Я до сих пор не понимаю, какая стоит перед вами задача.
Скачать и загеокодить все адреса города Киселевска Кемеровской области с сайта ФИАС, прямо из архива, не скачивая сам архив
Обсуждают сегодня