примеру 5 млн 562 тыс строк на несколько
подтаблиц по 100 000 строк (последняя таблица будет меньше 100 000 строк), чтобы можно было эти подтаблицы закидывать по одной в базу данных, а не целиком всю таблицу с 5 млн строк закидывать в базу данных, так как сервер с базой имеет всего 1 гиг оперативы и падает когда туда сразу приходит 5 млн строк...
Решил сделать такую нарезку одной большой таблицы на чанки по 100тыс строк в цикле ...
Может это не правильный подход? Если кто-то сможет подсказать более умный вариант, буду очень признателен
1. лучше итераторами пользоваться. purrr::walk или просто data.table. В постановке 'снизить нагрузку на сервер БД' задача принципиально однопоточная и последовательная. 2. data.frame разбивается на чанки. Можно делать это 100500 способами, один из простейших в функциях tidyverse: row_number() %/% 100000 3. В подходе data.table можно как-то так: dt[, chunk := .I %/% 100000][, writeChunk(.SD), by = chunk] где writeChunk(){.......; return('результат записи')} пишет кусок таблицы в базу https://rdatatable.gitlab.io/data.table/index.html
Есть базовая функция split(), которая разделит датафрейм на список датафреймов. Ну а потом по списку можно lapply()/purrr делать
на список по сколько строк? И как она поделит датафрейм из 7 строк, если надо поделить на чанки по 3 строки? То есть чанк1 - это строки с 1 по 3 чанк 2 - это строки с 4 по 6 а последний чанк3 с одной оставшейся строкой номер 7 эта функция обрежет или наоборот добавит еще две пустые строки , чтобы чанк3 был с 7 по 9 строку?
Для split нужен вектор-группирующая переменная. Можно задать, например, через rep: split(iris, head(rep(1:ceiling(nrow(iris)/3), each = 3), nrow(iris)))
Попытался сделать через data.table, иногда заливка проходит нормально, а иногда падает ... Такое ощущение , что заливка идет не чанками по 50тыс строк ( такие чанки просто не могут занимать 1 гиг оперативы на сервере... из Питона , эта же таблица в эту же базу заливается чанками по 100 тыс строк без проблем) , а весь объем в 6 млн строк сразу туда валится... Посмотрите пожалуйста может я неверно строку прописал ? GAaud_h[, chunk := .I %/% chunksize][, DBI::dbWriteTable(con, "GAaud_hist", .SD, append=TRUE , row.names = TRUE), by="chunk"]
Надо data.table в однопоток перевести
По умолчанию разве не в однопотоке ?
Есть же отдельная команда для добавления строк: dbAppendTable
Обсуждают сегодня