169 похожих чатов

Вообще мне цикл понадобился чтобы разбить одну таблицу из к

примеру 5 млн 562 тыс строк на несколько
подтаблиц по 100 000 строк (последняя таблица будет меньше 100 000 строк), чтобы можно было эти подтаблицы закидывать по одной в базу данных, а не целиком всю таблицу с 5 млн строк закидывать в базу данных, так как сервер с базой имеет всего 1 гиг оперативы и падает когда туда сразу приходит 5 млн строк...

Решил сделать такую нарезку одной большой таблицы на чанки по 100тыс строк в цикле ...

Может это не правильный подход? Если кто-то сможет подсказать более умный вариант, буду очень признателен

8 ответов

17 просмотров

1. лучше итераторами пользоваться. purrr::walk или просто data.table. В постановке 'снизить нагрузку на сервер БД' задача принципиально однопоточная и последовательная. 2. data.frame разбивается на чанки. Можно делать это 100500 способами, один из простейших в функциях tidyverse: row_number() %/% 100000 3. В подходе data.table можно как-то так: dt[, chunk := .I %/% 100000][, writeChunk(.SD), by = chunk] где writeChunk(){.......; return('результат записи')} пишет кусок таблицы в базу https://rdatatable.gitlab.io/data.table/index.html

Есть базовая функция split(), которая разделит датафрейм на список датафреймов. Ну а потом по списку можно lapply()/purrr делать

Rus- Автор вопроса
Ivan Pozdniakov
Есть базовая функция split(), которая разделит дат...

на список по сколько строк? И как она поделит датафрейм из 7 строк, если надо поделить на чанки по 3 строки? То есть чанк1 - это строки с 1 по 3 чанк 2 - это строки с 4 по 6 а последний чанк3 с одной оставшейся строкой номер 7 эта функция обрежет или наоборот добавит еще две пустые строки , чтобы чанк3 был с 7 по 9 строку?

Rus
на список по сколько строк? И как она поделит дата...

Для split нужен вектор-группирующая переменная. Можно задать, например, через rep: split(iris, head(rep(1:ceiling(nrow(iris)/3), each = 3), nrow(iris)))

Rus- Автор вопроса
Ilya Shutov
1. лучше итераторами пользоваться. purrr::walk или...

Попытался сделать через data.table, иногда заливка проходит нормально, а иногда падает ... Такое ощущение , что заливка идет не чанками по 50тыс строк ( такие чанки просто не могут занимать 1 гиг оперативы на сервере... из Питона , эта же таблица в эту же базу заливается чанками по 100 тыс строк без проблем) , а весь объем в 6 млн строк сразу туда валится... Посмотрите пожалуйста может я неверно строку прописал ? GAaud_h[, chunk := .I %/% chunksize][, DBI::dbWriteTable(con, "GAaud_hist", .SD, append=TRUE , row.names = TRUE), by="chunk"]

Rus- Автор вопроса
Andrey
Надо data.table в однопоток перевести

По умолчанию разве не в однопотоке ?

Rus
screenshot Попытался сделать через data.table, иногда заливка...

Есть же отдельная команда для добавления строк: dbAppendTable

Похожие вопросы

Обсуждают сегодня

Господа, а что сейчас вообще с рынком труда на делфи происходит? Какова ситуация?
Rꙮman Yankꙮvsky
29
А вообще, что может смущать в самой Julia - бы сказал, что нет единого стандартного подхода по многим моментам, поэтому многое выглядит как "хаки" и произвол. Короче говоря, с...
Viktor G.
2
30500 за редактор? )
Владимир
47
а через ESC-код ?
Alexey Kulakov
29
Чёт не понял, я ж правильной функцией воспользовался чтобы вывести отладочную информацию? но что-то она не ловится
notme
18
У меня есть функция где происходит это: write_bit(buffer, 1); write_bit(buffer, 0); write_bit(buffer, 1); write_bit(buffer, 1); write_bit(buffer, 1); w...
~
14
Добрый день! Скажите пожалуйста, а какие программы вы бы рекомендовали написать для того, чтобы научиться управлять памятью? Можно написать динамический массив, можно связный ...
Филипп
7
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Карта сайта