неделю выполняется бэкап pg_dumpall, который вызывается через баш скрипт в кроне. Столкнулся с проблемой, что заколнчилось место на диске и решил сжимать бэкапы через gzip backup.sql. Запустил сжатие текущего бэкапа, но случился дисконнект и операция прервалась. Подскажите как можно запустить выполнение команды, чтобы при этом можно было отключится от сервера, а команда продолжила свое выполнение?
tmux attach || tmux new ?
через винду подключаюсь к серверу, через wincp
не, там он руками запустил, и запущенная руками операция оборвалась
я насколько понимаю он жмет с другого сервера и операция прервалась
расскажите пожалуйста про адекватные средства
https://t.me/pgsql/281403
спасибо, пошел читать
Я посоветовал бы подключить доп диск и хранить бекапы на нем
Это надо у отдела снабжения вымаливать 😁
Эцсамое, pg_dumpall --format=custom
1. pg_dumpall не умеет ничего, кроме plain text. 2. Зачем вообще советовать дампы, когда, похоже, нужны backups?
Мне тут сегодня рассказали, что надо pg_basebackup вместо pg_dumpall использовать. Пока не разобрался что к чему
1. Ой вей, голова дырявая.
2. Для «backups» надо специально обученного сантехника по постгресу нанимать, а их на рынке ни фига нету.
Не надо. Надо документацию прочитать, и не больше, чем про дампы.
Да, сказали. Что Вам непонятно (я же, вроде, названия адекватных инструментов давал)?
Вот когда дамп делаю, то все предельно понятно, файл который можно открыть текстовым редактором и посмотреть код. А при basebackup у меня получилось 2 архива и ещё один файл. Вот как с ними работать ещё не разобрался.
А в обязанности сантехника по постгресу что-то другое входит, что ли?
Да дело-то не в понятности файлов, а в достижении целей DR. > А при basebackup у меня получилось 2 архива и ещё один файл. В документации же написано, что там к чему (мне кажется, Вы задали такие параметры, что это 1) [сжатый] кластер 2) WAL 3) метка backup)... Но прежде чем backup-ы делать, нужно цели DR определить, иначе это просто "шаманство". ;) Т.е. какие нужны RTO и RPO, хотя бы; какие "бизнес" готов выделить ресурсы для этого.
Все именно так) Завтра буду разбираться во всем этом. У нас не операционная БД а DWH и размер обычного дампа уже приближается к 500 гб. Вероятно придется что-то менять)
Всё же лучше сразу смотреть на "продвинутые" инструменты (но документацию по основам тоже полезно прочитать). :)
Обсуждают сегодня