добавлял быстрее?
ну я переносил другую базу 600 Гб, менее чем за 8 часов, при том, что железо было значительно слабее
У нас 1.8ТБ дамп разворачивается за 3-4 часа, а 900ГБ через COPY должны где-то за часа 2 обрабатываться
COPY в CSV ? Или через ora2pg?
Как успехи с импортом? :)
Конкретно про миграцию с Оракла не подскажу — не сталкивался ни разу. Но вот сейчас смотрю на график использования ресурсов диска на ВМке с DWH, в момент выполнения тяжелого ETL-пакета через COPY размер базы (с учетом индексов, правда, но тем не менее) увеличился на 80ГБ за 15 минут
с переменным успехом. С первой попытка срезался, так как сломан винт, подозреваю. Запустил повтроно. Идёт. Сейчас добавляю мусорные слова (там несколько файлов) SELECT reltuples::bigint FROM pg_catalog.pg_class WHERE relname = 'slovasort'; reltuples ------------ 2085512832 2 мрлд строк
то есть больше 95 мегабайт в секунду. зы но сколько при этом ещё прыгнуло в оперативку и "догружается" во время работы?
А вот это посмотреть не могу, заббикс почему-то мониторит только общий объем, и, кроме падений базы, почти всегда рисует ОЗУ полкой
(80*1024*1024*1024)/(15*60)
Обсуждают сегодня