очень большие, но и совсем маленькими не назовёшь 50.000 - 1.000.000 записей.
Задача каждую ночь копировать содержимое в другой сервис (там база на постгре).
Перезаливать таблицы целиком не очень хочется, т.к. их дофига и много больших текстовых полей, т.е. объём данных достаточно большой.
Сравнивать построчно - адов ад, проще перезалить целиком.
Есть какой-то лайф-хак, как можно обновлять только строчки, содержимое которых отличается в оригинале от копии?
Сервис в который надо копировать на django, ось - Centos 7.5
Оригинал базы живёт на Windows server.
Подскажите пожалустаб в какую сторону думать?
На каждой таблице иметь поле даты, которое при каждом апдейте будет обновляться и гонять данные по запросу текущее время- какойто промежуток времени( так что бы все изменённые данные захватил)
а что, дату обновления завести не вариант?
О, не узнал тебя в гриме...
1) UUID в каждую строку в качестве ещё одного уникального ключа. Это позволит идентифицировать строку независимо от БД, в которой она лежит. 2) timestamp -поле в каждую строку чтобы детектировать изменение записи. 3) При экспорте данных мы берём @@dbts базы данных и запоминаем. выбираем записи, timestamp которых больше старого сохранённого @dbts. Их переносим в другую СУБД, соотнося по UUID. Затем по окончании сохраняем новый @@dbts, по который мы перенесли данные. Тут примерно изложена идея. https://docs.microsoft.com/en-US/sql/t-sql/data-types/rowversion-transact-sql?view=sql-server-2017
Обсуждают сегодня