момент, когда ваши данные должны требовать обновления/удаления за любой промежуток времени? Допустим, что размер таблицы не превышает 1 млрд. строк.
Необходимо - обеспечить максимальную производительность запросов (выбрать всё, сделать какую либо агрегацию и т.д.) и более-менее допустимую актуальность данных?
разбить на партиции по какому нибудь признаку чтобы группировать обновления, и обновлять спокойно через collapsingMT
несколько разных БД с асинхронной репликацией между ними. постгрес для мастер данных и клик для аналитических запросов, например.
Именно для аналитики КХ и используется.
Обсуждают сегодня