секунду это постоянная нагрузка или пиковая?
В целом, это зависит от того какое условие для поиска документов для обновления, сколько в итоге надо обновить документов и как.
7 млн документов по <500кб это уже до 4тб без учёта того насколько хорошо документы сжимаются.
<500кб по 500 раз в секунду это до ~~250мб/с, без учёта компрессии и обновления индексов в одну сторону. Будет зависеть от множества факторов, но в первую очередь от ширины шины, пропускной способности и задержек хранилища под тем партерном нагрузили который выйдет. Если будут обновляться примерно один и те-же документы на чтение нагрузка будет меньше.
Но «максимальный размер» не очень хорошая метрика, которая позволит прикинуть не очень реалистичные цифры «верхнего предела». лучше ориентироваться на «медианный» размер.
Самый надёжный способ — сделать тестовый стол и на нём проверить на реальных данных или на данных максимально приближенных к реальным
2 шарда по 2 реплики 500 - постоянная нагрузка 500 кб - максимальный размер документа я сейчас тестирую индексы, но почему-то результат выполнения не зависит от плана, то есть что collscan, что index sacn работоают одинаково не быстро
Обсуждают сегодня