порядка 70ТБ в год(но сама база 3,3ТБ потому что много старых данных сжимается и удаляется)
Под ней 1 файловая группа и в ней 1 датафайл, те кто её делал не сильно парились о будущем системы)
При этом ядер много и железо мощное.
Если бы я сейчас делал эту базу с нуля я бы конечно сделал несколько датафайлов одного размера с приростом например 1ГБ. Такие советы есть во многих книжках.
Что делать сейчас, кто нибудь пробовал в уже существующую БД добавлять датафайлы? Есть ли в этом смысл? Станет ли лучше в таком случае (быстрее) вставка данных? Главная цель улучшить вставку.
Правильно ли я понимаю, что если бы уже сейчас у меня было 3 дата файла по 1,1ТБ, то условные выборки работали бы с такой же скоростью как и сейчас, или это бы негативно влияло бы на выборку данных?
Наличие нескольких файлов данных сами по себе не влияют на скорость, только если они не лежат на разных дисковых подсистемах и вы можете одновременно утилизировать их параллельно.
Спасибо. Про разные диски тоже слышал. Но думал что даже на одном диске будет прирост, если условно есть конкуренция за allocation maps если не ошибаюсь
Обсуждают сегодня