А чё делать, у хохлов перемоги кончились, скучно
О ну раз скучно. Помоги, пожалуйста)) Есть база с filestream 12TB. Полный бэкап делается больше месяца, как ускорить выполнение полного бэкапа.
Дропнуть базу )
У самого мысли крутятся "обоссать и поджечь"
во что упирается?
Помогай программе в ручную , добавляй по одному элементу
mdf,ldf быстро, в BLOBstore количества мелких файлов особенно $fslog
Там вся информация является оперативной? Есть вероятность, что твои 11 терабайт нафиг никому не нужны и являются историей, которую давно пора скинуть на хард в подвале
А этого никто сказать не может)))
у меня база сторонняя разработка документооборота, и файлы изначально были на диске в файл стрим, наступил момент - очень долго бекапилось при ее размере меньше терабайта. Мое решение было - перенос всех файлов в отдельную файловую группу - транзакционно надежно, при размере в 1.5ТБ бекапится за 4-5 асов. думаю твоя база такая большая из-за именно мелких файлов, а размер кластера на диске где лежит файлстрим у тебя 64к
bytes per sector и bytes per physical sector 512, но это на тачке где sql крутится. Надо будет посмотреть сколько на СХД. А группа filestream нормально переносится в другую группу?
А рекомендуемый размер сектора для filestream какой? Если сделаю для группы отдельное хранилище
Ты не туда смотришь - fsutil fsinfo ntfsinfo c:
как раз через него
Bytes Per Cluster?
Так вот. На сколько я понял из того видоса, если использовать только файлстрим, то таблица создается в файлгруппе с общими данными. Так раьотало до мсскл2008. Далее появилась filetable. Там оно изначально создается в файловой группе отдельной для файлстрима и там все интереснее тогда. Оно уже сразу в своей файлгруппе хранится тогда.
Обсуждают сегодня