code_region_id title slug body title_seo description is_active visit_count created_at updated_at
индекс повесили на slug и code_region_id, все колонки нужны и используются, вырезать ничего не получится.
залили данных 300 мил записей.
таблица стала весить после этого 40гб
все работает быстро, нареканий нет, но вот 300 мл это небольшая часть записей т.е. данных будет в 30 раз больше, меня смущает размер
вопрос, может для таких больших данных нужно использовать другие технологии хранения или какую технологию не выберешь, то вес будет такой же? Кто сталкивался с такой ситуацией?
"Вес" больших БД будет по-любому большой, но это не проблема. 10 миллиардов данных - это многовато IMHO для MySQL, но попробовать конечно можно, хотя б для уникального опыта. Вообще, это объём DBPegia примерно, многовато, надо columnstor , но ещё надо знать ваши требования к БД, что хотите делать с данными.
Ну типов данных нет, что-то сказать сложно. Можно сжатие включить
а с жатие на select не повлияет?
Обсуждают сегодня