>50к строчек. Есть необходимость частенько туда что то инсертить или циулом обрабатывать каждую строчку.
Каждый раз делать запрос в базу - затратно по времени и нагрузке. Есть ли какие то варианты ускорения работы с таким большим данным? Ну например как то синхронизировать таблицу с базы с редис, и уже там проводить разного рода манипуляции и дублировать логику в базу или как то в целом синхорнизировать какое то локальное хранилище с базой?
Вообщем у кого какие идеи на тему ускорения сией проблемы?
Проблема не в 50к строчек, а в неправильной архитектуре. Убери обработку строчек в цикле. Пути на подумать: 1) Структура хранения данных 2) Сама база – возможно тебе нужен другой тип хранилища 3) Убедись что нода и база в одном дата-центре
3 имеет значения? это про скорость что-ли?
2 пункт - например какие? монга? постгр?
sql
я не знаю твоего домена, а ты не знаешь различия баз данных. Будет диалог слепого с глухим.
Да
ок, понял принял, благодарю
50 тысяч записей, это ничего, до миллиона будет точно нормально работать с несколькими джоинамм, даже на нормализованной до какой-нибудь 6 формы. Дальше можно денормализовывать частично, но а что дальше, у Никиты экспертиза точно больше, он ответит лучше.
ну если просто 50к записей - то да, секунда-полторы выгрузка. Просто там внутри доп. джоины имеютци и обработка каждой строчки (от нее не уйти) Ну и чтобы каждый раз не делать такое, пришла идея где то разок все это сделать, а потом время от времени дописывать/перезаписывать значения, при этом в базе как хранилось - так и будет храниться
Возможно стоит посмотреть в сторону колончатых, потому что пахнет преагрегациями.
Обсуждают сегодня