внешних словарей? По количеству строк, по размеру данных, по частоте добавления и изменения строк.
Ну в целом вопрос насколько у вас хватит памяти. (может у вас ТБ оперативки есть) А так до десятков миллионов ключей, десятков ГБ в целом ок. Добавление-изменение обычно не так страшно, (ну разве что вы изменяете каждую секунду) и изменения должны быть отражены моментально.
в Альтинити есть клиенты которые покупают в GC машины с 700ГБ озу , чтобы создавать словари которые жрут 500Гб, причем их все устраивает, потому что по другому они задачу решить не могут.
словари можно использовать например с лайаутом direct или cached ну и можно в словарь подтягивать только дельты из источника
> ну и можно в словарь подтягивать только дельты из источника Ну тут вопрос, насколько это будет быстрее для очень больших словарей, КХ же все равно будет создавать(?) новую хештаблицу, а не подправлять в старой.
я точно не помню, возможно так, это надо проверять на реальных данных.
Обсуждают сегодня