терпимо по скорости отрабатывает. Внутри unix timestamp.
Главная проблема в том, что рабочие запросы к базе не больше 300 ms должны выполняться в этот момент. А удаление сильно нагружает сервера и в диск база начинает упираться.
А что профитнее: bulkwrite удаление 1000 элементов и sleep или по одному с небольшим слипом между ними?
Bulk это сетевая оптимизация. Просто группировка запросов в один большой пакет. Мне кажется эффективные будте если вы поделите timestamp на диапазоны которые удаляются в примерно устраивающее вас время и сделаете deleteMany по этому диапазону. Так будет открываться один курсор и сразу дропать документы. У вас сейчас получается N+1 запрос.
Обсуждают сегодня