обработке большого объема данных? Как я понимаю если, например, вызывать write для каждых 1000 записей, то все равно коммит будет только один. Так что вроде нет смысла в разбивке. Я думаю имеет смысл при использовании отдельных курсоров для каждого подмножества (но это вроде как плохая практика) или при использовании with_delay ... А если это все же делать без батчей, то как лучше сделать так, чтобы не подвешивать в базе очень долгие запросы ?
я делаю коммит каждые 100 (иногда 10) записей в ручную. Иначе может оперативки не хватить
Кс запросов в чтжпт
Обсуждают сегодня