таблицу) через spring data (хибер). В момент записи heap раздувается до 2 гигов..
Можно что-то подтюнить или хибер в данном случае неприменим?
Если разово, стоит ли переживать? Добавьте так же разово памяти да забудьте Причин может быть много, подтюнить тоже вариантов масса
Я бы разом не пытался сохранить такую пачку, также подтюнил бы hibernate задав размер батча (batch) также может быть было и как я понимаю, flush выполняется после засовывания всей пачки данных и пока транзакция не закончится - айбернет это будет все в контексте держать. Начни отсюда: https://www.baeldung.com/jpa-hibernate-batch-insert-update
не разово. пару раз в сутки. зависит от хотелок пользовптеля. а если нахимичит на 2млн… у под в О.Ш. есть лимиты по памяти и есесно они могут упасть, не записав критически важные данные
батч есть. но я так понял вся боль из-за транзакционности
Обсуждают сегодня