170 похожих чатов

Усвоил, и еще кое что хотел бы спросить у меня есть

такой конфиг для тренинга

logging.set_verbosity_error()

trainer = transformers.Trainer(
model=model,
train_dataset = data,
args=transformers.TrainingArguments(
per_device_train_batch_size=1,
gradient_accumulation_steps=4,
num_train_epochs=1,
learning_rate=2e-4, fp16=True,
save_total_limit=3,
logging_steps=1,
output_dir=OUTPUT_DIR,
max_steps=len(data),
optim="paged_adamw_8bit",
lr_scheduler_type=["linear","cosine"][1],
warmup_ratio=0.05,
report_to = "tensorboard"
),
data_collator=transformers.DataCollatorForLanguageModeling(tokenizer, mlm=False), # way to merge training examples into bathces
)
model.config.use_cache = False, # to avoid warnings
result = trainer.train()

что здесь можно добавить или поменять чтобы память не вылетала?

Уже много что пробовал, и осталась ток 1 идея, в цыкле чистить помять перед вылетом и выгружить модель из чекпоинта для дальшейшего обучения.Но это укостыль и не ясно как это сделать и можно ли так в принцпе

8 ответов

40 просмотров

У вас Cuda out of memory?

есть параметр в TrainingArguments gradient_checkpointing, вроде он чуть уменьшает потребление памяти, но обучение дольше делается

Gleb-Maksimov Автор вопроса
Gleb Maksimov
та хоть весь день

Кстати да, попробуйте

Gleb-Maksimov Автор вопроса
Vladimir P
есть параметр в TrainingArguments gradient_checkpo...

gradient_checkpointing, усвоил, спасибо

С чекпоинта можно продолжать обучение, trainer сам загружает последний чекпоинт и продолжает обучение, для этого достаточно вызвать в последней строке result = trainer.train(True) Но возможно проблема с загрузкой адаптера, в transformers был связанный с этим баг, не знаю поправили ли его в последних версиях библиотеки

А gradient accumulation steps меняете, когда увеличиваете batch size?

Gleb-Maksimov Автор вопроса
Vladimir Grigoryev
А gradient accumulation steps меняете, когда увели...

вы о моем предложении с склом и чисткой памяти?

Похожие вопросы

Обсуждают сегодня

Господа, а что сейчас вообще с рынком труда на делфи происходит? Какова ситуация?
Rꙮman Yankꙮvsky
29
А вообще, что может смущать в самой Julia - бы сказал, что нет единого стандартного подхода по многим моментам, поэтому многое выглядит как "хаки" и произвол. Короче говоря, с...
Viktor G.
2
30500 за редактор? )
Владимир
47
а через ESC-код ?
Alexey Kulakov
29
Чёт не понял, я ж правильной функцией воспользовался чтобы вывести отладочную информацию? но что-то она не ловится
notme
18
У меня есть функция где происходит это: write_bit(buffer, 1); write_bit(buffer, 0); write_bit(buffer, 1); write_bit(buffer, 1); write_bit(buffer, 1); w...
~
14
Добрый день! Скажите пожалуйста, а какие программы вы бы рекомендовали написать для того, чтобы научиться управлять памятью? Можно написать динамический массив, можно связный ...
Филипп
7
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Карта сайта