по задаче "translation"
обучающая статья взята с huggingface
https://huggingface.co/docs/transformers/tasks/translation
при обучении непрерывно 6 эпох. показатели улучшаются плавно. это вроде ок.
а если обучать 3 раза по 2 эпохе, то итоговый результат лучше,
и при этом каждый раз при следующем заходе резкий скачок качества.
почему так может быть?
см. learning rate
learning rate - одинаковая
какой оптимизатор используешь?
скорее всего дело в статистиках оптимизатора, если начинается новое обучение без warmup, он может сильнее менять веса почему становится лучше – уже дискуссионный вопрос. Возможно, сброс статистик оптимизатора служит некой регуляризацией обучения, когда вновь любой вес может одинаково измениться
штатно, по умолчанию training_args = Seq2SeqTrainingArguments( output_dir=new_model, overwrite_output_dir=True, evaluation_strategy="epoch", learning_rate=2e-5, per_device_train_batch_size=16, per_device_eval_batch_size=16, weight_decay=0.01, save_total_limit=3, num_train_epochs=6, predict_with_generate=True, fp16=True, push_to_hub=True )
adamw_torch default
увидел, спасибо )
Обсуждают сегодня