не пользовался. Я хочу подключить её к модели, чтобы там добавились эти дополнительные матрицы для обучения. Но при этом я хочу обучать и частично модель (замораживаю часть слоёв сам). Как сделать так, чтобы помимо LoRA обучалась ещё и вся остальная модель?
for name,p in model.named_parameters(): if name in ['modules_names_you_want_to_unfreeze']: p.requires_grad = True
peft_config = LoraConfig( r=8, lora_alpha=4, task_type=TaskType.SEQ_CLS, lora_dropout=0.1, inference_mode=False, target_modules=["query_proj", "value_proj"], modules_to_save=['classifier', 'pooler', 'encoder'], ) Мне даже сюда не нужно прописывать тогда encoder итд, если я хочу его обучать?
да по идее даже можете поменять
а что именно хотите разморозить?
deberta_large, в идеале хотел бы разморозить всё + добавить слои лоры, а потом уже заморозить часть первых слоёв-энкодеров
а зачем лора тогда?
Чтобы в передних слоях обучались только её проекции
Обсуждают сегодня