или пример(tutorial) как зафайнтюнить Lora Adapter модель (например saigu) на своих данных?
https://towardsdatascience.com/fine-tune-your-own-llama-2-model-in-a-colab-notebook-df9823a04a32
Первая ссылка в гугле
Спасибо! Видел эту ссылку. Подскажите получается чтобы зафайнтюнить saigu, нужно замерджить (model.merge_and_unload()) с основной моделью, и только потом дообучать на своих данных или есть другой путь?
Вроде можно адаптер поверх адаптера. Но можно и замержить
Обсуждают сегодня