по файнтюну Flan T5 или других инструкт-моделей?
Пытаюсь понять, как лучше при тюнинге добавлять in-context примеры и промпт. Имеет ли смысл делать промпт большим и вообще добавлять примеры, если есть тюнинг? Модель так и так данные + задачу выучивает, кажется, ну а вдруг. Или например сделать 10 разных промптов и с ними тюнить, и мб так будет полезно.
Ничего добавлять не надо. Файнтюнится она как любая Seq2Seq модель. Пример кода обучения: https://github.com/Den4ikAI/FRED-T5-Finetuning
вопрос не в коде обучения, а в способах получить от одной модели больше на том же наборе данных за счёт того, что это не обычная seq2seq модель, а инструкт. Если бы "ничего доблавтяь не надо было", то p-tuning бы никогда не появился
Ну во-первых файнтюнинг и p-tuning разные вещи. Во время p-tuninga мы не обучаем саму модель, а только подбираем промпт.
Так флан буст получает от мультитаска с инструкциями. Никто не гарантирует, что SFT с инструктом сработает лучше, чем он же без инструкта, если там всего одна задача.
Разнообразных данных надо, чем больше, тем лучше, тогда почти гарантированно будет буст качества
разные вещи, и...что? Я использую один пример как демонстрацию того, что тюнинг "промпта" имеет смысл в контексте задачи
Никто не гарантирует и обратного, и именно поэтому я задаю вопрос - экспериментировал ли кто-то? Даёт ли это буст? При каких условиях? А ещё в вопросе пть часть про in-context примеры, что точно отличает подход от sft
Спасибо, я это понимаю. А по исходному вопросу будет какая то информация?
Вы хоть знаете что такое p-tuning?
Делайте датасет разнообразнее и больше. Будет вам счастье
пассивная агрессия
Слушай, уже не смешно
Нет, не знаю, расскажешь?
Мб все же есть у кого реальные кейсы по тюнингу flan с примерами?
Обсуждают сегодня