узнать фактически поддерживаемый размер контекста, на котором была натренирована или затюнена модель? Я раньше смотрел по max_position_еmbeddings, но это не оно. В документациях и карточках на HF иногда есть расхождения.
2. Если модель была на 16к контекст, а потом ее затюнили с 4к датасетом, она становится 4к или продолжает быть 16к, просто хуже обрабатывает длинные последовательности?
3. Если есть модель 4к, а я хочу сделать из нее 16к, можно ли это сделать через PEFT типа LoRA/QLoRA или только полноценным файнтюнингом?
Заранее низкий поклон за любые ответы, ссылки на ноутбуки или статьи.
1. Это оно, по крайней мере верхняя граница, по крайней мере без учёта RoPE scaling. 2. Второе. 3. Можно.
Спасибо! А как проверить, позволяют ли позиционные эмбеддинги?
ну либо по max_position_еmbeddings, либо по rope_scaling
Обсуждают сегодня