сумасшедшего объема видеопамяти
Для обучения берта используют до 20 карточек типа gp100, кажется
Gpt3 это вообще подъемно?)
Если размер контекста уменьшать, то даже на 8 Gb что-то можно. С полным вроде бы 16 минимум, в 11-12 не помещается. 100 карт нужно, чтобы учить с нуля, не для дообучения.
Если речь про сберовские rugpt3*, то там вообще говоря есть 3 варианта, которые вполне можно *файнтюнить* на 8-16 Гб карточке в разумные сроки (часы...пара дней): 1) https://huggingface.co/sberbank-ai/rugpt3small_based_on_gpt2 2) https://huggingface.co/sberbank-ai/rugpt3medium_based_on_gpt2 3) https://huggingface.co/sberbank-ai/rugpt3large_based_on_gpt2 Самая маленькая rugpt3small_based_on_gpt2 безусловно будет выдавать самые плохие результаты, но вот *насколько* они будут хуже, чем результаты для rugpt3large_based_on_gpt2, сильно зависит от конкретной задачи. Вполне может оказаться, что разница будет некритична для MVP или rnd прототипа. При этом *small* позволяет делать батчи в несколько раз жирнее при тех же условиях, то есть файнтюнить быстрее. К примеру, вот на этой задачке звезды сошлись (ну нет, просто позиционные эмбеддинги зарулили) так, что при 3fold-кроссвалидации метрики для small, medium и large моделей в оптимуме отличаются на ~1 сотую:
Интересно, что далее при малом повышении lr, метрика резко падает
Обсуждают сегодня