основе датасета из 100 однотипных текстов по 1000+- токенов каждый, где для половины будет генериться ответ "Да", а для другой - "Нет"? Будет оно потом более-менее правильно генерить в ответ на такое "да" или "нет"?
Насколько это вообще оправданный подход для таких кейсов - ну, применение адаптера для Llama?
Может датасет нужно других размеров?
И сколько по времени уйдет на такой тюнинг? Можно ли это сделать на 10 ядрах CPU?
классификация ?
Извините, наш магический шар сломан
Точно можно сказать тюнингу на CPU нет. Ещё тюнингу ламы
GPT-4 сказала что это "бинарная классификация" 🤨
на ламе не нужно делать классификацию
Обсуждают сегодня