на собственных данных.
Модели на BERT-like и Базе Данных "Вопрос-Ответ" в данном случае не рассматриваем
Это альтернативное параллельное решение, его изучаем отдельно.
И так, дообучили модель на русском языке, ruGPT3medium от Сбер
теперь если генерить напрямую, то там текст на уровне прикольной истории,
типа дети пошли в лес, а там ураган, только все в финансовых терминах
по роликам и сайтам в сети проходит тренд: делайте затравку
вопрос1 => Ответ1
Вопрос2 => Ответ2
Вопрос3 => Ответ3
Свой вопрос =>
И вот тут он по Великому Замыслу должен давать разумные ответы по загруженному тексту.
при этом реальных кейсов, кроме как придумать шутки и смешные продолжения, в сети как-то массово не находятся
Вопрос:
у кого есть реальный опыт с дообучением и few-shooting?
что реально получается?
few-shot работает, мы это проверяли в своё время на задаче детоксификации - работало работает и на других задачах вполне неплохо
увидел, спасибо )
Обсуждают сегодня