то оценить на выходе "качество" текста? Т.е. какой то вес (уверенность) посчитать, которое кореллирует с понятием "хороший" с точки зрения читабельности и смысла текста?
лайки в соцсетях ;)
Это можно) хотелось бы математическую метрику какую то иметь
BLEU, ROUGE и human evaluation. Ничего лучше пока не придумали)
Это понятно. Вопрос тут в другом. Запустил генерацию на созданной модели 3 раза - получил три разных выхода. Можно ли как то оценить "качество" текста, чтобы показать самый лучший вариант пользователю?
А что вы понимаете под "качеством" текста?
Вопрос хороший. Сгенерирован бред, сгенерирован текст более менее вменяемый. Только непонятно как это оценить математически. Допустим если берём классификатор текста, там есть confidence, по которому можно определять что модель хорошо уверена в выходном результате.
А что вы собираетесь классифицировать?
так может каким отдельным бертом замерить?
похоже на перплексию, но можно обучать свою сеть которая бы оценивала в узкой задаче выдачу, мы такое делали и в статье описали
Спасибо. А можно ссылку на статью?
https://habr.com/ru/post/583516/
Благодарю!
Обсуждают сегодня