и что с ними делать?
"Bbpe tokenizer. 50257 + special tokens 107. Prefix tokens: '<LM>', '<SC1>',.. '<SC6>'" (c хф)
Эти префикс-токены использовались для предобучения, чтобы модель с их помощью различала разные предобучательные задачи (идея позаимствована из статьи про UL2 https://arxiv.org/abs/2205.05131): LM - продолжение текста, SC* - заполнение дыр в текстах, продырявленных разными способами. Модель предназначена для дообучения на какие-то конечные задачи, и для таких задач эти специальные токены больше не нужны.
Видел, что вы делали режим ask в cointegrated/rut5-base-multitask, есть какието оценки качества именно для этой задачи?
Нет, я её качество оценивать даже не пытался, и не знаю, какие для question generation существуют общепринятые автоматические метрики качества. Интуитивно кажется, что нужно оценивать минимум четыре вещи: (1) на какую долю вопросов можно найти ответ в тексте - это можно оценить хорошей question answering моделью (2) какую долю текста покрывают ответы на сгенерированные вопросы - тоже (3) насколько вопросы грамматичны - можно попробовать оценить классификатором, обученным на CoLA (4) насколько вопросы разнообразны - наверное, можно оценить разнообразием используемых слов или разнообразием sentence embedding'ов этих вопросов
под (1) вы имеете ввиду смотреть на скоры спанов?
Обсуждают сегодня