у неё свой recall, precision, f мера. Смотрите мы можем с помощью параметра B, подкрутить f меру чтобы она больше внимания уделяла recall или precision. Вопрос, зачем это делать? Это ведь никак не влияет на саму модель. Тоесть у модели
recall = 0.5, precidion = 0.6. И как бы f мера не изменяла их значимость с помощью B, это не изменит данные параметры
Тут скорее речь про изменение порога принятия решения, например при бинарной классификации: мы ставим порог 0.7, а не 0.5 для того, чтобы решить это класс 1 или 0 - тогда и изменятся recall и тп. Делается это для того, чтобы уменьшить, например, ошибку второго рода. Для наглядности возьмем скуд основанный на распознавании лиц, где лучше пару раз не пустить чела с допуском, чем пустить чела без допуска.
Обсуждают сегодня