работает на семпле с качественными данными — мы наказываем её сильнее, увеличивая loss, умножая на высокий вес сэмпла
2) если модель плохо сработала на семпле с плохими данными, то мы сильно её за это не ругаем, умножая loss на 1 или, может, на значение меньше 1
имеет такая теория право на жизнь? в классификации веса юзают активно как по классам, так и по семплам, а вот по регрессии особо инфы не нашел
насколько я понимаю если при подсчете лосса штрафовать за некачественные данные то и модель будет хорошо работать только на качественных. Если это приемлемо то все логично.
Обсуждают сегодня