в верхнюю сторону? То есть чтобы сетка предсказывала значение как можно ближе, но предсказанное значение должно быть обязательно больше актуального. Если использовать tf.where в лоссе, ломается градиент. И шаманство с tf.stop_gradient не особо помогает. Reinforcement learning очень не хочется использовать
Чтобы "обязательно больше", такого - не видел. Но можно обучить квантильную регрессию (и для бустинга, и для сеток соответствующий лосс есть или легко закодить), тогда модель будет пытаться накрыть сверху, скажем, 99% значений. Можешь считать это гладкой аппроксимацией твоего where, кстати.
Я neat для прототипирования сейчас как раз и использую. Он даже вполне неплохие результаты дает, но учится больно долго
Обсуждают сегодня