до 25. Я делаю пуассоновскую регрессию простейшую и получаю MAE 3. Пуассоновская модель, ясное дело, выдаёт в качестве ответа тип int. Но я хочу усложнить модель и делаю лес, он выдаёт мне, соответственно, double. Его можно округлить, конечно, и привести к int, но, может, кто-нибудь видел частные случаи моделей, которые предназначены для целочисленной переменной? Гуглю, но, похоже, всё сводится к пуассону или извращённым преобразованиям и последующим бета-биномиальным моделям.
Регрессионную модель с дискретным выходом?
Только классификация
Да, это я и сделал уже, но мало ли, мне неизвестны какие-нибудь глубины.
Так фишка Пуассоновской регрессии же как раз в том, что она предсказывает условное матожидание Пуассоновского распределения (лямбду), которое не обязано являться целочисленным, но зная которое можно вычислить вероятность того, что целевая переменная примет любое из целочисленных значений.
Соответственно, к любому градиентному методу ML, будь то деревья, нейросети, или какая-нибудь дичь, можно просто прикрутить Пуассоновскую голову.
То есть взять формулу линейной пуассоновской регрессии из Википедии, и вместо линейной формулы theta * X вставить вашу любимую нелинейную модель. Например, в xgboost можно в качестве лосса указать count:poisson, или Poisson в катбусте, и будет пуассоновский градиентный бустинг. Или если у тебя нейросетка на торче, можно в качестве лосса указать PoissonNLLLoss, и будет пуассоновская нейронка.
Обсуждают сегодня