остальной частью проектов/продуктов? Например вы создали нечто у чего можно вызвать условный метод predict чтобы что-то полезное посчиталось. Вы как эту красоту доводите до пользователя? Это отдельный сервис к которому по АПИ можно обращаться или системная библиотека или вообще какой-то докер образ? Подозреваю что способов много поэтому ссылки приветствуются
Python2Python, кстати, не так тривиально. Модель надо сериализовать. Если это sklearn, то там не придумывается ничего лучше pickle + docker с фиксированной версией sklearn (потому что гарантий на обратную совместимость в общем-то нет). Если это какой-нибудь готовый бустер (xgb/catboost/lgbm) - они умеют сериализовать в свой формат. Дальше можно запускать на чем хочется. TF умеет в serving - у него есть раздражающие моменты вроде попыток угадать тип задачи, но вполне рабочее решение можно получить.
Обсуждают сегодня