в прод?
Заметил интересную вещь, как riva. Так понял автоматически деплоит модель для прода (с участием tensorRT) из коробки (образа докера). Если правильно понял?
Нужно только модель в формат onnx конвертировать?
Trt умеет загружать модельки onnx, похоже что кварцнет очень легко инферится и так и эдак(onnxruntime/tensorRt) однако бывает что конфликтуют драйвер гпу и инфер-энжина и на практике может быть падение скорости вычислений
О, на каком железе и за какое время?
Если есть gpu, то можно через риву, у них там библиотека есть готовая, nemo2riva. На цпу можно через tritonserver с onnx или torchscript бэкендом, ну или самому сервинг написать. В оникс или ts почти все немо модели через .export легко экспортируются.
А если самим писать, стоит модель конвертировать в какой-то иной формат нежели .ckpt/.nemo или без разницы?
Не проводили сравнение, тоже интересно 😅
Спасибо за информацию, а не знаете будет ли стоит onnxruntime этого всего на цпу? К слову, тогда в любом случае нужно будет коробочный метод EncDecCTCModel.transcribe() расписывать для обработки сигнала?
в случае с triton с onnx, как можно прикрутить lm? Или тогда делать riva модель и сервить её через тритон?
Можно либо взять ривовский декодер (triton backend), который в риве есть, но он зависит от куды. Либо написать свой на питоне или плюсах. https://github.com/triton-inference-server/python_backend
Обсуждают сегодня