GPU или у кого опыт есть
—-
могу ли я в несколько потоков обращаться к модели через FAST_API или для каждого потока нужна своя загруженная модель ?
https://pytorch.org/serve/
>> А если хотите за 1 секунду отравить 3 реста и получить 3 предикта- то нет т.е. только увеличением памяти ?
можно сделать очередь и батчить
так общая скорость генерации не изменится что я собираю в пакет 8 запросов что я последовательно отправлю один за одним 8 запросов
Обсуждают сегодня