на inference на сервере с gpu - одновременных подключений юзеров?
Нужно понять когда сервер упадет(по памяти гпу или оперативной) или когда станет медленнее отвечать
Можно скриптик на питоне написать который параллельные запросы делает
Мм, ну да) но это ж писать надо
Обсуждают сегодня