GPU - есть ли глобально разница на какой гпу размещать модель - на tesla t4, RTX 2080ti, NVIDIA Quadro если памяти нужно ну скажем 11гб на модель? Эти все видеокарты есть у облачных провайдеров, но какую лучше выбрать, может какая-то из них более эффективна на инференсе, а друга на обучении?
Надо выбирать карту опираясь на ТЗ. Если совсем поверхностно, то: чем больше VRAM, те больше батч можно обрабатывать при обучении и инференсе; чем больше ядер куда и выше compute capability, то можно предположить, что тем и быстрее инференс. Но тут еще вопрос оптимизации модели под конкретное железо. Без понимания входных данных и требований по работе нельзя ответить какой карты тебе будет достаточно, какой не хватать, а какая будет с избытком.
Модель работает в mixed precision?
уже протестили модель pytorch, она работает даже на 1080ti , на t4, tv100 - по ощущениям одинаково, то есть тут вопрос нагрузки, когда юзеров станет 100 что будет?
2080ti будет быстрее 1080ti если модель запустить в mixed precision
она и без mixed precision скорей всего будет быстрее
сделать тест на работу при 100 параллельных пользователях
https://lambdalabs.com/blog/2080-ti-deep-learning-benchmarks/ просто первую ссылку открыл, первый график
Бери где больше памяти, у меня был кейс когда не хватило памяти и на одном из бачей упало с сиггкилом
Обсуждают сегодня