В частности, у меня OCR моделька(пока даже не знаю, на чём её лучше гонять - на процессоре или на гпу) https://github.com/PaddlePaddle/PaddleOCR
даже не очень gpu будет раз в 10 быстрее среднего проца
да, у них даже с квантовым процессором вроде есть еще гпу есть тут https://www.paperspace.com/gpu-cloud
Спасибо большое!
@format37 , подскажите какие-нибудь годные материалы по деплою моделек в прод, пожалуйста
тут пара примеров на docker с gpu https://github.com/format37/nlp
Обсуждают сегодня