tensorflow cpu. Имеется скрипт Керас который загружает модель, и после можно использовать в качестве переводчика текста. Так как CPU, использовать в асинхронном коде я не вижу смысла. Есть фастапи с вебсокетами, асинхронный.
1) как создать связь между ними, чтоб один посылал и ждал ответ.
2) нужно ли создавать и загружать скрипт модели в разных потоках? Вдруг будут поступать много запросов
1 очереди 2 в фоновый процесс. Или точнее пучек процессов
2) а как прослушивать постоянно очереди в этом скрипте? по классике? while True: # logic sleep()
while is_running: queue.get()
Обсуждают сегодня