исполняется примерно в 1.5 раза медленнее реалтайма. Htop говорит, что работа производится только на одном ядре процессора, а остальные три простаивают. Можно ли как-то распараллелить исполнение модели? Не увидел данной функции в документации
Попробовал запустить с OMP_NUM_THREADS=4, но это ни на что не повлияло
Нельзя распараллелить, работает так. Можно попробовать скрипт 0.52 https://t.me/speech_recognition_ru/37354
А как им пользоваться? Пытаюсь для начала скормить vosk-transcriber эту модель, но не понимаю как. --model /home/pi/.cache/vosk/vosk-model-small-ru-0.52/ и --model-name vosk-model-small-ru-0.52 почему-то не сработали
Обсуждают сегодня