на тренировку модели?
https://github.com/rhasspy/piper
я в итоге через докер тренирую
буду крайне благодарен
FROM nvcr.io/nvidia/pytorch:22.03-py3 #FROM gpu-jupyter-local COPY piper . WORKDIR piper/src/python RUN pip3 install --upgrade pip RUN pip3 install --upgrade wheel setuptools RUN pip3 install -r requirements.txt RUN ./build_monotonic_align.sh 1. там где докерфайл, лежит проект piper из гита. 2. Далее собираю докер 3. запускаю так: docker run --gpus all --shm-size=16gb -it --rm -v /home/tts:/home/tts тэг-докер-образа 4. внутри докера вызываю 2 команды: a) python3 -m piper_train.preprocess \ --language bak \ --input-dir /home/tts/TTS_Nail/ljspeech_dataset/ \ --output-dir /home/tts/TTS_Nail/piper_training_dir/ \ --dataset-format ljspeech \ --sample-rate 24000 \ --single-speaker \ --phoneme-type text b) python3 -m piper_train \ --dataset-dir /home/tts/TTS_Nail/piper_training_dir/ \ --accelerator 'gpu' \ --devices 1 \ --batch-size 32 \ --validation-split 0.05 \ --num-test-examples 5 \ --max_epochs 10000 \ --precision 32 5. в моем случае в папке /home/tts/TTS_Nail/piper_training_dir/lightning_logs/version_N/checkpoints/step_XXX.chpt будет моделька 6. из другой консоли когда надо, захожу в проект piper, с установленными реквариментсами и делаю конвертацию в ONNX: python3 -m piper_train.export_onnx /home/tts/TTS_Nail/piper_training_dir/lightning_logs/version_12/checkpoints/step_211536.chpt /home/tts/step_211536.onnx если результат норм, то останавливаю обучение
Спасибо огромное
Обсуждают сегодня