В huggingface/transformers по дефолту дп или ддп, если включаю трейнер

на машине с несколькими гпу?

4 ответов

33 просмотра

По дефолту DP

Ilya- Автор вопроса

А как включить ddp?

Ilya
А как включить ddp?

Запускать скрипт через python -m torch.distributed.launch --nproc_per_node=#gpus your_script.py Там вообще ещё несколько моментов есть которые нужно реализовать, в тч работу с local_rank, лучше почитать туториал про это. Или посмотреть на скрипты из примеров к трансформерам, например https://github.com/huggingface/transformers/blob/master/examples/pytorch/language-modeling/run_mlm.py

Ilya- Автор вопроса

Похожие вопросы

Обсуждают сегодня

Он в одиночку это дело запилил или была какая-то команда?
Aquinary
12
Вообще кстати бывают такие тулкиты чтобы вот разработал под ОС X, всё оттестировал работает А потом собрал под ОС Y - и там просто без вообще любых изменений заработало?
Serg Gini
14
всем привет, кто знает нормальный гайд как настроить отладчик в Intelij на Windows?
QUAD69
6
А, вообще, знает кто-нить альтернативы D в области безопасных, читабельных ОО-языков?
Nik Lan
14
Работа над эдишенами там какая-то ведется? Или пока что тишина?
Serg Gini
1
приветствую. хочу сделать себе D Playground вопрос: можете подсказать с чего мне следует начать и в какую сторону двигаться? P.S.: я не являюсь программистом... но в небольш...
dd
5
а как в dub выключить дебажный билд?
Maxim Filimonov
12
Что кто фри селф хостинг там практикует? Через tunnel?
Serg Gini
8
А что непонятного? В чем сложность взять слайс от вектора? И работать как обычно. Какие-то выдумки опять на ровной почве. Да и RAII в ди прекрасно работает с самого начала.
Aleksandr Druzhinin
14
а почему, кстати, геймдевы обращают такое внимание на "новые" языки типа того же D (а также Zig)?
Maxim Filimonov
9
Карта сайта