пробую так:
git clone https://huggingface.co/facebook/wmt19-ru-en
Но он качает только словари, токены и конфиг, а когда я инициализирую модель у себя через:
tokenizer = FSMTTokenizer.from_pretrained("./facebook/wmt19-en-ru")
model = FSMTForConditionalGeneration.from_pretrained("./facebook/wmt19-en-ru")
Начинает качать саму модель ~1гб
На сколько я понимаю используется эта модель:
https://github.com/pytorch/fairseq/blob/main/examples/wmt19/README.md
Собственно как мне её скачать и положить у себя локально, чтобы каждый раз при инциализации не качалось из интернета?
Я не эксперт, но когда ты запускаешь from_pretrained, то по сути и просишь скачать модель. А если у тебя есть модель уже с весами, то можно же её torch.load сделать
Я просто в коде скачивал модель, а потом сохранял её, получалась директория, которую передаёшь как параметр в from pretrained.
Точно, это долго сработать. сейчас попробую, спасибо!)
Я также делаю, передаю просто папку репозитория, и он под капотом все сам инициализирует. Для того, чтобы скачать всю модель в репозиторий, надо до клонирования репо выполнить «git lfs install”. Тогда все модели тоже скачаются. Это вообще прямо на сайте в окошке use in transformers описано, кажется
Обсуждают сегодня