со страницы модели HF с небольшими правками. Но! Оно ооооочень медленное. Что бы получить элементарный ответ пол часа уходит (не фигура речи).
Код запуска:
config = PeftConfig.from_pretrained(MODEL_NAME)
quantization_config = BitsAndBytesConfig(llm_int8_enable_fp32_cpu_offload=True)
model = AutoModelForCausalLM.from_pretrained(
config.base_model_name_or_path,
load_in_8bit=True,
torch_dtype=torch.float16,
device_map="auto",
quantization_config=quantization_config
)
model = PeftModel.from_pretrained(
model,
MODEL_NAME,
torch_dtype=torch.float16
)
Загрузка ГПУ на скрине
Чего ему не хватает?
CPU написано забито на 100%
Оно стабильно жрет одно ядро 31 оствльные курят
Странно я ее на 12400 крутил в 4 битной квантизации. Она выдавала 1-2токена в секунду.
llm_int8_enable_fp32_cpu_offload=True? а зачем?
без этого не хотело взлетать с параметром load_in_8bit=True. Без параметра взлетело Но тоже тормозааааа
а почему без него не запускалось?
тогда надо вырубать load_in_8bit=True
тогда модель в память не поместится
80 Гб мало?
в 16 битах - естественно
Модель загрузилась
Обсуждают сегодня