170 похожих чатов

По сути сейчас небольшому стартапу масштабировать llama инференс весьма затратная

тема. Даже такие модели Mistral 7b не сильно меняют ситуацию.

А подскажите, какие подходы есть, чтобы параллельные запросы на инференс отправлять, когда модель уже в памяти и занимает например 50%?

4 ответов

25 просмотров

Запустить два воркера. К примеру через докер выделить конкретное число памяти и cuda ядер

По реплике небольшой модели в каждую гпу и держать пиковую нагрузку

Ну там все не так просто)

Богдан Барабанщиков
Ну там все не так просто)

Сегодня поймал себя на вопросе деления памяти через образы докеров. Скажите, а веса как-то можно по контейнерам раскинуть и будет ли от этого прирост?

Похожие вопросы

Обсуждают сегодня

Господа, а что сейчас вообще с рынком труда на делфи происходит? Какова ситуация?
Rꙮman Yankꙮvsky
29
А вообще, что может смущать в самой Julia - бы сказал, что нет единого стандартного подхода по многим моментам, поэтому многое выглядит как "хаки" и произвол. Короче говоря, с...
Viktor G.
2
30500 за редактор? )
Владимир
47
а через ESC-код ?
Alexey Kulakov
29
Чёт не понял, я ж правильной функцией воспользовался чтобы вывести отладочную информацию? но что-то она не ловится
notme
18
У меня есть функция где происходит это: write_bit(buffer, 1); write_bit(buffer, 0); write_bit(buffer, 1); write_bit(buffer, 1); write_bit(buffer, 1); w...
~
14
Добрый день! Скажите пожалуйста, а какие программы вы бы рекомендовали написать для того, чтобы научиться управлять памятью? Можно написать динамический массив, можно связный ...
Филипп
7
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Карта сайта