170 похожих чатов

Добрый день. Хочу взять RTX 4090. Или есть смысл заморачиваться и искать

с жидкостным охлождением, когда модуль охлаждения отдельно. Может у кого есть какой-то полезный опыт в данной теме?

22 ответов

93 просмотра

Если будешь загружать ее на полную и постоянно и не будет напрягать больший шум, и не жалко лишние 30к, то бери жидкостное. Если же тебе чисто свои проекты гонять, не будешь учить сутками, плюс комп где-то рядом с кроватью стоит, то оставь воздух.

для учебы надеюсь?

Serg-Sk Автор вопроса
Alexander
для учебы надеюсь?

В основном для учёбы, но хочется учиться по-серьёзному. Для исследований возможностей применения llm.

Serg Sk
В основном для учёбы, но хочется учиться по-серьёз...

возможно выгоднее арендовать, смотря скока использовать будешь)

4090 хороший выбор для старта. Если планируется долгий трейн всегда можно понизить мощность, чтобы не палить карту. Но 2 бу 3090 будут лучше для LLM из-за общей емкости 48 Гб.

Serg-Sk Автор вопроса
miteigi nemoto
4090 хороший выбор для старта. Если планируется д...

Спасибо за совет. Будут ли нормально работать 4090 и 2080. Если на одной 4090 всё не поместится. И ещё. У меня материнка на 3 карты. Или даст толщина 4090 поставить вторую карту, в данном случае 2080?

Serg Sk
Спасибо за совет. Будут ли нормально работать 4090...

Можно использовать райзеры и выносить карты из системника. У меня сейчас 2 3090 в большом корпусе на райзерах, еще 2 вынесены вне корпуса. 2080 не сильно поможет, Мало памяти слишком. 10+ Гб мало спасают. Плюс она затормозит более быструю карту.

У меня все карты на райзерах PCE 3, 4-х версий длиной 30-40 см. Снижается ли пропускная способность? Не замерял, но это не значительно. Если райзер качественный, то все норм должно быть. Опять же что значит тормозят. Вот я сравнивал свою систему и иммерс.клауд, моя система с новым процем и памятью, на райзерах работает быстрее чем их ксеоновские серверные. Желательно чтобы на мамке все версии слотов были одинаковыми. Плохо когда 1 слот - 5-й, 2-й 4-й, 2 других 3-й версии. Как у меня.

miteigi nemoto
У меня все карты на райзерах PCE 3, 4-х версий дли...

а есть статьи или что-то подобное про всё это? интересна тема, но не знаю как подобраться к ней даже

Serg Sk
Спасибо за совет. Будут ли нормально работать 4090...

можно использовать из под разные сетки, то есть это будут 2 разные карты в системе. Можно воспользоваться решениями для распределенных вычислений на гпу, и там можно будет задействовать обе. 2080 в таком случае не будет боттленеком, но все же это будет менее эффективно

Вот здесь собираю информацию, регулярно обновляю https://vc.ru/ml/881777-spravochnik-po-vyboru-gpu-dlya-raboty-s-bolshimi-yazykovymi-modelyami-llama

а ты кстати считал выгодно ли всё это? в отличии например просто платить за 3.5 или 4 гпт?

Aleksandr Drozdov
а ты кстати считал выгодно ли всё это? в отличии н...

Ну это примерно как сравнивать покупку помидоров в магазине или выращивать у себя в огороде ))

miteigi nemoto
Ну это примерно как сравнивать покупку помидоров в...

не ну а если в плане бизнеса, стоит ли заморачиваться интересно, это ведь не только железо но и тех поддержка

Aleksandr Drozdov
не ну а если в плане бизнеса, стоит ли заморачиват...

OpenAI легко интегрировать, уже большинство топовых контор забугорных сделали это в свои бизнес процессы и сервисы. Но это там на западе все медовое ) А у нас тут бункерная экономика )) Сегодня доступ есть, завтра сорян через дясяток впн пробивайся, утрирую. Но в целом считаю программистам и бизнесу нужно развивать свою экспертизу в LLM независимо от публичных AI-сервисов. Локальная лама на схожих задача потенциально будет дешевле, чем чатгпт. По некоторым данным в 30 раз дешевле Llama 70B Достигающая точности GPT4. Учитывая что многие задачи можно делать на меньших моделях, то разница будет еще больше. Ну и само собой конфиденциальность данных.

Aleksandr Drozdov
а ты кстати считал выгодно ли всё это? в отличии н...

Вопрос не корректный. Это все для поднятия в закрытых сетях. А это все корпораты.

miteigi nemoto
OpenAI легко интегрировать, уже большинство топовы...

Openai api не гарантирует время. Один и тот же по размеру и формату запрос к ChatGPT может исполняться и 10 секунд, и 2 минуты в любое время дня

Serg-Sk Автор вопроса
miteigi nemoto
Вот здесь собираю информацию, регулярно обновляю ...

Хочу выразить большую благодарность за то что ты для нас в том числе делаешь. Всё что ты делаешь нам очень помогает . Ты не зря тратишь своё жизненное время.

Похожие вопросы

Обсуждают сегодня

30500 за редактор? )
Владимир
47
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
вы делали что-то подобное и как? может есть либы готовые? увидел картинку нокода, где всё линиями соединено и стало интересно попробовать то же в ddl на lua сделать. решил с ч...
Victor
8
Подскажите пожалуйста, как в CustomDrawCell(Sender: TcxCustomGridTableView; ACanvas: TcxCanvas; AViewInfo: TcxGridTableDataCellViewInfo; var ADone: Boolean); получить наз...
A Z
7
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Как передать управляющий символ в открытую через CreateProcess консоль? Собсна, есть процедура: procedure TRedirectThread.WriteData(Data: OEMString); var Written: Cardinal;...
Serjone
1
Он в одиночку это дело запилил или была какая-то команда?
Aquinary
12
~ 2m21s  nix shell github:nixos/nixpkgs#stack ~  stack ghc -- --version error: … while calling the 'derivationStrict' builtin at /builtin/derivation.nix:...
Rebuild your mind.
6
Всем привет, нужна как никогда, нужна помощь с IO в загрузчике. Пишу в code16 после установки сегментных регистров, пишу вывод символа. Пробовал 2 варианта: # 1 mov $0x0E, %a...
Shadow Akira
14
Карта сайта