170 похожих чатов

Ребята, всем привет! ❓Есть вопрос. Тема трансформеров очень интересна, еще сильнее подогрело

появление ChatGPT и аналогов.

Но многие здесь, и я в том числе, смотрим на локализованные трансформеры.

А имеет ли это смысл? Ведь уже сейчас ясно, что крупные компании обладают намного большими ресурсами для создания и дообучения моделей и предоставления на базе них сервисов.

Так остаются ли тогда ниши для локализованных трансформеров?
Если да, то какие на ваш взгляд?

Заранее благодарю!

20 ответов

61 просмотр

Это очень хороший вопрос 🙂

Могу порассуждать. Но конечно же это только мысли. Можно предположить, что всегда будут запросы для локального применения. Так как не всегда нужен суперкомпьютер, чтоб решать тривиальные задачи. Извиняюсь за банальщину Как по мне всегда будут образовываться ниши в которые проще и дешевле будет вписать локальный трансформер, чтоб он крутился внутри, какой-то организации и решал специфические вопросы. Опять же вопрос цены тоже может быть решающим.

Конечно остаются. Там где важна приватность, скорость работы

Eduard-Lanchev Автор вопроса
Serg Sk
Могу порассуждать. Но конечно же это только мысли...

Спасибо. А какие это задачи? Какие задачи можно делать локально со сравнимым качеством чатджпт... Или иначе, какие задачи не делает или не будет делать чатджпт, которые отдаем локальным трансформерам?

Eduard Lanchev
Спасибо. А какие это задачи? Какие задачи можно де...

Конечно те задачи, которые служба безопасности не разрешает выносить за пределы контура фирмы, в т.ч. в американский интернет :)

Eduard-Lanchev Автор вопроса
datascience xc
Конечно остаются. Там где важна приватность, скоро...

Приватность все меньше кого-то беспокоит. Особенно в мире облачных технологий и соц сетей. Ее уже сейчас нет по факту. То бишь чатджпт еще один облачный сервис, одним из которых вы точно пользуетесь. Скорость. На каком уровне эта скорость нужна? На приемлемом для большинства точно будет. А разные МТС, где скорость нужна больше, и сами гиганты аля яндекс, которые как раз могут свои решения делать.

Eduard Lanchev
Спасибо. А какие это задачи? Какие задачи можно де...

См локальную работу с logit_bias на каждом inference шаге ради повышения качества ответов или оптимизацию скорости token inference (раза этак в 4) с использованием слабенькой predictive модели.

Eduard-Lanchev Автор вопроса
Игорь
Конечно те задачи, которые служба безопасности не ...

Не проблема. У нас будет яндекс.джпт, мтс.джпт и тд Буржуям инфа наша не достанется.

Eduard Lanchev
Приватность все меньше кого-то беспокоит. Особенно...

Приватность и локальная версия - наше всё. Щас скоро майнеры начнут продавать свои фермы видеокарт и кто-нибудь выложит в OpenSource датасет для обучения ChatGPT, я прогнозирую - это скоро сольют всё. И тогда мы сможем достаточно дёшево обучить LLAMA2 и другую открытую модель. И делать локальный инференц намного дешевле, чем облачные вычисления. Плюс LoRA. И openai со своим API не нужен будет.

Erdeni
Приватность и локальная версия - наше всё. Щас ско...

Так же крутил в гг голове подобную идею. Здравая по мне мысль. Думаю уже пишется какой либо iso для использования токена под обучение.

Erdeni
Приватность и локальная версия - наше всё. Щас ско...

Vast.ai - там уже можно как раз такие бывшие фермы арендовать)

Eduard-Lanchev Автор вопроса
Serg Sk
Хочется верить, что это ирония.

Почему ирония. Это факт. У нас будут свои chatgpt и капилоты, уже есть. Но вопрос не в этом. Для каких задач можно применять локальные трансформеры? И это выгодно? Приватность - не тот тезис, выше писал. Проблема со скорость - это временно. По сути задач, что остаётся локальным решениям?

На самом деле русскоязычная модель имеет смысл, т.к. никто больше под русский язык модель не заточит. Все страны под свои делают или под английский. А использование моделей с английским pre-train на задачах других языков сильно калечит способности модели.

Eduard Lanchev
Почему ирония. Это факт. У нас будут свои chatgpt...

Если вы из лагеря противоборствующих сторон. Не важно из какого. Я пожалуй воздержусь от продолжение бесседы. А вам предлагаю поразмышлять о том, где были бы ваши свои "chatgpt и капилоты", если бы не всё мировое сообщество.

Rinat Abdullin
На самом деле русскоязычная модель имеет смысл, т....

Поддерживаю. В последнее время chatGPT совсем в тыкву превратилась

datascience xc
Поддерживаю. В последнее время chatGPT совсем в ты...

Это на каких задачах? По моим цифрам только становится лучше Но я русский контекст не тестировал

Erdeni
Приватность и локальная версия - наше всё. Щас ско...

Там даже не нужен датасет, я выложил сегодня скрипт внутри лекции для базовой генерации 😉

Vladimir R
Там даже не нужен датасет, я выложил сегодня скрип...

Кстати, кто не нашёл скрипт, он на последней секунде

Похожие вопросы

Обсуждают сегодня

Господа, а что сейчас вообще с рынком труда на делфи происходит? Какова ситуация?
Rꙮman Yankꙮvsky
29
А вообще, что может смущать в самой Julia - бы сказал, что нет единого стандартного подхода по многим моментам, поэтому многое выглядит как "хаки" и произвол. Короче говоря, с...
Viktor G.
2
30500 за редактор? )
Владимир
47
а через ESC-код ?
Alexey Kulakov
29
Чёт не понял, я ж правильной функцией воспользовался чтобы вывести отладочную информацию? но что-то она не ловится
notme
18
У меня есть функция где происходит это: write_bit(buffer, 1); write_bit(buffer, 0); write_bit(buffer, 1); write_bit(buffer, 1); write_bit(buffer, 1); w...
~
14
Добрый день! Скажите пожалуйста, а какие программы вы бы рекомендовали написать для того, чтобы научиться управлять памятью? Можно написать динамический массив, можно связный ...
Филипп
7
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Карта сайта