мысль: - А что если разработчики ChatGPT намеренно дали нам в общем доступе урезанную версию модели/инференса? Поясню: основной недостаток как я его вижу - маленький контекст, в практическом смысле - невозможно запихнуть в него достаточно много кода за один раз, и он его достаточно быстро "забывает". Но что если это сделано намеренно, чтобы мы не комплексовали? 😄 Что если для себя они используют GPT с контекстом 100500 токенов? Что если GPT уже начал писать сам себя? 🤨
По api доступно gpt-4 с контекстом в 32К токенов
Но мне пока не дали доступ 😞 должно письмо прийти как дадут, насколько я понимаю? 🤨 Я там записался в очередь эту, но может чего не то написал... Вообще, бредово как-то, обычно такие вопросы через бабки решаются, если есть что-то в ограниченном количестве - просто ставят цену больше и всё. Это и есть капитализЬм же, а тут в OpenAI какой-то Райком Партии устроили 😁
20 баксов им - и получишь свои 25 запросов в 3 часа через вебфейс
Уже есть, но мне 25 мало. К тому же там отнюдь не 32к токена 🤨🥴
Там по ходу как раз 4к и есть. А когда число запросов ограничено - больше когнитивная нагрузка- приходится промпт выверять, проще было бы сделать пару лишних итераций 🤷♀️ и не напрягать мозг 🧠 😁
Обсуждают сегодня