базовом уровне будет ai chat assistant, выполняющие 2 главных цели: ответ на вопрос типа "Что, где, когда" (на основе персональных данных для модели) + ответ на вопрос "посоветуй, почему, как думаешь?" (опять таки на основе персональных данных), например в персональных данных на инпуте у меня будет сырая расшифровка со свидания с Аней в четверг + вопрос "Почему Аня не захотела ехать ко мне?", ответ: "Возможно, ты ей не понравился, например твоя шутка о ее собаке была неудачной".
Ребята, такое вообще можно достичь имея только openai api?
Нет, слишком много контекста придется сохранять, может токенов не хватить, да и так себе отвечать оно будет.
это для стапртапа, люди сами будут платить за количество своих запросов. поэтому предположим что токены не проблема
Гпт сохраняет контекст только ради одного диалога, количество запоминаемых токенов там ограничено. Да и чем длиннее текст, тем оно может более непредсказуемо отвечать.
Обсуждают сегодня