документах и в применении документов, как контекста, для промптов.
Правильно ли я понимаю, что набор документов, как контекст обязывает модель строго опираться на факты в них, в то время как дообучение на этом же наборе в результате лишь даст вероятностный "доменообразный" Инференс, но вовсе не обязательно фактически правильный?
для документов лучше брать лангчейн или ретривер
Да все правильно. Обычный термин для "обучения на документах" это файнтюн. Он хорош для того чтобы стиль переносить. Факты оказываются зашифрованы в параметрах модели в таком случае вероятностно. Если часто будут встречаться, то больше вероятность что модель их выдаст верно. Набор документов как контекст, это называется RAG - Retreival Augmented Generation - генерация улучшенная (поисковой выдачей). То есть части документов, после подготовки, подсовываются в промпт и там самым сильно повышают, но не гарантируют фактологическую точность. лангчейн это библиотека, котороая помимо всего прочего упрощает инженерные действия по организации этого самого RAG. То есть инструмент для реализации, второго описанного вами подхода,а не какая-то третья опция.
О, то есть, правильно ли я понял механику. Фрагменты, полученные из документа с помощью RAG-техник, "включаются" в пользовательский промпт, уточняя его?
да. Модно - с помощью векторного поиска, но это не единственный и не всегда лучший способ.
Еще такой вопрос, на понимание, извините, если покажется наивным: Вот у LLM есть конструктивно заложенный размер промпта, который мы, если мы не большие мира сего, не можем изменить имеющимися ресурсами. Следовательно при инженерном проектировании ассистента мы должны соблюдать trade-off между размерами/количеством вспомогательных фрагментов контекста и собственным орагничением на пользовательский запрос? Потому что в сумме это не может превосходить, например, 4000 токенов
именно. вообще много инженерной возни из этого вытекает. И последним обновлением размера контекста гпт-4 до 128k токенов, убирается. Но не сводится на нет, потому что для каких-то задач данных нужно больше или гораздо больше
В условиях моды на "приземление" LLM на конкретных предприятиях с чувствительными данными, когда как раз от GPT-4 хотят отходить, приходится как то изворачиваться с опенсорсными моделями.
приходится, да. Если хочется иметь дело с такими предприятиями )
Обсуждают сегодня