следовать? — Принстонский университет, 2023й г. Н.Э.
SocraticAI
Я уже писал, что можно не сразу просить модель выдать ответ на сложный многоступенчатый вопрос (который скорее всего будет ошибочным), а заставить модель порассуждать. Можно пойти дальше - и заставить несколько агентов (на основе одной и той же LLMки) общаться друг с другом. Более того, можно развивать дискуссию в стиле сократовского диалога, с разными ролями. В контексте LLM это предполагает, что если модели обладают необходимыми знаниями, они должны быть способны задавать вопросы, получать или генериовать ответы и искать ошибки друг у друга. При этом не нужно никакого предопределенного жестко ограничивающего промпта - должно быть достаточно простого описания ролей.
Фреймворк SocraticAI предлагает ввести Сократа, Платона и Теэтета как действующих лиц. Первый и последний выступают в роли диалоговых агентов (чтобы, сюрприз-сюрприз, поддерживать сократовский диалог), а Платон читает весь диалог и дает к нему комментарии, указывая на неточности, ошибки. Это тот самый Reviewer No 2, если вы понимаете, о чем я)
По итогу такого диалога рождается решение. Авторы приводят несколько экспериментов, но они очень длинные для пересказа — крайне рекомендую с ними ознакомиться на официальной странице. Вот тут, например, модель пытается ответить на такой запрос: "Оцените качество соединения в мозгу мухи.". Уже представили, как вы бы решали такую задачку? 😉
Ну и, разумеется, это отлично сочетается с внешними инструментами (System справа на картинке) типа вызова Python-интерпретатора, поиска в интернете, etc. — агенты всем этим могут пользоваться.
...а теперь представьте такой диалог на 100 агентов, каждый со своей функцией, каждый со своей специализацией. Ухххх...форумы AI-агентов грядут!
вот это реальная проблема. Ютьюб уже завален безднами видосов, созданными скриптами и нейросетями.
Обсуждают сегодня