моя мысль: в графе знаний довольно легко видеть общность. Вот Линкольн и Джефферсон по графу мужчины и жили в США (обидным образом, общность "президент США" не видна, но это нюансы.
я решил GPT3 спросить, XL на этот раз:
Человек: Что общего у Томаса Джефферсона и Авраама Линкольна?
ИИ:
1) Оба американцы.
2) Оба были убиты. ⊘
3) Оба принадлежали к Демократической партии. ±
4) Оба выступали за освобождение рабов.
5) Оба выдвигали одинаковые демократические программы. ±
6) Один был военным, а другой дипломатом. ⊘
7) Оба имели избирательные кампании, в которых победили.
8) Оба боролись за равноправие для рабов.
9) Оба развили демократию, сменив коррумпированную элиту.
10) Обоих убили. ⊘
11) Оба похоронены в Белом Доме. ⊘
12) Оба являлись президентами.
(зачёркнуто это я проставлял)
Ну то есть, за исключением пары неудачных моментов, довольно неплохо. А главное "владение контекстом": и то, что требуется сравнение, и что сравниваются двое, да и "по фактам" большей частью нормально.
Ну вот это ведь пример дедукции? В интернете ничего кусочно из этого не ищется, т.е. вроде бы неоткуда взять "готовое" или даже "похожее".
А какие настройки генерации были?
temperature = 0.9, top_k = 0, top_p = 0.95, дефолтные. Так она генерит очень разнообразно, но не всегда удачно и всегда неповторимо. Я всё никак не доберусь развернуть её нормально, и запускать с менее "творческими" настройками. У меня только недавно стал пример запускаться, и я каждый раз забываю, какие версии чего, и что надо исправить для запуска. Но я подозреваю что у онлайн демо ровно такие же настройки.
а вот эту разработку вы смотрели https://docs.ampligraph.org/en/1.2.0/index.html?
Не видел, выглядит интересно, изучу, спасибо!
в следующий раз, вы подскажите успехов)
Само собой :)
Обсуждают сегодня