книг на русском? Хотелось бы на выходе сократить книгу в разы (в 3-4 раза, или больше), с минимальной потерей информации (сохранялись бы главные темы книги, не путались бы смыслы).
Сейчас делаем просто GPT-3.5 и результат нас устраивает по качеству, но жрёт много денег зараза. Хотелось бы по цене раза в 5-10 меньше вариант. Или вообще бесплатно.
Конечная цель - получения качественного описания книги, по сути суммаризация тут просто выступает этапам подготовки, чтоб текст полностью влез в окно GPT.
Собственно у меня есть следующие идеи:
1. Оставлять начало и конец книги, а в середине, допустим, выкидывать случайно 3 предложения из 4, или целыми абзацами.
2. Может стоит разбить текст на чанки и каким то подходом оценить информационную значимость каждого чанка и откинуть лишнего.
3. Может просто использовать какую то модель из открытого доступа для суммаризации русских текстов. Есть ли такие, качество которых сравнимо с качеством GPT-3.5?
Скорее всего я переизобретаю велосипед. Подскажите пожалуйста, в каком направлении лучше всего двигаться?
Тоже интересно.
Можно попробовать несколько итераций, разбить на блоки, делать с Llama 13b orca с 8К контекстом (может и Мистраль 7B не плох будет). с 70B качество выше, но труднее, сильно дороже будет и дольше. Как мне кажется дешево и качественно, только GPT3.5-turbo c 16k контекстом может.
C GPT3.5 прогнозируемое качество, с остальными моделями - нужна подробная возня и тестирование.
Мы сейчас делаем с 4к контекстом и всё равно дорого( С другими моделями действительно сложно, разворачивать, тестировать. Вот я думаю, может как-то можно сократить сами книги? Пропускать слова, абзацы. Сделать какую-то оценку, что кусок текста пустой по смыслу и его можно не обрабатывать
Claude 1/2 пробовали? там контекстное окно выше
так дело же не в размере контекста, а в цене
Раньше была программа TextAnalyst с функцией реферата http://www.analyst.ru/index.php?lang=rus&dir=content/downloads/ Современных, аналогичных разработок не видел.
Обсуждают сегодня