текстов? Это работает?
У меня стоит задача сравнения между собой большого количества текстов на всевозможные темы. Я планирую брать от каждого текста не более 512 токенов, вычислять эмбединги и сравнивать. Но не уверен, что на текстах будет работать...
Ни разу не работал с данным направлением, но сразу всплывает в голове термин - "суммаризация текста" - погугли.
любой берт работает, из коробки достаточно не плохо. Сложности начинаются, если есть специфика текстов, например только медицинские. Тогда придется их тюнить. Ну и еще имеет значение какие языки поддерживаются. Вообще лучше смотреть на каком корпусе было обучение и какие метрики использовались. Нам подошла такая вот https://tfhub.dev/google/universal-sentence-encoder-multilingual-large/3 и косинусное расстояние в качестве метрики
Обсуждают сегодня