3 токена до длинных в 50). Нужно сделать по ней поисковый индекс. Хотел сделать на эмбедингах, чтобы учитывать схожие слова без подготовки словаря синонимов. Взял тиниберт от Давида и одну из ANN. Все работает отлично, ограничение по скорости только в формировании эмбединга с модели Давида, но там быстро. Проблема в другом - когда в запрос приходит только одно или два ключевых слова, то поиск перестает работать нормально (что логично), так как эмбединг сильно отличается от эмбедингов целых предложений в индексе. Что посоветуете?
А почему не подходит классический поисковик инвертированного индекса на ngram-ах?
Синонимы, близкие по смыслу слова. На них он не будет работать. А так бы конечно взял любой из классики обратного индекса
Еще вариант, делать два поиска - через BERT и классический и потом объединить результаты. Или установить порог в допустим 4-5 слов, после которого включать BERT. Третий вариант - вместо нейронки брать усреднение эмбеддингов слов, возможно с IDF-взвешиванием, там вектор предложения будет близок к векторам отдельных слов.
Как вариант, да. Идея с порогом больше нравится
Спасибо, попробую!
Обсуждают сегодня