оценивает сомнительность слов по триграммам.
Триграмма хорошая вещь, но мне кажется хорошо бы как-то юзать контекст
Контекст нужно юзать тоже. Смысл в том, что для слов, которых нет у тебя в словаре (и для которых, соответственно, нет статистики), ты можешь попробовать оценить их правдоподобность исходя из триграмм (или каких-нибудь более сложных моделей вроде нейросеток), распространить на них статистику с похожих слов, которые в словаре есть, и потом сверху на всей фразе начать учитывать контекст (прогнать языковую модель, воспользоваться статистикой по фразам и т. д.).
Что значит распространить статистику с похожих слов?
Например, у тебя нет статистики для слова “калечить”, поэтому ты не знаешь, насколько правдоподобна фраза “калечить коня”. Но ты знаешь, что оно однокоренное со словом ”калека” и ты знаешь, как часто в корпусе у тебя встречалось "что-то однокоренное с калека + конь” или “что-то однокоренное с калека + что-то однокоренное с конь”. Ещё ты знаешь, что это глагол и знаешь, как часто встречалось “глагол + конь” или “глагол + что-то однокоренное с конь”. Из этих чисел ты можешь попытаться разными способами прикинуть вероятность фразы “калечить коня” и это может быть лучше, чем ничего.
Это норм идея, а есть что-то вроде движка регулярок, где вместо символов части речи?
Но проблему автокомплита не решает
Прям такого я не видел, но всякие готовые лемматизаторы и токенизаторы для популярных языков обычно существуют.
Проблема автокомплита — это вообще другое) В автокомплите довольно трудно сделать что-то, кроме как подсунуть уже популярные запросы, отранжированные как-то
Сунуть запросы да, там все равно больше 3 вариантов особо нет смысла предлагать
Обсуждают сегодня