в их исходники? Какая-то лемматизация матерных слов или приведение к начальной форме
Пример: zalyпе, залупы, м а н д а в о ш е к, заепись, пох..сты, уе...ков, на*бывала, некуй, га.ндо.ны, ху🤡ло, за€...али, хххххххууууууййййииии, пидорпидорпидорпидорпидор
Заранее спасибо)
Кто-то писал, что лучше всего себя в конце концов показали словари
А какую вы решаете задачу? Может быть, проще сразу классифицировать, насколько строка токсична? Вот есть небольшая модель для этого. Не со всеми вашими примерами справляется, правда https://huggingface.co/cointegrated/rubert-tiny-toxicity
Как раз задача определения токсичности, тестил эту модель, но на большом количестве подобных этим примеров модель говорит, что все нетоксично
Если ваша задача – определять в офлайне, то можно, конечно, нагенерировать промпты или обучить собственную t5/bart (то есть seq2seq задача восстановления, а затем ловить по словарям). Я попробовал сейчас с ллм – примерно половина опробованных моделей отказываются, остальные дают некорректный результат. Я бы предложил начать с fuzzy matching. Можно настроить расстояние Левенштейна для достижения приемлемого баланса между false poitive / false negative срабатываниями https://github.com/seatgeek/thefuzz Это и быстрее будет (в чатах будет работать)
Обсуждают сегодня