multi-class, допустим на 30 меток, но хочется multi-label на выходе.
С учетом того, что нет ресурсов на нормальную разметку..
Учить бинарные модели (one-vs-rest), а затем выбирать примеры для новой модели? Или учить multi-class, а на инференсе брать сигмоиду?
Хочется какое-нибудь решение, подкрепленное литературой. Данные нельзя заново разметить...
Не знаю насколько рабочие варианты, но возможно 1) раз нлп может есть возможность объединить текста и тем самым получить мультилейбл? 2) возможно как то идею из word2vec применить с негатив сэмплмнгом, но классов видимо маловато
Спасибо, посмотрю
Первый вариант может даже и заработает для некоторых меток т.к моделям пофигу на правильную последовательность слов в тексте
А как же теже rnn?
https://arxiv.org/pdf/2012.15180.pdf
а кратко рассказать можешь? Я не нлп'ист, читать вряд ли буду
окей, поверю на слово)
Обсуждают сегодня