170 похожих чатов

Всем привет! Стоит следующая задача - обучить N классификаторов для N

датасетов.
Все датасеты небольшие (от 50 до 200 сэмплов примерно, некоторые даже меньше), число классов варьируется и присутствует довольно сильный дизбаланс по классам.

Пробовал следующие подходы: различные алгоритмы классификации (log reg, svm, random forest, naive bayes, k neighbours) поверх различных эмбеддингов (tf idf, fasttext, rubert-tiny v2), но выбить достаточно высокое качество не получается (либо в целом низкие метрики, либо сильно проседают на некоторых классах).

Подскажите, пожалуйста, что ещё можно попробовать?

3 ответов

7 просмотров

1) Аугментировать данные (как именно - зависит от природы текстов и классов; некоторые надежные способы - backtranslation, случайные изменения в орфографии, и склеивания текстов; можно поиграть с заменой слов на синонимы), чтобы увеличить число сэмплов на класс и снизить дисбаланс. 2) Попробовать дообучить какую-то BERT-подобную модель целиком (но с очень маленьким learning rate и с небольшим числом эпох, чтобы не слишком переобучиться). Если датасеты и классы схожи, можно попробовать дообучить одну модель сразу на всех данных, надеясь, что это скомпенсирует их маленький размер.

Timur- Автор вопроса
David Dalé
1) Аугментировать данные (как именно - зависит от ...

Спасибо большое за советы! 1) аугментации попробую 2) пробовал тот же rubert tiny 2 обучать целиком на одном из датасетов на 200 с небольшим текстов (lr 1e5, 2 эпохи), но получил accuracy, precision, recall в районе 0.3. Идея с одной большой моделью интересная, но датасеты и классы довольно сильно отличаются :(

Timur
Спасибо большое за советы! 1) аугментации попробую...

Отдельный классификатор под каждый класс, если их очень много, как будто бы не очень хорошая идея. Может, как-то укрупнить можно? Допустим, одна большая модель на 200 классов, ещё одна на 300 и тд. Так, чтобы все классы покрылись небольшим количеством моделей. Можно в сеттинге иерархической классификации. Тогда выразительной способности отдельно взятой модели меньше потребуется, чем при покрытии всех классов одной моделью. И попробуйте ruRoberta-large вместо rubert-tiny2, она значительно больше и лучше подходит для сложных задач классификации. Ещё вариант - посмотрите metric learning.

Похожие вопросы

Обсуждают сегодня

Какой-то там пердун в 90-х решил, что есть какая-то разная типизация. Кого вообще это волнует?
КТ315
49
void terminal_scroll() { memmove(terminal_buffer, terminal_buffer + VGA_WIDTH, buffer_size - VGA_WIDTH); memset(terminal_buffer + buffer_size - VGA_WIDTH, 0, VGA_WIDTH); ...
Егор
47
Всем привет! Подскажите, пожалуйста, в чем ошибка? Настраиваю подключение к MySQL. Либы лежат рядом с exe. Все как по "учебнику"
Евгений
16
А можете как-то проверить меня по знаниям по ассемблеру?
A A
132
Здравствуйте! У меня появилась возможность купить книгу "Изучай Haskell во имя добра!". Но я где-то слышал, что эта книга устарела. Насколько это правда??
E
22
Здравствуйте! Я вот на stepic решаю задачи на хаскеле https://stepik.org/lesson/8443/step/8?unit=1578 мой код import Data.List (isInfixOf) removing :: String -> [String] ->...
E
10
Камрады, кто тесно работал с vtv, хотел уточнить. Ширина column задаётся жёстко на этапе создания дерева или можно в рантайме ее менять программно (не мышкой)?
Ed Doc
10
да ладно ... что там неочевидного ? глянуть в исх-ки датасета и/или кверика чтобы понять в каком месте и как выполняется обращения к св-вам blablaSQL - минутное дело, даже е...
Сергей
7
Здесь для arm кто-нибудь кодит ?
Nothing
52
Всем привет, у меня есть сервер принимающий входящие HTTP подключения, как проверить, что подключение было через прокси или нет, есть какие то поля в заголовках по которым мо...
DS
8
Карта сайта