большинство из которых имеют в итоге нулевую важность - можно ли «убрать нулевые фичи» не тренируя модель заново? (Хочу применить модель к новым данным не тратя время на построение фичей которые модель все равно в итоге не использует)
проведи эксперимент, подав на вход константы в этих фичах А модель так долго тренируется, что проблема обучить её заново?
Один раз не проблема но сценарий регулярный - пробуется большое количество «ключевых слов», в итоге оставляются те которые реально на что-то влияют. Для миллионов документов добавление десятков тысяч констант тоже хотелось бы избежать. С этой точки зрения думаю лучше уж каждый раз перетренировывать
В такой формулирвоке если бы я решал задачу, то сначала строил бейзлайн модель в виде L1-регрессии, отбирающей фичи, а на них уже и модель тренил-тюнил, и инференсил.
Обсуждают сегодня