собеседований. Какой примерно (по вашим оценкам) процент вакансий, где достаточно общего ML (типа неплохого уровня sklearn и базового tf), а не трехлетнего опыта в конкретных сферах типа NLP или CV?
Естественно не за 500-1000$, в этом случае проще вакансии DA смотреть, где свои деньги я знаю, как отбить.
Мне то не западло опыт и за 1000$ получить, но тогда опять через полгода увольняться придется, а это мне незачем.
Очень маленький. Везде хотят одно из: - SQL - CV - NLP Или сразу несколько
про sql ml не слышал. Что это за зверь такой? Или это про sql в целом?
Можете сами оценить этот процент по ключевым словам, хоть на том же "хх". Но их точно больше, чем в CV и NLP
Не знаю вообще, зачем tf, если вы собрались таблички анализировать. SQL наверняка попросят, git, docker...
Так я не хочу таблички. Я хочу уходить глубже.
"Глубже" - это куда? Под "табличками" я и подразумеваю классический ml("пандас" же, и всё такое)
Ну так нейронные сети прекрасно расширяют вообще весь функционал классического ML. В целом я просто хочу расти в сторону технического специалиста, а не качать софт-скиллы и плыть в сторону менеджмента. А мой опыт продуктового анализа все больше продавливает меня на сторону "впарь отделу маркетинга то, что они хотят слышать". Но вообще проблема в разделении вакансий. По моим наблюдениям почти во всех вакансиях DS требуют фреймворки DL. А на DA (что в целом похоже на то, к чему я стремлюсь) требования обычно смешивают с продуктовыми и bi.
Нет. Для табличных данных (или структурированных) нейросети чаще всего работают хуже того же градиентного бустинга. А если нужна скорость, лёгкость и интерпретируемость модели - тогда проигрывают линейным моделям.
>нейронные сети прекрасно расширяют весь функционал Они могут быть совершенно не нужны. Всё от задач ведь зависит. Если нанимают спеца по классическому ml, то нанимают его для того класса задач, которые лучше этим самым классическим ml и решаются. То же касается и DL
Хорошо, если так. Полагаю я плохо понимаю, как искать такие вакансии.
По ключевым словам Core ML пробовал?
Если хотите быть тех.спецом - углубляйтесь в ваши технологии и математику. Можно и вширь смотреть, но вряд ли вам предстоит хоть когда-то на одно рабочем месте решать, скажем, и задачи детекции, и задачи перевода, и задачи кредитного скорринга
Обычно к ним бонусом тоже просят DL. Но да, спасибо, так выборка поадекватнее, чем просто по DS.
По тегам DS, ML(ну и полные их версии, вместо абревиатур, офк)
Так я и ищу DS и ML, в 80% точно DL упомянут) Роман хороший совет дал, это чуть улучшило картину.
Вас в FAANG, или в компаниях, пытающихся скопировать у них процесс найма, бегло спросят про DL, но в основе своей от вас других навыков ожидают
Это хорошо. Через недельку проверим.
"Упомянут" будет и "кагл" в большинстве вакансий. Но ищут-то не олимпиадников, в основной массе
Удачи вам с поиском)
Благодарю)
Вопрос новичка в тему Вашего ответа: - тот же XGBoost проигрывает композиции из 4х "микро" MLP (примерно 300 нейронов\ 3-4 слоя) (Бэггинг), в задачи регрессии на табличных данных. Это Норм?
Всё нормально, если вас результат устраивает :) Можете попробовать катбуст или lightgbm
Да меня то устраивает:-) не помню в какой из книг автором утверждалось что DL позволяет по задачки достать до 10-15% дополнительной точности в сравнении с традиционным МЛ. У меня как раз укладывается в такие рамки...)
Теоретически, пара линейных слоёв с нелинейной функцией активации может аппросимировать функцию с любой точностью, так что норм
да, достаточно ШИРОКИХ таких слоя) я просто немного сбит с толку: - с одной стороны, вроде как MLP заявляется более сильным на 10-15% - с другой стороны, коллеги утверждают что на табличных данных Boost модели в большинстве случаев выигрывают у MLP того же) в моем случае победил MLP)
всё зависит от задачи. Из теории - любую ограниченную функцию можно "решить" набором линейных сигмоид, но, насколько такая mlp будет обладать обобщающей способностью? На каггле например любят натянуть сову на глобус как раз таким способом
Всё зависит от того, как оно себя в проде вести будет: нет ли переобучения
по Цыбенко - с "конечным числом нейронов", но вы же понимаете )
А точно конечным? Я видел доказательство с индикаторными функциями. Там бесконечно
MLP с бесконечным числом нейроном докажет всеобщую теорему, не так ли? какой был бы смысл в бесконечном количестве нейронов? в этом-то и прикол, что КОНЕЧНОЕ число нейронов в MLP может аппроксимировать любую функцию с любой точностью. Просто для каждой функции и точности число требуемых нейронов будет своё. Где-то 3, а где-то over9000
а есть доказательство? например в теории дифференцирование требует бесконечно малого приращения на практике используются конечные разности
это теорема из дискретной математики, Universal Approximation Theorem
Обсуждают сегодня