215 похожих чатов

К слову, у людей в этом чате наверняка есть опыт

собеседований. Какой примерно (по вашим оценкам) процент вакансий, где достаточно общего ML (типа неплохого уровня sklearn и базового tf), а не трехлетнего опыта в конкретных сферах типа NLP или CV?
Естественно не за 500-1000$, в этом случае проще вакансии DA смотреть, где свои деньги я знаю, как отбить.
Мне то не западло опыт и за 1000$ получить, но тогда опять через полгода увольняться придется, а это мне незачем.

34 ответов

18 просмотров

Очень маленький. Везде хотят одно из: - SQL - CV - NLP Или сразу несколько

Логик-Абсурда Автор вопроса
Artem[MSK+1] Glubshev
Очень маленький. Везде хотят одно из: - SQL - CV -...

про sql ml не слышал. Что это за зверь такой? Или это про sql в целом?

Можете сами оценить этот процент по ключевым словам, хоть на том же "хх". Но их точно больше, чем в CV и NLP

Не знаю вообще, зачем tf, если вы собрались таблички анализировать. SQL наверняка попросят, git, docker...

Логик-Абсурда Автор вопроса
Манкурт Кобейн
Не знаю вообще, зачем tf, если вы собрались таблич...

Так я не хочу таблички. Я хочу уходить глубже.

Логик Абсурда
Так я не хочу таблички. Я хочу уходить глубже.

"Глубже" - это куда? Под "табличками" я и подразумеваю классический ml("пандас" же, и всё такое)

Логик-Абсурда Автор вопроса
Манкурт Кобейн
"Глубже" - это куда? Под "табличками" я и подразу...

Ну так нейронные сети прекрасно расширяют вообще весь функционал классического ML. В целом я просто хочу расти в сторону технического специалиста, а не качать софт-скиллы и плыть в сторону менеджмента. А мой опыт продуктового анализа все больше продавливает меня на сторону "впарь отделу маркетинга то, что они хотят слышать". Но вообще проблема в разделении вакансий. По моим наблюдениям почти во всех вакансиях DS требуют фреймворки DL. А на DA (что в целом похоже на то, к чему я стремлюсь) требования обычно смешивают с продуктовыми и bi.

Логик Абсурда
Ну так нейронные сети прекрасно расширяют вообще в...

Нет. Для табличных данных (или структурированных) нейросети чаще всего работают хуже того же градиентного бустинга. А если нужна скорость, лёгкость и интерпретируемость модели - тогда проигрывают линейным моделям.

Логик Абсурда
Ну так нейронные сети прекрасно расширяют вообще в...

>нейронные сети прекрасно расширяют весь функционал Они могут быть совершенно не нужны. Всё от задач ведь зависит. Если нанимают спеца по классическому ml, то нанимают его для того класса задач, которые лучше этим самым классическим ml и решаются. То же касается и DL

Логик-Абсурда Автор вопроса
Манкурт Кобейн
>нейронные сети прекрасно расширяют весь функциона...

Хорошо, если так. Полагаю я плохо понимаю, как искать такие вакансии.

Логик Абсурда
Ну так нейронные сети прекрасно расширяют вообще в...

Если хотите быть тех.спецом - углубляйтесь в ваши технологии и математику. Можно и вширь смотреть, но вряд ли вам предстоит хоть когда-то на одно рабочем месте решать, скажем, и задачи детекции, и задачи перевода, и задачи кредитного скорринга

Логик-Абсурда Автор вопроса
Roman Nm
По ключевым словам Core ML пробовал?

Обычно к ним бонусом тоже просят DL. Но да, спасибо, так выборка поадекватнее, чем просто по DS.

Логик Абсурда
Хорошо, если так. Полагаю я плохо понимаю, как иск...

По тегам DS, ML(ну и полные их версии, вместо абревиатур, офк)

Логик-Абсурда Автор вопроса
Манкурт Кобейн
По тегам DS, ML(ну и полные их версии, вместо абре...

Так я и ищу DS и ML, в 80% точно DL упомянут) Роман хороший совет дал, это чуть улучшило картину.

Логик Абсурда
Обычно к ним бонусом тоже просят DL. Но да, спасиб...

Вас в FAANG, или в компаниях, пытающихся скопировать у них процесс найма, бегло спросят про DL, но в основе своей от вас других навыков ожидают

Логик-Абсурда Автор вопроса
Логик Абсурда
Так я и ищу DS и ML, в 80% точно DL упомянут) Рома...

"Упомянут" будет и "кагл" в большинстве вакансий. Но ищут-то не олимпиадников, в основной массе

Roman Nm
Нет. Для табличных данных (или структурированных) ...

Вопрос новичка в тему Вашего ответа: - тот же XGBoost проигрывает композиции из 4х "микро" MLP (примерно 300 нейронов\ 3-4 слоя) (Бэггинг), в задачи регрессии на табличных данных. Это Норм?

Denis Zinner
Вопрос новичка в тему Вашего ответа: - тот же XGBo...

Всё нормально, если вас результат устраивает :) Можете попробовать катбуст или lightgbm

Roman Nm
Всё нормально, если вас результат устраивает :) Мо...

Да меня то устраивает:-) не помню в какой из книг автором утверждалось что DL позволяет по задачки достать до 10-15% дополнительной точности в сравнении с традиционным МЛ. У меня как раз укладывается в такие рамки...)

Denis Zinner
Вопрос новичка в тему Вашего ответа: - тот же XGBo...

Теоретически, пара линейных слоёв с нелинейной функцией активации может аппросимировать функцию с любой точностью, так что норм

Манкурт Кобейн
Теоретически, пара линейных слоёв с нелинейной фун...

да, достаточно ШИРОКИХ таких слоя) я просто немного сбит с толку: - с одной стороны, вроде как MLP заявляется более сильным на 10-15% - с другой стороны, коллеги утверждают что на табличных данных Boost модели в большинстве случаев выигрывают у MLP того же) в моем случае победил MLP)

Denis Zinner
да, достаточно ШИРОКИХ таких слоя) я просто немног...

всё зависит от задачи. Из теории - любую ограниченную функцию можно "решить" набором линейных сигмоид, но, насколько такая mlp будет обладать обобщающей способностью? На каггле например любят натянуть сову на глобус как раз таким способом

Denis Zinner
да, достаточно ШИРОКИХ таких слоя) я просто немног...

Всё зависит от того, как оно себя в проде вести будет: нет ли переобучения

Манкурт Кобейн
Теоретически, пара линейных слоёв с нелинейной фун...

по Цыбенко - с "конечным числом нейронов", но вы же понимаете )

Aleksei
по Цыбенко - с "конечным числом нейронов", но вы ж...

А точно конечным? Я видел доказательство с индикаторными функциями. Там бесконечно

Григорий Lᵖ space
А точно конечным? Я видел доказательство с индикат...

MLP с бесконечным числом нейроном докажет всеобщую теорему, не так ли? какой был бы смысл в бесконечном количестве нейронов? в этом-то и прикол, что КОНЕЧНОЕ число нейронов в MLP может аппроксимировать любую функцию с любой точностью. Просто для каждой функции и точности число требуемых нейронов будет своё. Где-то 3, а где-то over9000

Aleksei
MLP с бесконечным числом нейроном докажет всеобщую...

а есть доказательство? например в теории дифференцирование требует бесконечно малого приращения на практике используются конечные разности

Григорий Lᵖ space
а есть доказательство? например в теории дифференц...

это теорема из дискретной математики, Universal Approximation Theorem

Похожие вопросы

Обсуждают сегодня

Господа, а что сейчас вообще с рынком труда на делфи происходит? Какова ситуация?
Rꙮman Yankꙮvsky
29
А вообще, что может смущать в самой Julia - бы сказал, что нет единого стандартного подхода по многим моментам, поэтому многое выглядит как "хаки" и произвол. Короче говоря, с...
Viktor G.
2
30500 за редактор? )
Владимир
47
а через ESC-код ?
Alexey Kulakov
29
Чёт не понял, я ж правильной функцией воспользовался чтобы вывести отладочную информацию? но что-то она не ловится
notme
18
У меня есть функция где происходит это: write_bit(buffer, 1); write_bit(buffer, 0); write_bit(buffer, 1); write_bit(buffer, 1); write_bit(buffer, 1); w...
~
14
Добрый день! Скажите пожалуйста, а какие программы вы бы рекомендовали написать для того, чтобы научиться управлять памятью? Можно написать динамический массив, можно связный ...
Филипп
7
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Карта сайта