так-так, что-то за последний год принципиально изменилось? Как RNN обучается на батче с образцами разных размеров?
Так а о чем спор? О том, что МЛ для рекомендательных систем не нужен?
А может, есть успешные кейсы рекомендашек без мл? Так вы покажите
Полно, просто на кагле их столько, что всё не пересмотришь, по-моему. Ну, можно поискать другие контесты. Я в мейлрушных пару раз участвовал, например. Сейчас от сбера идёт ещ...
А вообще в чем вопрос? Вход и выход одинаковы, кажется, по виду и интерпретации
А кто может объяснить, что печального в том, что Гугол под себя Кагол подминает?
батч из одного образца?
Вид? За сотню лет? При цикле размножения в 20 лет?
Но распределение среднего довольно очевидным образом зависит от количества образцов, ведь так? И при уменьшении хвосты толстеют.
это же nelder mead, нет?
А это задача традиционными методами не решается? Кажется, что gradient-based подходы тоже могут зайти Хотя DL повсюду :)
А зачем вообще так делать? Ну, почему не завести заранее np.zeros((a, b)) и в них не складывать значения?
Почему не сделаешь? Если есть возможность сохранения протокола, то это даже еще проще, чем клонить код и запускать
А сколько оно стоит? Я в свое время по доброй воле за курс Ына заплатил, потому что он офигенный
Я примерно то же самое сказал Просто... Нужно же как-то оценивать производительность модели?
Только не Wondows :) А в каких макбуках есть nVidia? Вообще, "на потыкать" хватит.
Чаще актуальнее, все-таки, дата-параллелизм, а не модел, вам именно модель бить нужно?
Что быстрее: мало оптимизированных операций или много неоптимизированных? 🤔
Блин, а что это, если не оптимизация-то? Какая самоорганизация? Сверхразум?
А что под построением нейросети понимаете? Как услугу или просто площадку нужно?