конечно, молодец, со своей задачей справился, но блин - почему модель не могла справиться точно так же вместе со слоём нормализации? Ведь условия проверки он же не меняет)
Батч-нормализация не влияет никоим образом на переобучение. Что за бред?
Жаль, что ты всем говоришь, что нужно учить теорию, а сам не знаешь базовых вещей В статье про BN как раз говорят, что BN помогает бороться с переобучением :)
Витя, ну молчал же, что же ты появился на мою голову...
Это же твоя любимая рубрика - в интернете кто-то не прав Сразу с пруфом, а то ведь скажешь, что я что-то придумал https://arxiv.org/abs/1502.03167
Вить, ты вот когда хочешь подгадить, ты снимай штаны пожалуйста. А где я сказал что батч-нормализация не помогает сети лучше обучаться?) Мне кажется, ну вот мне всё же кажется что я сказал что батч-нормализация не могла сеть заставить переобучиться то есть при добавлении батч-норма рез не может ухудшится (может но есть нюанс), а должен улучшится наоборот. Мы ведь изначально говорили за то, что у человека ухудшился рез с ними, а удалив стало лучше чего быть не могло.
Но раз ты хочешь об этом поговорить, ну. Да. Это известно. Как и известно то, что скип-коннекшены позволяют сети лучше и быстрее сходиться а ещё градиент с ними не затухает.
Как это, не влияет? Мне казалось, Батч-нормализация мешает переобучению т.к. она нормализует выход слоя, давая среднее 0 и вариацию 1 по батчу; это, в свою очередь, усложняет модель, заставляя её лучше обобщать данные
Обсуждают сегодня