ответил что его не стоит применять), предполагаю из-за того что при обучении воск этого просто не видел и начнёт неправильно предсказывать(ввиду того что часть нейронки просто упадёт)?
И ещё предположение по шуму, ведь он является частью регуляризации, одним её воплощением, и если "другие" регуляризации вполне справляются, можно и убрать шум.(но чем тогда инициализировать сеть, если это скажем RNN) не приведёт ли исключение шума к переобучению? Я пока чисто теоретик в ML, может быть вообще всё не правильно понимаю, но вопросы такие
При тренировке шум добавляется, нейросеть учится его отфильтровывать сама, дополнительной фильтрации не нужно.
Понял, спасибо
Обсуждают сегодня