input (i) размера N, матрицу весов (w) размера N*M где M - размер следующего слоя, взять байес (b) размером M и сделать что-то вроде relu(w * i + b)
Теперь переходим к батч-обучению, где создается плэйсхолдер (p) [None, N], w = [N,M], b = [M], происходит примерно тоже самое relu(w*p+b)
Теперь допустим мы передаем некий вектор на вход первой конструкции и получаем результат, а потом передаем тот же вектор на вход второй конструкции (нулевым элементом), но повторив его несколько рази и/или добавив другие вектора, правильно ли я понимаю, что на выходе нулевой элемент будет отличаться от результатов полученных в первом примере?
нет не будет
Обсуждают сегодня