и бэк, я что-то не могу совсем понять как нейроны convolution layer'ов связаны с нейронами других convolution layer'ов.
Т.е. если взять картинку и пропустить ее через N фильтров получится уровень с N convolution map'ами, который потом пулится, это все повторяется и в итоге получается обычный вектор инпутов. Вот я не понимаю совсем как применить бек пропагейшн на такой сети, какие веса менять у 3-х мерных лееров? И где менять веса фильтров или у convolution map'ов? Сам процесс не могу уложить в голову, уже много прочел и посмотрел курсов, но что-то этот момент понять не могу совсем. Бтв я знаю как работает back-propagation в обычной сети, вот.
В общем вопрос в том, мог бы мне кто-нибудь объяснить как примерняется бек пропагейшн на конволушнл леерах и на фильтрах? :D
Бек пропагейшн вообще не связан с топологией сети.
Обсуждают сегодня