столкнулся с такой штукой - во всех работах в D и G используется BatchNorm, но у меня с ним ничего не вышло от слова совсем. G с ним начинает выдавать мусор и никак не тренируется, а вот D хорошо тренируется, но ровно до тех пор пока нет полной модели (d_on_g, combined model). Как только на одном батче запускаю combined_model.train_on_batch, при том что D.trainable = false, дискриминатор схлопывается и начинает на любой инпут выдавать 1. Я подозреваю что это как то связано с внутренними параметрами батчнорм слоя, которые обновляются во время тренировки всей сети, а как обойти это идей нет совсем :( может кто подскажет варианты? Заранее спасибо
какой фреймворк
Может кто нибудь все таки в курсе в чем проблема?( Фреймворк керас и tf бекенд
Обсуждают сегодня