значения синуса? :)
хм. я пробую вот так: x = K.reshape(x, shape=(batch_size, 10)) decoded = K.reshape(decoded, shape=(batch_size, 10)) loss = K.sum(binary_crossentropy(x, decoded), axis = -1) kl_loss = -0.5 * K.sum(1 + z_log_var - K.square(z_mean) - K.exp(z_log_var), axis=-1) result = loss + kl_loss return result
Походите. Концептуально: как устроена BCE?
не совсем понял. Есть ошибки?
Концептуально — да. ВСЕ — это взвешенные трушными метками выходы логарифма предиктора. Ну вот прикиньте, что декодкер выдал вам -1. log(-1) что выдаст?
Видимо ничего хорошего не выдаст) Как поправить? надо отказаться от ВСЕ?
Ну вы поймите, какую задачу выт хотите решить. У вас по сути регресс — ну и берите стандартные MSE. Если увидите, что у вас данные устроены так, что MSE не справляется — берите другие лоссы, по для регресса. BCE по классике используется в классификации, потому что берётся из биномиального правдоподобия. Это можно использовать в АЕ для предикта картинок, но Вам это явно ни к чему.
спасибо. mse почему то показывает метрику хуже, хотя при проверке данных с вносимыми изменениями VAE лучше справляется.
Вы мне говорите, что у вас ВСЕ не выкидывает ошибку?
нет, выполняется без ошибок. просто лос плохо падает. и проверка на данных не очень.
Вы не находите это странным?
Обсуждают сегодня