215 похожих чатов

И проблема ещё скорее не в том, что у меня

плохо генерируется. У меня просто никак не меняются loss. Хотя бы как-то улучшаться оно же все таки должно? Может надо другую функцию потерь выбрать?

4 ответов

28 просмотров

Интересная у вас архитектура. Ну во первых-reshape с последующим dense слоем очень плохая операция, поскольку параметров у dense будет очень много (988тыс*128, если я правильно помню как керас работает) и сеть может вообще не обучиться, надо разбираться как архитектуру подобрать, наугад, у вас наврядли что-то получится. Во-вторых вы не упомянули, меняли ли вы learning rate, если он слишком маленький ,сеть не будет вообще учиться. В-третьих две эпохи - это очень мало, однако если лосс на первых итерациях вообще не меняется то нужно решить проблемы, в предыдущих пунктах. mse как лосс для картинок обычно вообще не годится, сейчас используют perceptual loss, но для бейзлайна подойет и ваш. Еще есть вероятность, что у вас все правильно, но нужно дольше поучиться, для этого зафиксируйте батч, подавайте один и тот же все время, если обучится, значит, все у вас правильно и нужно поставить тренировку на очень долгое время с нормальным батчем. Ну и керас, конечно, хороший фреймворк, но для таких задач лучше использовать что-то более современное, типа торча.

Благой-Димитров Автор вопроса
Vlad Sorokin
Интересная у вас архитектура. Ну во первых-reshap...

> зафиксируйте батч, подавайте один и тот же все время вы имеете в виду размер батча? > во первых-reshape с последующим dense слоем очень плохая операция Видимо Dense слой в этой ситуации надо оставить (иначе мне не получить 216000 = 24 * 50 * 60 * 3 нейронов). Но как тогда мне перейти после Conv2D слоев в Dense слою? > learning_rate я вообще не ставил, щас буду разбираться, что там по дефолту и попробую поменять

Благой Димитров
> зафиксируйте батч, подавайте один и тот же все в...

Зафиксировать батч значит, что картинки и звук будет всегда одни и те же на каждой итерации тренировки, делается это только для тестирования сети, чтобы узнать, а она вообще обучиться может. к Dense слою необязательно переходить, есть полносверточные сети, которые работают чисто на свертках, как, кстати, на картинке в работе которую вы пытаетесь реализовать.

Благой-Димитров Автор вопроса
Vlad Sorokin
Интересная у вас архитектура. Ну во первых-reshap...

Я поигрался с learning_rate. По дефолту там 0.001. Я менял При learning_rate < 1 ситуация не меняется почти. Однако чем больше, тем быстрее оно начинает обучаться. При learning_rate 10 оно начинает обучаться за 1 эпоху. loss: 0.2221 - accuracy: 0.8832

Похожие вопросы

Обсуждают сегодня

Господа, а что сейчас вообще с рынком труда на делфи происходит? Какова ситуация?
Rꙮman Yankꙮvsky
29
А вообще, что может смущать в самой Julia - бы сказал, что нет единого стандартного подхода по многим моментам, поэтому многое выглядит как "хаки" и произвол. Короче говоря, с...
Viktor G.
2
30500 за редактор? )
Владимир
47
а через ESC-код ?
Alexey Kulakov
29
Чёт не понял, я ж правильной функцией воспользовался чтобы вывести отладочную информацию? но что-то она не ловится
notme
18
У меня есть функция где происходит это: write_bit(buffer, 1); write_bit(buffer, 0); write_bit(buffer, 1); write_bit(buffer, 1); write_bit(buffer, 1); w...
~
14
Добрый день! Скажите пожалуйста, а какие программы вы бы рекомендовали написать для того, чтобы научиться управлять памятью? Можно написать динамический массив, можно связный ...
Филипп
7
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Карта сайта