215 похожих чатов

Ребята, я не понимаю. На картинке утверждается, что это однослойная

НС (так как один скрытый слой). С другой стороны, есть слой в котором применяется RELu и есть слой в котором применяют сигмоид. Можно ли считать, что слой с сигмоидом это скрытый слой? Ведь если бы мы, например, писали сеть на keras, то, как я понимаю, нужно было бы два слоя создавать - в одном 4 нейрона с RELu, во втором один нейрон с сигмоидом. Тогда как быть? это однослойная сеть или всё таки двухслойная? И почему? Буду благодарен за объяснения

2 ответов

12 просмотров

Relu это функция активации, а не слой

Двухслойная. Выходной слой - это тоже слой.

Похожие вопросы

Обсуждают сегодня

Господа, а что сейчас вообще с рынком труда на делфи происходит? Какова ситуация?
Rꙮman Yankꙮvsky
29
А вообще, что может смущать в самой Julia - бы сказал, что нет единого стандартного подхода по многим моментам, поэтому многое выглядит как "хаки" и произвол. Короче говоря, с...
Viktor G.
2
30500 за редактор? )
Владимир
47
а через ESC-код ?
Alexey Kulakov
29
Чёт не понял, я ж правильной функцией воспользовался чтобы вывести отладочную информацию? но что-то она не ловится
notme
18
У меня есть функция где происходит это: write_bit(buffer, 1); write_bit(buffer, 0); write_bit(buffer, 1); write_bit(buffer, 1); write_bit(buffer, 1); w...
~
14
Добрый день! Скажите пожалуйста, а какие программы вы бы рекомендовали написать для того, чтобы научиться управлять памятью? Можно написать динамический массив, можно связный ...
Филипп
7
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Карта сайта