внимания и архитектуры "трансформеры" и тут на меня снизошло понимание - rnn сети вообще больше не нужны теперь? Раз внимание делает всё тоже самое, но лучше и быстрее. И для решения любой задачи можно взять чужой бёрт, доучить его под свою задачу и получить лучшие результаты. Зачем я тогда разбирался в rnn, в lstm? Зачем о них пишут в книгах, если эти архитектуры теперь бесполезны по факту? Можно же сразу описывать механизм внимания
А как же анализ временных рядов
Обсуждают сегодня