прошло всего несколько лет. Сейчас активно применяют rl. Интеграцию с плагинами, пытаются создать опенсорсный аналоги одному монстру. Может через несколько лет про трансформеры забудут, но не потому что суета, а потому что будет что-то более эффективное
Они во временных рядах))
Что мешает заменить там их на masked self attention ?
а трансформеры хороши во временных рядах? как то возникает интуитивное ощущение что скрытые марковские модели должны посильнее быть. поправьте если я не прав
Есть 2 мнения, и оба есть в архиве. Первое - что трансформеры всех уделают, а второе - что трансформеры на временные ряды нельзя
а чем подкрепляют обе стороны?
я знал что вы заинтересуетесь 😁 как и я впрочем
Сорян, немного ошибочка вышла, не нельзя, а они проверяют, и вроде как бы не очень, а может я и не тут это читал 🤔 https://arxiv.org/abs/2205.13504v3
Значит верно чувствовал)
Обсуждают сегодня