170 похожих чатов

Привет! Читаю в Attention is all you need, что авторы

при обучении подбирали батчи примерно с одинаковым количеством символов.
Sentence pairs were batched together by approximate sequence length. Each training
batch contained a set of sentence pairs containing approximately 25000 source tokens and 25000
target tokens.
Это как одна из стратегий регуляризации? Я вот думаю, нужно ли мне это делать для своей задачи NLLB fine-tuning? В данных встречаются как совсем короткие, так и длинные предложения.

5 ответов

14 просмотров

1) вычисление селф аттеншена тем дольше, чем длиннее последовательности 2) связь - квадратичная. Для N токенов нужно N^2 памяти/вычислений 3) если у тебя строки разной длины — их нужно добить до одной длины с помощью ничего не значащих токенов. Они всё еще участвуют в вычислениях, но на последующих этапах их выкидывают 4) выходит, если большая разница в длинах, то делается много ненужных вычислений. Можно этого избежать, если все токены будут полезными. 5) для файнтюнинга в целом работает тот же приём, только если нет паддинга до одной и той же длинны каждый раз, иначе разницы нет.

Kate-Sinkova Автор вопроса
See All
1) вычисление селф аттеншена тем дольше, чем длинн...

Понятно, выходит это сделано для оптимизации вычислений. P.S. Ааа, мне Игорь ответил😌😌😌 Я твое видео про трансформеры три раза посмотрела, спасибо за него

See All
1) вычисление селф аттеншена тем дольше, чем длинн...

Но при этом у нас снижается вариативность данных в мини батче, что может приводить к худшей итоговой сходимость (а может и нет) но обычно вроде группировку по длине делают с некоторой погрешностью, скажем процентов 20 например

Антон Легченко
Но при этом у нас снижается вариативность данных в...

насколько я видел практики, там делается rolling buffer. Из датасета вычитывается несколько сотен батчей, они внутри этой кучи сортируются по длине, и затем оттуда по порядку берутся данные

See All
насколько я видел практики, там делается rolling b...

Ага, я в кастомных пайплайнах обычно заранее делал грубую группировку

Похожие вопросы

Обсуждают сегодня

Господа, а что сейчас вообще с рынком труда на делфи происходит? Какова ситуация?
Rꙮman Yankꙮvsky
29
А вообще, что может смущать в самой Julia - бы сказал, что нет единого стандартного подхода по многим моментам, поэтому многое выглядит как "хаки" и произвол. Короче говоря, с...
Viktor G.
2
30500 за редактор? )
Владимир
47
а через ESC-код ?
Alexey Kulakov
29
Чёт не понял, я ж правильной функцией воспользовался чтобы вывести отладочную информацию? но что-то она не ловится
notme
18
У меня есть функция где происходит это: write_bit(buffer, 1); write_bit(buffer, 0); write_bit(buffer, 1); write_bit(buffer, 1); write_bit(buffer, 1); w...
~
14
Добрый день! Скажите пожалуйста, а какие программы вы бы рекомендовали написать для того, чтобы научиться управлять памятью? Можно написать динамический массив, можно связный ...
Филипп
7
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Карта сайта