основе llama)? В токенайзере нет pad токена. И не очень ясно, нужен ли padding, если там есть eos_token. И если делать паддинг, то слева от текста?
tokenizer.pad_token = tokenizer.eos_token да, в нужен при bs>1 и не одинаковых seqs
Паддить слева от текста?
Обсуждают сегодня