А что не так?
Да я использую rubert, для энкодинга текстов. И нужно много текстов энкодить быстро, саму модель ускорит с помощью onnx, а токенизация занимает 50% времени от всего процесса и не знаю даже, как её ускорить.
У тебя класс токенизатора - BertTokenizer или BertTokenizerFast?
Map ?
Не понял
Ну в мапу положить
Хм, ну не уверен, что это будет быстрее, с учётом того что надо возвращать формат pt, для энкодинга моделью
Обсуждают сегодня