есть переобученная модель ruBert (http://docs.deeppavlov.ai/en/master/features/pretrained_vectors.html#bert)
Я хочу дообучить эту модель для классификации моих текстов, но у этой модели есть ограничение - длина текстов не должна привышать 512 токенов. Тексты, естественно, длиннее, и 512 токенов очень мало. Собственно, как решается это проблема? Как запихиваются тексты целиком при таком ограничении предобученных моделей?
Ну у тебя классификация же текста ? Разбей на 2
Что? Текст разбить на отдельные части с одинаковыми метками класса и учить модель как будто это отдельные, несвязанные наблюдения?
https://stackoverflow.com/questions/58636587/how-to-use-bert-for-long-text-classification
подходов есть несколько, в том числе пропихивание информации от первой части во вторую. Есть папира на этот счет. Можно ее почитать
Обсуждают сегодня