какие-то идеи?
Я хочу использовать WordpieceTokenizer из tensorflow для NER таска. Теги, разумеется. стояли на каждое слово. А после этого токенайзера я буду иметь больше цифр на одно слово.
У меня есть 2 варианта — использовать 3-мерный вектор образованный после WhitespaceTokenizer, но не до конца понятно, как его потом обрабатывать, чтобы в тренировку засунуть. Но его относительно просто сформировать с помощью padded_batch.
Или же можно попробовать написать дополнительную функцию, чтобы она размножала теги по созданным словам типо такого https://github.com/google-research/bert/issues/646. Тогда будет 2 мерный вектор с учетом батча. С моей точки зрения, много лишнего кода добавляется.
В продолжении этой темы. Подскажите, пожалуйста, если я выбрал 2 вариант и расплющиваю все токены в одномерный массив, то как мне предсказания делать? У меня же модель, так же как и при тренировке, требует токены в 1-мерном массиве и выдает вероятность вхождения в каждый из классов для каждого из токенов. А я-то хочу вероятность узнавать относительно каждого слова на выходе... Как это обеспечить?
вот нашел топик как раз на эту тему, но что-то так и не понимаю, какие данные на входе мне нужно пустить и как на выходе обрабатывать. Говорят, вроде, что нужно замаскировать все токены, кроме первого. Но мне не до конца понятно, когда это делать нужно https://www.reddit.com/r/LanguageTechnology/comments/hltph0/ner_with_bert_wordpieces/
Обсуждают сегодня