(загружен нужный документ/ненужны)
Сейчас использую pretrained VGG16 с весами imagenet и два fully connect лейера чтобы сузить output до бинарной классификации.
Датасет из реальных фоток, но их немного:
150 фото правильного документа
800 фото мусорных документов
(Пробовал и в соотношении 1:1, чтобы датасет был сбалансирован)
Сейчас accuracy равен количество неверных фото/количество верных фото.
А это значит, что на выход я получаю модель, которая говорит "всегда нет" или "всегда да" 💁♂
У меня есть пара гипотез почему все идёт по одному месту:
1) Мало данных
2) Фото документа, распечатанного на принтере, а затем сфотканного на камеру после сжатия до 224х224 пикселей становится неприменимой для нахождения фичей
3) VGG16 с весами imagenet больше подходит для классификации более "повседневных" фото, нежели документов
Нужна помощь с ответами на вопросы:
1) Есть ли какие-нибудь модели в открытом доступе, которые были натренированы на поиск фичей документов?
2) У меня есть PDF файл с документом, есть ли ризон нагенерировать синтетический датасет из этих "идеальных" данных?
3) Почему много CNN используют данные формата 224х234х3? По вашему, подойдёт ли для фото документов?
Кто-нибудь может подсказать? пожалуйста
Все три гипотезы кажутся рабочими
Да, а чем правильный документ отличается от мусорного?
Ответы на вопросы: 1) скорее всего да, гуглить что-то типа “ocr document detection” (сам навскидку ненагуглил, но у абби что-то подобное видел, вроде), 2) да, 3) скорее всего какой-то удобный размер для нарезки данных в видеокарту :)
Обсуждают сегодня