классу строится на основе сравнения его характеристик с другими объектами (для которых ответ известен по условию). При этом kNN использовать не хочется. Сделано так: строим витрину из пар объект неизвестный - объект известный и с попарными сравнительными фичами и решаем задачу классификации. Что не нравится: по сути мы для каждой пары объект 1 - объект 2x предсказываем метку для объекта 1 независимо. По умолчанию, модели невдомек, что все семплы с объектом 1 должны в реальности предсказывать класс одинаково (объект-то один и тот же). Вопрос: как можно это «подсказать»? Застэкать все объекты 2x с фичами в один длинный вектор не получится: длина будет переменной от сэмпла к сэмплу и слишком большой притом. Пока в голове смутно крутится идея нейронка с какой-нибудь хитрой кастомной функцией потерь.или с хитрой архитектурой. Или что-то с CRF. Никто не сталкивался с чем-то подобным?
Похоже просто decision tree classification
Обсуждают сегодня