на тех же деревьях LAB, к примеру, приносит прирост скора на задаче регресии. И вот когда появились нейронки, стали думать, не стоит ли уйти от RGB.
Ну и вот эта работа на тот момент была очень хорошим бенчмарком, который показал, что нейронка выучивает промежуточное представление, оптимальное в смысле конечной метрики. И неважно, какое представление ты подал ей на вход. Оно и логично - первой же сверткой ты счиатешь коэффициенты в полносвязном слое по каналам, когда от 3 каналов переходишь к большему их количеству.
То есть гипотеза была только в том, дойдут ли до входа сетки градиенты, способные выучить какие то хорошие веса для преобразования цвета. Ну и даже на тот уровень развития - caffe, слабые архитектуры, оказалось что нормально учится все, и RGB ничем не хуже остального. Собссно, это простое высказывание и является основным выводом этого пейпера в части цветовых пространств, и все многочисленные чиселки и графики - они дают ответ "да" на один вопрос: RGB достаточно?
И все, с момента этой работы все забили совершенно на эту идею с преобразованиями цвета, потому ты не видишь таких исследований. То есть ты можешь запариться и повторить это на новых архитектурах, но вероятность накопать тут чего-то очень низкая. На практике юзают то представление, которое идет с сенсора, и на него тренят сетку, потому что такое преобразование - само по себе дорогая операция, ну а необходимость его отсутствует
Авторы этого пейпера очень сильные - Дмитро автор нескольких крутых статей, сейчас контрибутор Kornia, его научник Маташ - топовый ресерчер https://scholar.google.com/citations?user=EJCNY6QAAAAJ&hl=ru
Спасибо, за конструктивное сжатое изложение)
Обсуждают сегодня