в то, как именно работает SVD, прохавать на примерах умножение матриц, или хватит того, что я знаю, что оно для уменьшения размерности и уменьшает кол-во точек, оставляя самые крайние и важные для сохранения дисперсии?
сейчас вам откроется страшная тайна, что реальных дата сайнтистов на весь земной шар может тысяча и наберется. остальные, это просто дата инженеры, которые умеют загрузить, почистить набор данных и знают как подсунуть его в готовые функции keras.
Я вот и хочу понять, сделает ли это знание меня более конкуретноспособным или это чисто алгоритм который применил и как минимум не хуже. Допустим, знание как именно работают tf-idf, что на что делится, косинусное расстояние, показалось мне интересным хоть и простым. А тут уже 3 раз пытаюсь въехать, пока безрезультатно, аидимо надо нормально почитать матиричную алгебру, но возник вопрос стоит ли оно того
вы не узнаете пока не попробуете, так со всей математикой, необязательно ML если не знаешь, то и не проверишь, полезно или нет. а если знаешь, то внезапно может где и приспособишь. вполне возможно и не только с математикой так 😀 конкретно SVD и прочие собственные числа - та еще штука. спорная с точки зрения ML, хотя многие пользуются, и обоснование есть. собственные числа в диффурах интересны - устойчивость решений и т.д.
SVD - это почти что другое название PCA. Так что про спорность с точки зрения ML - это как-то слишком
+/- да. напомните пожалуйста, когда вы в прод PCA пихали в последний раз?
Спорность почему? Выигрыш в производительности и обучаемости уже не так критичен как раньше?
Когда снижали размерность эмбеддингов и пространства признаков в нейросетках?
Обсуждают сегодня