170 похожих чатов

Подскажите новичку в NLP: должен ли я прямо реально въехать

в то, как именно работает SVD, прохавать на примерах умножение матриц, или хватит того, что я знаю, что оно для уменьшения размерности и уменьшает кол-во точек, оставляя самые крайние и важные для сохранения дисперсии?

7 ответов

19 просмотров

сейчас вам откроется страшная тайна, что реальных дата сайнтистов на весь земной шар может тысяча и наберется. остальные, это просто дата инженеры, которые умеют загрузить, почистить набор данных и знают как подсунуть его в готовые функции keras.

Aleksandr-N Автор вопроса
rms_ak
сейчас вам откроется страшная тайна, что реальных ...

Я вот и хочу понять, сделает ли это знание меня более конкуретноспособным или это чисто алгоритм который применил и как минимум не хуже. Допустим, знание как именно работают tf-idf, что на что делится, косинусное расстояние, показалось мне интересным хоть и простым. А тут уже 3 раз пытаюсь въехать, пока безрезультатно, аидимо надо нормально почитать матиричную алгебру, но возник вопрос стоит ли оно того

вы не узнаете пока не попробуете, так со всей математикой, необязательно ML если не знаешь, то и не проверишь, полезно или нет. а если знаешь, то внезапно может где и приспособишь. вполне возможно и не только с математикой так 😀 конкретно SVD и прочие собственные числа - та еще штука. спорная с точки зрения ML, хотя многие пользуются, и обоснование есть. собственные числа в диффурах интересны - устойчивость решений и т.д.

Andrey
вы не узнаете пока не попробуете, так со всей мате...

SVD - это почти что другое название PCA. Так что про спорность с точки зрения ML - это как-то слишком

Nikolay Karelin
SVD - это почти что другое название PCA. Так что п...

+/- да. напомните пожалуйста, когда вы в прод PCA пихали в последний раз?

Aleksandr-N Автор вопроса
Andrey
+/- да. напомните пожалуйста, когда вы в прод PCA ...

Спорность почему? Выигрыш в производительности и обучаемости уже не так критичен как раньше?

Andrey
+/- да. напомните пожалуйста, когда вы в прод PCA ...

Когда снижали размерность эмбеддингов и пространства признаков в нейросетках?

Похожие вопросы

Обсуждают сегодня

Господа, а что сейчас вообще с рынком труда на делфи происходит? Какова ситуация?
Rꙮman Yankꙮvsky
29
А вообще, что может смущать в самой Julia - бы сказал, что нет единого стандартного подхода по многим моментам, поэтому многое выглядит как "хаки" и произвол. Короче говоря, с...
Viktor G.
2
30500 за редактор? )
Владимир
47
а через ESC-код ?
Alexey Kulakov
29
Чёт не понял, я ж правильной функцией воспользовался чтобы вывести отладочную информацию? но что-то она не ловится
notme
18
У меня есть функция где происходит это: write_bit(buffer, 1); write_bit(buffer, 0); write_bit(buffer, 1); write_bit(buffer, 1); write_bit(buffer, 1); w...
~
14
Добрый день! Скажите пожалуйста, а какие программы вы бы рекомендовали написать для того, чтобы научиться управлять памятью? Можно написать динамический массив, можно связный ...
Филипп
7
Недавно Google Project Zero нашёл багу в SQLite с помощью LLM, о чём достаточно было шумно в определённых интернетах, которые сопровождались рассказами, что скоро всех "ибешни...
Alex Sherbakov
5
Ребят в СИ можно реализовать ООП?
Николай
33
https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_h_common.erl#L174 https://github.com/erlang/otp/blob/OTP-27.1/lib/kernel/src/logger_olp.erl#L76 15 лет назад...
Maksim Lapshin
20
Карта сайта