типа когда не можешь векторизовать вычисления, а надо что-то сложное посчитать?
На нём все фреймворки написаны
Когда пишут для определенных процессоров, то на плюсах реализуют поддержку слоев
ясн, спсб, такое мне вряд ли понадобится в ближайшее время)
для ускорения на 1-2 порядка.
ну это про предобработку? цикл обучения например, там как бы основное время занимает то что внутри пайторча происходит), другое дело что предобработка может время занимать, особенно если не получается векторизовать
ну так сам пайторч на чем написан? пока у тебя iq не 400, ты не можешь запихнуть весь цикл обучения в cuda
Вообще в случае TF и XLA обычно цикл в куду и залетает целиком
мне ж не надо пайторч переписывать)), а от того, чем ты его дергаешь ничего не меняется особо)
Но XLA с RNN не особо дружит
ну если спросили о ЯП то я ожидал что они хотят переписать его (иначе зачем?)
ну значит над ним работала большая толпа гениев
Обсуждают сегодня