Если у меня есть какая-то тренировочная выборка, на которой я построил векторы для всех документов, а потом поступает новый документ, для которого хочется тоже построить векто...
С чего бы бред? В смысле, алгоритмически это не нужно, а вот в тензор по-другому не впихнуть Другое дело, что всякие CNTK умеют в чистом виде принимать батчи последовательнос...
Ну вашу ж дивизию. Вам лень таки прочитать то длинное сообщения? Специально для вас скопирую оттуда ссылку https://arxiv.org/pdf/1710.10280.pdf
А какие подводные камни в препроцессинге, не подскажете?
Почему это даст погрешность? Фича была всегда, мы её просто не меряли, среда не поменялась. Поводов работать хуже, чем раньше (кроме прикольного оверфита) не вижу
Прошу прощения, вы хотите, чтобы я вам тут все мировые работы про transfer learning перепечатал, потому что вам лень узнать, что такое бывает и им пользуются?
А что если нельзя? Предположим, мы обучаем дрон-беспилостник, налетали 1000 часов, поняли, что не хватает ещё одного акселерометра, довесили его и обучаем
Можно набрать миллион фотографий лиц, разметить их очень медленной классической штуковиной и обучаться. Я правильно понял?
Неправда ведь Сеть уже показывает хорошее качество, почему она должна стремительно разучиться работать?
Если тут всплывут полезные материалы по one-shot object detection, пинганите меня, пожалуйста?
Я сейчас сюда начну список любимых порносайтов вбрасывать, вы не против?
Я конечно всё понимаю, но чего ж не "симпловая" тогда?
Но как связаны недетерминированность и синтаксис…?
А с маленьким батчом не может "один нейрон чинить один сэмпл"?
А в чём разница между моделью и реальностью, раз уж такое пошло?
Ребят, давайте философские срачи куда-нибудь ещё всё же?
Или в смысле каждый выход --- софтмакс на два элемента?
Но при этом вы соглашаетесь с этим?
Добро пожаловать в начало беседы. КАК?
А есть аргументы кроме “связей нет“?