сокращает данные? Или ей нужно сначала на всех данных исследовать зависимости? И потом только она может уменьшить
Размерность сократится настолько, несколько будет задано. Архитектура у сети такова, что она сначала проектирует данные на более низкие размерности, затем распаковывает, пытаясь восстановить данные. Алгоритм итерационный, на среднем слое будет лучше видна кластерная структура.
Насчет выгрузки данных, не понял, что именно имелось в виду, скорее всего батч-режим. Можно использовать стохастические методы оптимизации и подавать данные "порциями" (батчами), а не все за раз. В итоге одна итерация метода оптимизации растягивается на количество порций. А порции уже можно подобрать так, чтоб памяти хватало.
Сразу можно ожидать, что сработает лучше, чем PCA, от него можно и отталкиваться
Обсуждают сегодня