Скорость не важна!!! Проект пока на стадии "теоретического" ))) Хочу понять "насколько сложно"! Задумка - сделать аналог ДропБокса или ГуглДиска - закинул в папку, а мне "упаковало в ОДИН шифрованный файл" и отправило в резервное хранилище. Не 1М файлов (включая node_modules), а только один.. Причем в отличии от архивированя, он "поменял бы" в "контейнере" лишь пару мегабайт из нескольких гигабайт...
ха. а шифрование где тогда? =)
Xor - вот наше шифрование. Можно для надёжности несколько раз 😁 (реальная история откуда-то - последовательный xor с разными значениями, видимо просто чтобы сделать вид нагрузки)
А если писать файлы в sqlite?
Об этом тоже думал... Но это уже не будет fs. Да и с шифрованием будет на порядок сложнее. У меня задачи не просто эмуляцию сделать, а полноценную FS. Путь медленную, но с ПОТЕНЦИАЛОМ развития и возможно когда-нибудь (после нескольких ЛЕТ "полировки" и устранения багов) на сервер как часть какого-нибудь проекта можно будет поставить
фс на жс? на сервер какой-нибудь поставить?
ага! )) выше мне ссылок накидали на чужие готовые наработки... В идеале можно сделать НАДстройку над FS со своими возможностями, далеко уходящими за требования к обычным FS. Например "история изменения фалов"(аналог GIT но по файлам, а не по коду) или авто-очистка устаревших папок(логи, кеш), или сложная система шифрования, "скрытые разделы", авто-резервирование заданных папок. (насколько фантазии хватит) Опять-же так мы "отвязываемся" от ОС и даже можем сделать распределенное хранение (часть диска на винде, а часть на линукс-хостинге, а работаешь как с одним).
Есть разные fs, нужна ли реально ещё одна?
Docker контейнеры с разными сервисами не подходят?
там же в перспективе шифрование, распределенное хранение, история изменений и тд и тп и все это на жс конечно нужна как минимум будет интересно посмотреть
всегда можно придумать задачи которые не решается НИ ОДНОЙ современной fs или нужен "гибрид" из двух и более специализированных фс. У меня это ТЗ задумалось когда надо было заливать на гугл-сторэдж огромные гигабайтные архивы в которых менялось не больше 1-5 мб - до нескольких часов заливка шла + оплата за трафик. Подумал тогда что было бы логично нарезать архив на 100 частей и заливать лишь те что поменялись. типа кластеров диска.
Каких-то 46 тыс дней 🤓 По одному биту копируется?)
Понятно. Ну, можно сделать свой сервис, как надстройку над гугл диском и т.д. И в зависимости от типа хранилища или API делать сохранение (включая нарезку на части) и чтение.
Обсуждают сегодня