hdd в виде обыкновенных jpg файлов. При небольшом кол-ве файлов <10к операции типа ls -l | wc -l (подсчет файлов) занимает несколько секунд. Но, при кол-ве 50+к время начинает подозрительно нелинейно расти. Соответсвенно 2 вопроса:
1) Почему это происходит?
2) Как с этим бороться?
Возможно стоит делать как git внутри. Не класть все файлы в одну папку, а разбивать на кучу папок, там еще папки, а уже там файлы. (Или использовать какой-нибть другой сторадж, а не fs)
1. потому что у тебя каталог пухнет
Какая у вас файловая система?
Обсуждают сегодня