порядка 8 деплойментов и пару persistentVolumes. Наблюдаю такую картину
[root@ip-10-123-2-150 full-app]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/nvme0n1p1 30G 11G 20G 36% /
devtmpfs 7.7G 0 7.7G 0% /dev
tmpfs 7.7G 0 7.7G 0% /dev/shm
tmpfs 7.7G 26M 7.7G 1% /run
tmpfs 7.7G 0 7.7G 0% /sys/fs/cgroup
overlay 30G 11G 20G 36% /var/lib/docker/overlay2/9ce473bcd4bf4782e3c08f36af895e953d3ac3e0bb2500a6f0310472f08ec3bd/merged
overlay 30G 11G 20G 36% /var/lib/docker/overlay2/02e2b87d2fe9fda7426b0d8d77b6ec121dca53845994fd210a8fc4ab3873f0c7/merged
overlay 30G 11G 20G 36% /var/lib/docker/overlay2/8caef8729920329fb4ff23c940a06b3eb62fd2c2d0156006b2ac278bad7c4f2f/merged
shm 64M 0 64M 0% /var/lib/docker/containers/4f51c302a60751f98270a27d057252504d056598ef8696c1b69161cea058504d/mounts/shm
overlay 30G 11G 20G 36% /var/lib/docker/overlay2/863b5a584a8a14118b31df77fdc1f4c5af398be742dca91b16710021e6cc1e6f/mergedну и дальше в таком роде. всего порядка 100
это вообще нормально и откуда так много файл систем?
Это всратый докер. Этим все сказано
как-то удалось это решить? я столкнулся в gke с таким же, причем только на некоторых нодах и как раз эти ноды периодически рестартуют ни с того ни с сего, доставляя определенные проблемы
Обсуждают сегодня