23.4.2.11
И по каким-то причинам clcikhouse стал выгружать в огромном обьеме данные в S3.
Есть у кого нить версии что он там выгружает в s3 ?
см. /var/lib/clickhouse/disks/s3_disk_name/ вот это он выгружает там внутри файлы для табличек в которых ключи s3 и прочая метафинформация TTL есть в таблицах?
TTL не успели настроить, после обновления clickhouse_keeper Начал сам все выгружать в s3
keeper ничего в s3 не выгружает физически ну вы когда s3 диск добавили... вы поди еще и default storage policy поменяли?
что в SELECT * FROM system.storage_policies ?
Да, простите кипер не выгружает. Кх выгружает все
Policy поменяли, там два диска default и s3. Больше ничего не делали, и по каким-то причинам пошла какаято выгрузка
а вы про policy вообще читали что-то перед тем как менять? вы s3 диск добавили в тот же volume или в отдельный? если в отдельный то move_factor какой между volume ?
<storage_configuration> <disks> <default> </default> <disk_s3_do> <support_batch_delete>false</support_batch_delete> <type>s3</type> <endpoint>****</endpoint> <access_key_id>***</access_key_id> <secret_access_key>******</secret_access_key> <metadata_path>/disks/s3_do/</metadata_path> </disk_s3_do> </disks> <policies> <default> <volumes> <default> <disk>default</disk> </default> <cold> <disk>disk_s3_do</disk> </cold> </volumes> </default> </policies> </storage_configuration> Вот так настроили. На stage окружении вроде бы тестировали и все праивльно работало
Есть подозрение что clickhouse сам начал перекидывать данные на s3 потом как на default диске оставалось очень мало свободного места, move_factor мы не настривали.
move_factor 0.1 забыли внутри volume
Обсуждают сегодня