меня на azure blob store лежат паркеты (результат работы spark'a) , я хочу их читать и инсертить в ch
Для aws и gcp это работает просто:
<yandex>
<s3>
<data_ro>
<endpoint>...</endpoint>
<access_key_id>...</access_key_id>
<secret_access_key>...</secret_access_key>
</data_ro>
</s3>
</yandex>
и потом можно из бакета читать и делать инсерт
Подскажите пожалуйста, как должна выглядеть конфигурация интеграции для azure blob store?
https://github.com/ClickHouse/ClickHouse/pull/50604
с форматом запроса разобрался - спасибо а как сделать чтобы креды подтягивались из конфига, как когда из aws s3 делаешь селект?
посмотрите в сторону named collections
создал CREATE NAMED COLLECTION test AS connection_string = 'DefaultEndpointsProtocol=https;AccountName=xxx;AccountKey=yyy;EndPointSuffix=core.windows.net' но когда использую получаю ошибку SELECT count() FROM azureBlobStorage(test, 'container_name', 'blobpath', 'format', 'compression', 'structure') DB::Exception: Expected key-value argument or function. (BAD_ARGUMENTS)
попробуйте пропинать вот так FROM azureBlobStorage(NAME test - у меня с какими то коллекшенами это помогло. тоже были ошибки... вообще диковато - в дикшенарях одно, в энжинах таблиц - другое. и то в разных энжинах может быть разный формат... ((
Хм, может не добавили поддержку в азур блоб функцию
не очень понял как нужно :(
не факт что поможет. дима вот выше написал что возможно не добавили поддержку еще вот так NAME test вместо test
значит понял правильно - и так ошибка :(
Обсуждают сегодня