Ни как не могу найти оптимальный способ впихнуть в CH данные в кудрявом формате. Хочется иметь возможность делать что-то типа SELECT data FROM url('http://127.0.0.1:12345/', ...
а что значит то считать эту строку, и далее также их считать.? Считать все hint'ы от начала до конца или считать все строки после hint до конца или считать все ситуации когда ...
Я понял, ага. У меня 19.15. А запросы валятся по памяти это как? Стали потреблять больше памяти чем до обновления и теперь не пролезают в лимит?
Если приезжает вообще всё, может проще тогда перезаписывать этим MergeTree таблицу? А на эту таблицу повешать MV, которая в соседнюю таблицу сохранит историю?
Вот это что-то возвращает? sudo find /var/lib/clickhouse/metadata -name "*.sql" | xargs grep click_transaction_id_tmp_alter
Правильно ведь я понял что часть event'ов надо ещё и удалять? Или речь про то что надо удалить предыдущие состояния обновившихся event'ов?
Сколько стадий принятия основных постулатов алгебры кто знает?
Что то типа SELECT key, arraySum((v,k)->if(k!=key,v,0),values,keys) as sum FROM(SELECT groupArray(key) as keys, groupArray(value) as values) ARRAY JOIN keys as key, values as ...
Точно только Подскажите пожалуйста указал в <path> в конфиге директорию зранения данных но после перезапуска сервера он не запускается, что делать? делали?
Добрый день. Кто-то натыкался на такое? https://gist.github.com/paoacc/0fc14a2d3c4e10a0e0029682271cb978 Выглядит так как будто парсер запросов покрывает не все варианты.
вот это читали? https://clickhouse.tech/docs/en/sql-reference/aggregate-functions/parametric-functions/
Доброго времени суток. А планируется появление аналога оконных функций? Сейчас, в принципе, с помощью массивов это всё можно написать, но больно много букав получается.
Спасибо за ссылки. Один вопрос остался: modelEvaluate вернёт либо probability либо raw ответ в зависимости от параметров указанных при сохранении модели?
И это хранится в 2х разных таблицах? Или таблицу саму на себя надо отобразить?
А на подах в таблице infi_clickhouse_orm_migrations все миграции есть?
Это? https://clickhouse.yandex/docs/ru/query_language/functions/higher_order_functions/
Похоже allow_experimental_data_skipping_indices надо у default'а в профиле воткнуть?
Под это определение только \n в общем случае и попадает. Его можно указать?
А каждую выгрузку в CH приезжают все 10 млн?
это как ReplacingMergeTree удаляет строки?