(около 1%).
Если создать новый kafka engine и перезалить в таблицу данные из кафки с начальных оффсетов, то все данные на месте.
Но сообщения начинают снова терятся как только лаг пропадает.
При этом в логах встречаются ошибки
2019.08.29 13:20:27.778190 [ 33 ] {} <Trace> StorageKafka (queue_debug): Re-joining claimed consumer after failure
2019.08.29 13:20:27.778950 [ 33 ] {} <Error> void DB::StorageKafka::streamThread(): std::exception. Code: 1001, type: cppkafka::HandleException, e.what() = Local: Timed ou
t, version = 19.13.2.19
В 19.8.3.8 таких проблем не наблюдалось.
Кто-нибудь сталкивался с этим? Есть workaround или нужно откатывать на работающую версию?
Ну, теперь в ченджлоге в каждой версии есть "Kafka integration has been fixed in this version." :)
Напишите сюда https://github.com/yandex/ClickHouse/issues/4736, а то Иван только что закрыл эту проблему
Обсуждают сегодня