500кб по 500/сек это за 200 Мбайт/сек выходит? Неплохо
сетевая связность в норме? со всех реплик есть доступ до того, что содержится в advertised.listeners?
у меня есть идея реализовать коннектор сделать я его сделаю, и буду использовать. А как поделиться с людьми, чтобы он попал на https://www.confluent.io/hub/ и помогал людям? к...
В итоге после выключения идемпотентности заработало нормально?
ACL нет?
В advertised listeners для ssl прописан localhost? Обычно ошибка связана с тем что имя сервера в сертификате отличается от того имени по которому обращаетесь или которое проп...
вряд ли метаданные успели инвалидироваться может, поиграться параметрами ?https://kafka.apache.org/documentation/#producerconfigs_metadata.max.age.ms https://kafka.apache.or...
> 1 продюсер на 5 партиций 45к объектов пересылает за 170сек, а 5 продюсеров на 5 партиций за 43сек а если 5 продюсеров, каждый из которых пишет рандомно во все партиции?
лучше на митап записывайтесь https://slurm.io/meetup-kafka?utm_source=sendpulse&utm_medium=post&utm_campaign=meetup_kafka&utm_content=post_11_11_2020&utm_term=button
Если вы реже раз в 7 дней отправляете сообщения - может тогда каждый раз при отправке продюсера инициализировать?
речь про Apache Kafka ведётся? что за продюсер?
если только в одни топик летят данные - установите для него retention.bytes и забудьте про ручные действия не?
а в сертификате допустимые DNS имя - это прям localhost? rest-proxy и клиент обращаются по одному имени к брокеру?
может, сериализаторы какие-нибудь хитрые, например?
это, к сожалению, не знаю. работал только с клиентами кафки А зачем вообще повторно перечитывать, если уже всё вычитали?
и каждый пользователь конечно должен получить только то, что предназначено ему?
А может это консьюмер некорректно с уровнем изоляции работает?
А на ограничение по количеству открытых дескрипторов файлов вы не попадаете случайно?
а нельзя подмаппить ещё диск и указать место в log.dirs?
поясните, что за балансер брокер кафка, зукипер?