о Debezium.
Может кто знает, он умеет в батчинг перед отправкой в кафку больших сообщений?
Имеется bytea в постгресе весом более 8мб.
PostgresConnector успешно считывает lsn базы, создает на основе его Record (один).
Далее этот рекорд пытается улететь в кафку, но оказывается слишком большим.
Может кто сталкивался необходимостью деления сообщений на мелкие и отправку в кафку. Пока не нашел за что зацепиться
Не понял: По кафке принято кидать события? Какое дто со всеми данными? Синхронный запрос данных? Откуда куда?
Отправляете по кафке минимальный набор данных, дальше по ресту уже тянете полный набор вместе с блобом
что именно?
Обсуждают сегодня