реализации выгрузок с бд, причем записей очень много и предполагается в начале передавать в kafk-у по очереди записи с бд, а затем вычитывать и генерировать xml ?
Я бы сама с удовольствием читала честные комментарии о компании от сотрудников. Рекрутерам это тоже очень интересно
дубль 2
Через confluent пробовал? Можно настроить коннект к базе и перелить данные стандартными скриптами. За примерами сюда https://docs.confluent.io/current/connect/kafka-connect-jdbc/index.html
спс большое, с воскресения почитываю эти статьи, оч интересно
Kafka connect решает ситуации с выгрузкой откуда угодно куда угодно
Супер. А как поток с кафки делить на части и эти части отдельно в асинхронном режиме превращать в xml имеется опыт? Есть необходимость именно делить на чанки поток. Что то наподобие как Camel concurentProducer-ов делает
Сначала выгружаешь в кафку с помощью connect, потом процессинг делаешь на стримах (ибо Java, и там все хорошо с XML). Либо свой конвертер который может в XML (из коробки json и avro только, есть ещё protobuf)
спс, Java StreamApi имеешь ввиду, или KafkaStreams ?
Kafka Streams, если тебе надо трансформацию делать и писать обратно. вкафку
Обсуждают сегодня