только начинаем внедрять кафку в наш продукт и экосистему осваиваем постепенно.
Наши реализованные кейсы:
1) расшаренные справочники. Льем их в кафку из основного монолита, остальные микросервисы их читают.
2) вопрос - ответ
В ближайших планах:
3) очередь на запись\изменение справочников из разных источников в монолит
4) данные с датчиков (тут данных реально много)
Сейчас все гоняется json'ами, написаны сериализаторы и case классы, распространяются в виде артефакта.
Смотрим в сторону avro/
Оставшиеся вопросы:
1) как генерить case классы автоматом ? нашел https://github.com/sksamuel/avro4s
Кто что использует ?
2) какими тулзами просматривать avro ? прям топики, для дебага или выяснения инцидентов.
сейчас смотрим через http://www.kafkatool.com
3) общие мысли: насколько avro лучше\хуже json'а и т.д.?
У меня сейчас монолит и микросервисы. Монолит и большинство микросервисов на Python, часть (ну и стримпроцессоры) на Java. Использую Avro, собственно потому что совершенно предсказуемая [де]сериализация, эволюция схем и т.д. Схемы к топику _не_ привязаны. У ключей, кстати, тоже, потому что у некоторых классов сообщений ключ "составной".
Обсуждают сегодня