нужном направлении.
Есть множество сценариев (без пользователя), которые потенциально хотелось бы пересадить на Kafka и EDA для решения задач текущей производительности и с точки зрения планов увеличения нагрузки в будущем.
Сценарии достаточно нетривиальные. Например, в некоторых случаях количество условных "бизнес" шагов, которые подбирают варианты обработки входящего события, может быть около сотни. Все они сейчас организованы в большое дерево if'ов в имеющемся легаси. Каждый шаг может обращаться к внешним данным для уточнения маршрута сообщения и его обогащения. Часть получаемой извне информации может быть реплицировано в локальную БД и покрывает условно 99% всех запросов. Но однозначно некоторая малая часть гарантировано выгорит из кэшей. Всё это хозяйство сейчас даже в виде какой-то законченной BPMN изобразить не получается...
Иногда возникает желание всё это упаковать в какой-нибудь Rete типа Drools и получить более-менее управляемый, но "макро-сервис". Но его масштабирование и потенциальное потребление памяти меня "смущает".
В общем, мои вопросы простые:
1. Стоит ли соваться в EDA?
2. С чего начать? У кого есть анти-success истории?
3. Как можно потенциально всё это хозяйство мониторить? И управлять в случае наращивания логики?..
4. Как его же масштабировать? Условно, 100 х N + ... кластеров?
А в чем проблема масштабировать? Добавляем партиций и запускаем столько же инстансов
Обсуждают сегодня