и ловить всякие события. в дальнейшем искать аномалии итд итп. Допустим строим модель как выше благородные доны описывали: есть абстрактный ридер логов (файлбит как пример) и есть некий коллектор логов с задачей собрать архив (не привязываемся к технологии).
Вопрос 1: Правильно ли лить сырые логи без препроцессинга?
Вопрос 2: Как благородные доны избавляются от SPOF - демон коллектора умер, БД загнулась, сеть отвалилась, файловая система гипервизора разрушилась, пропало питание и другие 100500 версий чумы, которые могут произойти?
Вопрос 3: Почему именно такое решение было принято по п. 2? Этот вопрос на самом деле для меня самый главный.
Заранее всем спасибо, кто поделится своими решениями и особенно критериями, почему так сделали.
1. лучше не сырые, а какой-нибудь json если есть возможность. Тогда пост обработка в минимуме. 2. здесь главное БД, чтобы не было SPOF делать кластер из нескольких нод.
Обсуждают сегодня