количества ошибок по их кодам - 4xx, 5xx
скрипт, который написала поддержка для этого (его ещё не видел, но посмотрю позже), похоже грузит цпу и память...
кароч, чтобы минимизировать влияние всяких скриптов, мы взяли отдельный сервер для этого.. теперь есть задача дублировать логи nginx-а на него.. какие у вас есть варианты для этого? )
логов в сутки около 160 ГБ...
есть такой, например
https://docs.nginx.com/nginx/admin-guide/monitoring/logging/#syslog
есть вопрос к сислогу... такое потянет, кто знает?
елк не нравится?
elk
Пишешь логи в json-е, забираешь filebeat-ом и делаешь с ними что захочешь Правда если несколько апстримов вернут тебе 502/504 - ты получишь невалидный Json. В остальном все збс
Logstash создай input, читай файлы, обязательно посмотри какой у тебя шаблон логов, используй свой или готовый шаблон grok. Чтобы одна строка лога превратилась в нормальную запись с кучей полей. Затем в Logstash создай два output, один пусть отправляет в ES, второй пусть отправляет в Riemann. В Riemann создай правила, создай среднее, медиану и персентили. Затем этот stream отправляй в graphana. Также создай оповещения, чтобы реагировать на них
Telegraf с pattern + influxdb + grafana, а из influx уже можно делать sql запрос из графаны.
Потянет. Тянет ~60Гб в час.
Обсуждают сегодня