хотелось бы чтобы в логи попадали методы обработка которых занимает больше n указанных например милисекунд. Помню что Сергей Цыпанов как-то рассказывал об этом. Но вот загвоздка в том где брать эту мин. величину от которой я бы отталкивался, ибо у всех ведь разные серваки/нагрузка. Кроме как делать стресс тест, есть ли другие варианты определить это?
не очень понятно, зачем в логи что-то про перфоменс писать. Достаточно мерить метрики и слать их в условный датадог или прометеус
Разве в логах перфоменс issues как варнинги отображать плохая практика?
плохая, это ничего не даст. Метрики можно вывести на дашборде, метрики можно использовать для алертов. И для анализа
В принципе да. Хороший поинт, скорее всего так и сделаю. Спасибо
Да контора не настолько большая чтобы прям десятки гигов было. Но для перспективы все таки метрики надо будет юзать
Если глазами читать десятки гигабайт - конечно, не наглядно будет. А если использовать инструменты для визуализации и поиска - вполне наглядно.
Логи - не замена метрик. Метрики - не замена логов. Эти два инструмента дополняют друг друга.
А какие есть инструменты для визуализации логов?
На мой взгляд - хорошая. Метрики дадут общую картину. Там, где ситуация хуже всего - сможешь найти причину по логам.
ELK stack, Graylog, Loki
Огромнейшее спасибо, надо будет хороший research сделать по инструментам
Посмотри ещё на Elastic APM - крутая штука. Для Java подключается буквально в два клика (java-agent). Поможет оценить, какие куски приложения отъедают наибольшее время при работе.
Обсуждают сегодня