облачных логах? Те, которые "терабайт за пару дней". Имеют ли они право на жизнь, или следует форсировать правило "не храните ничего важного в логах, т.к. они стираются по первому чиху"?
зависит от того - что у тебя в логах есть у тебя "логи, как метрики" - не храни их делай сразу метрики если у тебя "логи, как APM/дебаг" - не храни их - внедри нормальный APM если у тебя "логи, потому что регулятор требует" - храни и береги их.
скорее второе. А что значит "нормальный APM"?
- ну у кого бабло есть - dynatrace берут (есть и другие годные решения) - у кого оплаченный эластик - начинают продавать эластик APM - кому-то и jaeger заходит. Кстати, весьма неплохая штука.
нормальный APM - это application perfomance monitoring когда мы хотим померять - какие операции тормозят.
если говорить про "логи, как инструмент дебага" - ну бывает надо. но и хранить их больше недели - как-то не очень и нужно.
а, нет. Скорее логи для разбора полётов, когда обнаруживаются косяки с различными интеграциями. И которые приходят через две недели после случившегося.
еще раз в ru_logs направлю мой совет: 1. продумай реальную историю - как ты искать будешь. может тебе и грепа хватит. 2. Определись с размером логов 0.5Тб в сутки за 2 недели даст 7 Тб логов. диски должны быть шустры, а терпения должно хватить на время ответа. 3. Подумай - как сократить количество логов - "важное/бизнес" можно в один кластер логов, а "просто логи" и в другой. еще, если ты реально хочешь держать 7 Тб логов - глянь еще в сторону спланка (в РФ не продают)
Лично я не хочу хранить, т.к. некоторые команды господ погромистов туда пишут всё что угодно, полезной информации там меньше процента. Вот и возник вопрос "а туда ли мы копаем". Datadog и CloudWatch предоставят объёмы без проблем, только это тупо и дорого. Ну и малоэффективно — копаться в больших объёмах.
решение очень простое - дать командам ценник. а там PO конкретной команды посмотрит на него и решит - нужны ли ему логи за такую цену.
Обсуждают сегодня