google pagespeed, scraping, 500, 404
В общем есть сайтец на Nuxt3 (+Laravel API) ранее крутился на Vercel и проблем с ним не было. Google page speed 85-90 баллов.
Сейчас появилась задача развернуть всю инфраструктуру на docker. В итоге вышло около 10 контейнеров, который расположены на слабенькой VPS (2 core CPU, 2Gb), но кажется проблема не в этом.
После переезда на docker появилось 2 проблеммы:
1) PageSpeed начал показывать 35 баллов, почему-то вдруг нарисовались около 10 сек First Contentful Paint и соответсвенно все остальные показатели подскочили. То есть как буд-то бы node.js сервер который крутится в контейнере через nginx reverse proxy стал работать гораздо медленнее чем на Vercel.
2) Когда seo-шники парсят сайт в 5 потоков (стандартная настройка) сайт отдает очень много (доходит до 100) страниц со статусом 500, 404, хотя сами страницы вне процесса скрапинга отдают 200 ОК. То есть я делаю вывод, что парсер переспамливает сервер и просто все ложится спать )
Проверил нагрузку на контейнеры, так вот все контейнеры в норме, но контейнер с nuxt.js (node.js Nitro server) в момент скрапинга CPU usage (cores) и CPU utilization (%) выдается какие-то показатели которые исчисляются миллиярдами единиц и процентов. По идее для двухядерного процессора первый покатетель не должен превышать 2.00, а второй 200%.
У кого-то есть идеи? Сеошники говорят, что они всегда так парсят и это первый сайт у них такой дебильный.
(P.S. кажется с nuxt 2 ранее такого не было)
@talla2xlc ты вот этот мой вопрос не видел?
Нет, не видел. Попробуй найти причину методом исключения. для начала docker исключить
Обсуждают сегодня