а зачем все это? Ну, в смысле: сначала были классические веб-приложения - сервер отдает свой код, клиент обрабатывает действия пользователя. Потом клиентская часть развилась во что-то иное - фреймворки - и забрала часть работы серверной стороны на себя. От сервера теперь нужно выполнять свою глубокую логику по обработке данных, работать с БД и плеваться json'ами по правильным запросам. И все радовались - фреймворки это круто, это удобно, это быстро. Сейчас мы приходим к тому, что все-таки на стороне сервера нужно рендерить страницу, иначе ее, всю такую замечательную, созданную на новейших технологиях и с применением передовых принципов разработки, просто никто не найдет. Не кажется ли вам, что мы вернулись туда, откуда выходили?
Для поисковых ботов, чтобы получали всю страничку сразу. Или для старых медленных устройств
Фреймворки это круто, удобно и быстро только для разработчика Для конечного юзера это медленнее, тяжелее и вообще может не заработать (не у всех есть топовые новейшие телефоны) А при ssr все загрузится на 143% быстрее и точнее, потому что не надо грузить огромную пачку зависимостей и что-то рендерить
все что сказано выше + комментарий SEOшника: Представь сколько лет поисковики развивают свои алгоритмы. Все краулеры (что у гугла, что у яндекса - их много и они разные, используются для анализа разного контента и сбора разной информации с сайта) заточены под серверный рендеринг. Чтобы оптимизировать обычный сайт, чтобы он нравился поисковикам (чтобы *поисковикам* было удобно и они хорошо, и они часто тебя индексировали) уходит пару лет (конечно это вместе с работой над контентом). У поисковиков максимум пару костылей для AJAX сайтов сделано, так что AJAX сайты явно в проигрыше. Кроме того зачастую на AJAX сайтах куча контента вообще не имеет никаких урлов, как прикажешь это индексировать и самое главное куда потом вести пользователей? Все вышенаписанное это исключительно мое мнение и мои наблюдения, на истину в последней инстанции не претендую, но в вопросе разбираюсь.
Обсуждают сегодня