считаете - адекватное ли решение по оптимизации или костыль и надо переделывать? Есть новый сайт на старом домене, есть старый сайт на поддомене, наглухо закрытый в роботс. Часть страниц со старого на новый еще не перенесена, для них настроены редиректы. Теперь суть - в исходном коде страницы (не который можно увидеть не через ctrl u, а например через Бертал) содержится весь этот список редиректов, на каждой странице. Разраб пишет, что это для оптимизации - информация, которая обрабатывается на сервере передается на клиент, для того чтобы она не обрабатывалась повторно на клиенте. А по мне это дичь, робот ходит по старым нерабочим ссылкам и стучится в закрытые двери поддомена. Что думаете?
Если сам url не редиректит, и сервак просто тянет контент со старого сайта и рендерит его на новом урл, то разраб прав. Если новый урл редиректом отправляет на старый, то не прав.
В коде "нового" сайта получается множество урлов на "старый" поддомен, который закрыт от индексации, но для юзера всё ещё частично нужен
ну, т.е. при клике на новый урл, пользователь телепортируется на старый?
В целом да, но пользователь этих урлов в принципе не видит, их нет в интерфейсе. Но прямые ссылки редиректят на старый, да
в общем попробуйте посмотреть сохраненки в яндексе по этим урлам. Если там отображается нужный контент, то все ок. Сохраненку смотрите текстовую версию.
Обсуждают сегодня