Clean-param: в robots.txt
Я бы заблокировал в роботс
Очень геморно 1000 страниц перебирать. А кто знает из за чего вообще такие дубли создаются?
Disallow: /*backurl= Disallow: /*back_url= Disallow: /*BACKURL= Disallow: /*BACK_URL= Disallow: /*back_url_admin=
вам достаточно перебрать только get параметры, а не ихз значения
Disallow: /*backurl= Disallow: /*back_url= Disallow: /*BACKURL= у меня так в robots было прописано
а на скриншоте почти все ссылки с /*back_url_admin=
а понял теперь, спасибо!
Обсуждают сегодня