cotonti.com : Вопрос по урлам https://www.cotonti.com Останні повідомлення в темі Cotonti en Wed, 25 Feb 2026 05:38:56 -0000 Wadik При таком варианте робот не найдет ссылок на страницы с контентом, которые обычно находятся на  /cat?d=*

А указание rel=canonical для списков подстраниц просто передаст вес на первую страницу списков. На мой взгляд удаление параметра d из canonical_uri логичнее. 

Хотел бы ограничить это обсуждение к сведению его к 1 вопросу (т.к. в остальных случаях аналогично). Какой смысл включать в page.list.php в параметр $out['canonical_uri']  таких переменных, как : $d,$dc ?

Чтобы понятнее была мысль, приведу простейший пример. Есть категория "Плагины", в ней 5 страниц. Разве смысл категории "плагины" поменяется, если я применю эти параметры? Нет. Это все так же будет категория плагины. 

Другое дело - параметры $o,$p. Они, согласен, нужны. Ведь могут быть "плагины для siena", "плагины для ..." ...

]]>
Сб, 28 Гру 2013 17:09:21 -0000
Yusupov #38829 Wadik:

Правильнее сделать  rel=canonical просто cat, для страниц cat?d=n

Так вроде так и сделано, canonical правильный для пагинации. Вы же говорите, что эти страницы не нужны для индексации.

Добавьте в robots запрет на индексацию страниц c параметром d и все. При этом первая страница cat будет индексироваться.

Disallow: /cat?d=*

]]>
Сб, 28 Гру 2013 16:47:37 -0000
Wadik Правильнее сделать  rel=canonical просто cat, для страниц cat?d=n

]]>
Сб, 28 Гру 2013 15:39:53 -0000
Yusupov В Яндекс.вебмастере можно проверить как будет вести себя робот. Можно использовать регулярные выражения и запретить индексирование только заданных страниц в зависимости от заданных параметров. Это вы и без меня знаете.

]]>
Сб, 28 Гру 2013 15:27:28 -0000
Wadik В таком случае робот не проиндексирует ссылки на страницы, которые находятся на этих страницах.

]]>
Сб, 28 Гру 2013 15:20:22 -0000
Yusupov Тогда их надо закрыть от индексирования через robots.

]]>
Сб, 28 Гру 2013 15:10:21 -0000
Wadik Обычно это хламные страницы с контентом (в основном ссылками на страницы), который не несет никакой логической нагрузки. И если смотреть со стороны СЕО, то я бы хотел, чтобы прокачивалась одна страница cat , а не чтобы вес расползался на n страниц cat?d=n

]]>
Сб, 28 Гру 2013 15:08:02 -0000
Yusupov #38823 Wadik:

Только вот минус в постраничной разбивке. Ее упустили.

К примеру 4 страница - урл cat?d=4

у него rel=canonical должен быть просто cat, а не cat?d=4

Так если d разное, то и содержимое страницы разное, следовательно и ссылка на страницу должна быть своя.

]]>
Сб, 28 Гру 2013 14:52:03 -0000
Wadik Только вот минус в постраничной разбивке. Ее упустили.

К примеру 4 страница - урл cat?d=4

у него rel=canonical должен быть просто cat, а не cat?d=4

]]>
Сб, 28 Гру 2013 13:41:58 -0000
Yusupov Для поисковиков достаточно базового canonical в котором указывается основной url на страницу.

]]>
Сб, 28 Гру 2013 12:15:00 -0000
Kort Проблема дублирования страниц была актуальна только во времена Генуи. Под Сиеной все хорошо и без редиректов. У меня после перевода www.sed.by в течение месяца-двух, например, "некрасивые" ссылки были заменены поисковиками на правильные без моего участия.

r301 я лично использую для корректировки посадочных страниц или при переводе сайта на Сиену с изменением структуры.

]]>
Сб, 28 Гру 2013 09:41:02 -0000
Dayver В своих проектах делаю минимплуг с 301 редиректом. Видел кстати, кажысь, подобный плагин от доктора .... надо бы поискать.

]]>
Сб, 28 Гру 2013 08:47:39 -0000
Wadik А как rel=canonical везде проставить?

Добавлено 59 минуты спустя:

Ошибся, оно итак везде проставлено.

]]>
Сб, 28 Гру 2013 06:00:28 -0000
Kort Такого безобразия по техническим причинам избежать нельзя. Кстати, в некоторых случаях оно здорово помогает при поиске страниц вручную.

А для различения дублей, вернее для указания наиболее релевантной страницы из числа идентичных, используется элемент link с атрибутом rel=canonical
 

]]>
Пт, 27 Гру 2013 20:40:48 -0000
Wadik Вопрос относится к Большой проблеме - дублированию контента страниц.

Все дело в построении урл. К примеру одна и та же статья может быть открыта:

1) По id

2) По алиасу

Далее, если использовать плагин urleditor и к примеру пресет handy, то к урлу добавляются еще вложенность категорий. 

И получается, что одна и та же статья доступна по адресам:

/uslugi/about/contacts

/uslugi/about/50

index.php?e=page&id=50

Как запретить это безобразие? Не хочется дублей контента. Хочется только один действующий вариант. Остальные должны быть недоступными. 

 

 

]]>
Пт, 27 Гру 2013 18:10:11 -0000