Если у тебя когда-нибудь падали позиции в поиске без видимых причин, возможно, дело в дубликатах страниц. Это ситуация, когда один и тот же контент доступен сразу по нескольким адресам. Поисковики такое не любят: они не понимают, какую страницу считать главной, и в итоге сайт может потерять часть трафика.
Откуда вообще берутся дубли?
В WordPress это сплошь и рядом. Один пост может открываться и по адресу /post-name/, и через /category/post-name/. Плюс страницы поиска (?s=что-то) или архивы по датам и авторам — всё это копии, которые тянут на себя индексацию.
Если у тебя интернет-магазин, ситуация ещё интереснее: фильтры, сортировки, параметры вида ?color=red&size=xl порождают десятки «левых» страниц, которые выглядят для поисковика как уникальные, но на самом деле дублируют один и тот же товар.
А ещё есть классика жанра: сайт доступен и по http, и по https, и с www, и без. Формально это разные страницы, хотя контент один и тот же.
Чем это грозит?
Главная проблема в том, что дубликаты размывают «силу» сайта. Внутренние и внешние ссылки начинают распределяться между несколькими URL вместо того, чтобы вести на одну «правильную» страницу. В итоге страдает и SEO, и позиции в поиске.
Google и Яндекс могут вообще выкинуть часть дублей из индекса. Но хуже другое: они могут выбрать для показа не тот URL, который нужен тебе. Представь, что вместо красивого /catalog/bmw/ в поиске светится какая-нибудь техническая страница с параметрами — неприятно, правда?
Как с этим бороться?
Первое, что стоит сделать — определиться, какой адрес для каждой страницы будет главным. Для этого используется канонический тег (rel="canonical"), он подсказывает поисковику, где «оригинал». На WordPress такие вещи можно легко настроить с помощью плагинов вроде Yoast SEO или Rank Math.
Дальше — редиректы. Нужно, чтобы сайт открывался только по одному протоколу (лучше https) и в одном формате (с www или без). Остальные варианты должны перенаправлять на основной адрес.
Мусорные страницы — архивы по датам, поиск, иногда и пагинацию — лучше закрывать от индексации. Это можно сделать через мета-теги или robots.txt.
И ещё важный момент для интернет-магазинов: фильтры и сортировки. Если они создают тысячи URL, их тоже нужно либо закрывать от индексации, либо аккуратно управлять ими через каноникал.
Итог
Дубликаты — это не баг, а естественный «побочный эффект» работы WordPress и интернет-магазинов. Но если их вовремя не заметить, они начинают тянуть сайт вниз. Решение простое: выбрать правильные канонические страницы, настроить редиректы, закрыть лишние страницы от индексации и следить за структурой.
Когда дублей становится меньше, сайт начинает быстрее индексироваться, а поисковик понимает, что ему «показывать». В итоге растут и позиции, и трафик.