Читайте также: в нашей предыдущей статье мы подробно разбирали директиву clean-param в файле robots.txt — мощный инструмент для указания поисковым системам, какие параметры нужно игнорировать при сканировании.
GET-параметры — это пары "ключ-значение", добавляемые в URL после знака вопроса `?` и разделенные амперсандом `&`. Они передают серверу дополнительные данные для обработки запроса. Проблема для SEO возникает, когда один и тот же контент становится доступен по разным URL из-за этих параметров, создавая дублирующийся контент. Поисковые системы (ПС) вынуждены выбирать, какая версия URL является канонической, что рассеивает вес ссылок и ухудшает ранжирование.
GET-параметры — это часть URL-адреса, следующая после символа `?`. Они используются для передачи данных на сервер методом HTTP GET. Их структура проста:
https://example.com/catalog/products?category=shoes&size=42&color=black
Законные и полезные цели GET-параметров:
Проблема начинается тогда, когда страница с параметрами и без них (или с разными их наборами) выдает один и тот же или очень похожий контент.
Представьте, у вас есть страница каталога: example.com/catalog/shoes
.
Затем пользователь применяет фильтр по размеру, и URL меняется на: example.com/catalog/shoes?size=42
.
Если при этом основное содержимое страницы (заголовок H1, список товаров, текст) остается практически идентичным, а меняется лишь небольшая часть (например, убрались товары не 42-го размера), для поискового робота это две разные страницы с очень похожим контентом.
Чем это опасно для SEO:
Google стал умнее, но не всесилен. Он использует несколько стратегий:
Но надеяться на "автоопределение" — большая ошибка. Вы должны явно указать ПС, как обращаться с параметрами.
Вот методология, которую я использую на проектах.
Соберите все возможные URL с параметрами.
Разделите все найденные параметры на три категории:
Решение №1: Тег `rel="canonical"` (самый главный инструмент)
На странице-дубле (`example.com/catalog/shoes?size=42`) в секции `
` разместите ссылку на основную (каноническую) версию.<link rel="canonical" href="https://example.com/catalog/shoes" />
Это сообщает ПС: "Эта страница — вариант вот этой основной. Учитывайте все ссылки и ранжируйте именно основную версию".
Решение №2: директива `noindex`
Для страниц, которые точно не должны попадать в индекс (например, результаты внутреннего поиска, корзина), используйте meta-тег роботов.
<meta name="robots" content="noindex" />
Важно: нельзя использовать `noindex` вместе с `canonical` на одной странице. `Canonical` — это мягкая рекомендация, `noindex` — жесткая команда. Команда `noindex` имеет приоритет, но такая комбинация противоречива и не рекомендуется.
Решение №3: файл `robots.txt`
Используйте для полного запрета сканирования URL с определенными параметрами. Это защищает от расхода сканирующего бюджета.
User-agent: * Disallow: /*?sort= Disallow: /*?utm_ Disallow: /*?sessionid= Disallow: /*?*&sessionid= # на случай, если параметр не первый
Внимание! запрет в `robots.txt` не позволяет роботу сканировать URL, но он может проиндексировать его, если найдет ссылку из другого места. Поэтому для полной гарантии комбинируйте с `noindex` (но для `noindex` робот должен иметь доступ к странице, чтобы увидеть тег). Идеальный вариант для "опасных" параметров — закрыть их от сканирования в `robots.txt` И прописать `canonical` на основных страницах.
Решение №4: перенаправление 301
В некоторых случаях есть смысл сделать 301-редирект со страницы с параметром на страницу без. Например, если старый URL с параметром был проиндексирован и на него есть ссылки, но по своей сути он дублирует главную. Это на 100% объединяет ссылочный вес.
Решение №5: управление через Google Search Console (устаревший, но может работать)
В старом интерфейсе GSC был раздел "Параметры URL", где можно было указать Google, как обрабатывать разные типы параметров. Сейчас этот функционал не рекомендуется к использованию, так как Google заявляет, что хорошо справляется с автоопределением. Полагайтесь на код, а не на настройки в GSC.
Убедитесь, что в самой структуре сайта (меню, хлебные крошки, блоки "Похожие товары") вы ссылаетесь только на канонические URL без лишних параметров. Не заставляйте робота ползти по ссылке `site.com/catalog/?from=menu`.
Профилактика:
Регулярный аудит (раз в 3-6 месяцев):
Проблема дублей из-за GET-параметров — это не катастрофа, а рутинная техническая работа. Ключ к успеху — в системном подходе: выявить, классифицировать, применить корректное техническое решение и контролировать.
Помните: ваша цель — не просто убрать дубли из индекса, а направить весь вес и все сигналы на одну, сильную, каноническую версию каждой страницы. Это очищает сканирующий бюджет, укрепляет SEO-профиль и дает вам четкую картину для дальнейшей работы над продвижением.
Удачи в работе! Если остались вопросы — вы знаете, где меня найти.
site:yourdomain.com ?utm_
site.com/catalog/shoes/nike/
лучше, чем site.com/catalog?category=shoes&brand=nike
. ЧПУ улучшают кликабельность в выдаче и упрощают навигацию.
?page=2
, ?page=3
) устанавливайте canonical
на каждую страницу отдельно и добавляйте rel="prev"
/"next"
для указания связи между страницами.
это помогает роботам понять структуру без потери сканирующего бюджета.
Профессиональная SEO-оптимизация включает не только работу с контентом, но и техническую корректность сайта.
устранение дублей — один из самых эффективных способов улучшить видимость без создания нового контента.
Этот список содержит GET-параметры, которые следует исключить из индексации поисковыми системами, чтобы предотвратить создание дублей страниц и улучшить SEO-показатели сайта.
Параметры, используемые системами аналитики и отслеживания поведения пользователей.
Параметры, связанные с сессиями пользователей и временными идентификаторами.
Параметры, используемые для фильтрации, сортировки и поиска контента.
Параметры, связанные с технической реализацией и функциональностью сайта.
Параметры, связанные с рекламными кампаниями и отслеживанием эффективности.
Параметры, используемые для внутренней функциональности сайта.
Для блокировки сканирования URL с указанными параметрами добавьте следующие директивы в файл robots.txt:
User-agent: * Disallow: /*?utm_* Disallow: /*?gclid=* Disallow: /*?yclid=* Disallow: /*?fbclid=* Disallow: /*?PHPSESSID=* Disallow: /*?sid=* Disallow: /*?sessionid=* Disallow: /*?ref=* Disallow: /*?sort=* Disallow: /*?order=* Disallow: /*?filter=* Disallow: /*?characteristics=* # Добавьте другие параметры по аналогии
Для более точного контроля используйте тег canonical на страницах или мета-тег noindex для полного исключения из индексации.
Социальные сети и рефералы
Параметры, связанные с социальными сетями и реферальными ссылками.