Поисковая оптимизация сайта: Ищем дубли страниц

แชร์
ฝัง
  • เผยแพร่เมื่อ 6 ต.ค. 2024
  • Вебинар "Ищем дубли страниц своего сайта". Июль 2017.
    Спикер: Александр Смирнов, Яндекс.Вебмастер
    Одна из самых распространённых проблем при работе с сайтом с точки зрения поисковой оптимизации - это выявление и удаление дублей страниц и других ненужных документов. Этому и посвящён наш вебинар. На вебинаре мы учимся работать со «Статистикой обхода» и архивами загруженных страниц, которые помогают находить дубли и служебные страницы. Также составляем robots.txt для документов такого типа.
    Для кого: вебинар предназначен для владельцев сайтов и интернет-маркетологов. Однако интересно будет всем, кто хочет научиться быстро выявлять и исправлять поисковые проблемы сайта.
    Презентация: yadi.sk/i/F-bu...
    Ответы на вопросы, заданные во время вебинара, мы публикуем в блоге Яндекса для Вебмастеров: yandex.ru/blog...
    Поделиться видео: • Поисковая оптимизация ...
    Зарегистрироваться на всю серию: academy.yandex....
    Сервис Яндекс.Вебмастер для владельцев сайта: webmaster.yand...

ความคิดเห็น • 9

  • @YandexADV
    @YandexADV  7 ปีที่แล้ว

    Содержание:
    00:36 Опасность дублей на сайте
    07:10 Поиск дублей
    10:26 Устранение дублей
    23:09 Ответы на вопросы участников

  • @Марьяна-ы4д
    @Марьяна-ы4д 7 ปีที่แล้ว +1

    Спасибо, вебинар интересный. Но на счет rel=canonical на страницах пагинации не согласна. Каноникал на пагинации рекомендовано ставить только, если есть страница View all. Представители Гугл давали рекомендации по этому поводу. Если нет страницы View all, то необходимо использовать атрибуты rel="next" и rel="prev" и тег

    • @YandexADV
      @YandexADV  7 ปีที่แล้ว

      Марьяна, мы не учитываем атрибуты next и prev. Можно использовать noindex, но тогда робот совсем ничего не узнает о связи страниц пагинации. Именно поэтому мы даём те рекомендации, которые озвучил Саша.

  • @MrKapitanssb
    @MrKapitanssb 7 ปีที่แล้ว

    Спасибо!

  • @ВикторТрибунский-ъ3д
    @ВикторТрибунский-ъ3д 6 ปีที่แล้ว

    Очень интересно. Спасибо. В апреле 2017 запретил сортировку товаров в категориях в магазине masmaster.ru/index.php Последовав советам, в robots.txt поставил:User-agent: *Disallow: /*sortВ результате получил двукратное падение прихода с поисковых систем. Восем месяцев уже не могу его восстановить. И зачем мне было удалять дубли. Ради такой "благодарности" поисковика?

    • @YandexADV
      @YandexADV  6 ปีที่แล้ว

      Здравствуйте, Виктор! Давайте вместе посмотрим, почему так получилось. Напишите нам, пожалуйста, об этом через yandex.ru/support/webmaster-troubleshooting/rank/go-down.html

    • @ВикторТрибунский-ъ3д
      @ВикторТрибунский-ъ3д 6 ปีที่แล้ว

      Спасибо, Александр. На указанной страничке не нашел поля ввода вопроса.

    • @YandexADV
      @YandexADV  6 ปีที่แล้ว

      Форма обратной связи будет доступна там, если вы авторизуетесь на сервисе, добавите сайт и подтвердите права на управление им в Вебмастере.

    • @ВикторТрибунский-ъ3д
      @ВикторТрибунский-ъ3д 6 ปีที่แล้ว

      Отправил заявку. Получил ответ от Платона. Это копи-паст странички, на которую Вы меня отослали, с перечислением возможных причин проседания сайта в выдаче. То есть конкретного ответа не последовало.
      Спасибо за попытку помочь. Буду сам искать причину.
      Пока вывод такой: не надо удалаять дубли при помощи запрета чего-либо в robots.txt. В дальнейшем может выясниться, что вообще дубли лучше не удалять.
      Буду экспериментировать. Сейчас вернул все дубли в индекс. Наблюдаю.