Nofollow и Noindex. Как закрыть ссылки от индексации

Сейчас большой проблемой для многих оптимизаторов стало применение nofollow», ну и соответственнотега noindex. Они необходимы для закрытияиндексацииссылок, оптимизации отдельных частей сайта.

Если раньше в Google спокойно использовался атрибут rel = «nofollow», а Яндекс положительно относился к тегу noindex, то сейчас Яндекс и Гугл изменили подход к оценке данных элементов.Теги стали учитываться, вес перестал перераспределяться, теперь вопрос, как закрыть ссылки от индексации вновь встал в ТОП горячо обсуждаемых новостей.

Для чего нужен атрибут rel = « nofollow» и как его использовать

Элемент nofollow не является тегом, как его принято называть, это - атрибут. С помощью nofollow можно закрытьссылки на нежелательные источники, увеличивать общий статический вес для собственных ресурсов.

При этом первоначально тегом nofollow можно былозакрыть все ссылки на странице, как был введен атрибут rel = « nofollow» - стало возможным использовать его в каждом конкретном случае, что значительно облегчило жизнь веб-мастерам.

Рассмотрим на примере перераспределение веса между страницами

Предположим, раздел сайта имеет 5 ссылок – 4 внутренних и 1 внешняя.

Общий вес страницы будет разделен на 5 частей, каждая из которых уйдет на ссылочный ресурс. Если мы применим атрибут « nofollow» к внешней ссылке, то она уже не будет учитываться поисковой системой, значит и получать дополнительный вес. Поэтому теперь каждая ссылка получает не пятую, а четвертую часть от общего веса страницы.

Таким образом, можно было контролировать продвижение отдельных частей сайта и способствовать быстрому росту.

Сейчас Google несколько изменил подход к учету атрибута « nofollow». Теперь по закрываемой ссылке статический вес странице не передается, но при этом доля веса на другие гиперссылки не перераспределяется. Получается, что вес страницы расходуется впустую.

Что можно закрыть с помощьюnofollow»:

  • сомнительную информацию. Если есть сомнения в содержании данных, на которые ведут ссылки, то лучше всего их закрыть. Это же касается и комментариев, например, в блогах – когда пользователи часто оставляют огромное количество спама. Проверить каждый ресурс физически невозможно. Поэтому лучше сразу обезопасить себя и свой сайт;

  • платные ссылки. При их наличии на ресурсе, закрытие сможет защитить вас от гонений со стороны поисковых алгоритмов. В такой ситуации могут возникнуть разногласия с рекламодателем – но это уже вопрос того, что у вас в приоритете;

  • приоритезация сканирования. Если закрыть переход в личный кабинет или на форму регистрации, например, это упростит работу робота системы;

  • большое количество внешних ссылок.

Большим изменением, связанным с использованиемnofollow» стало то, что теперь и Яндекс начал его учитывать. Но по сравнению с Google, алгоритм работы Яндекс пока что еще не ясен – замечено, что он видит не все мета-теги nofollow.

Тег noindex – сфера применения и особенности расположения

Тег noindex появился как следствие nofollowв те времена, когда Яндекс его еще не воспринимал. Поэтому, чтобы закрытьссылку конкретно в Яндексе был создан этот тег. Впоследствии этот тег принял еще и Рамблер. Google его не учитывает.

Его основная цель – запрет на индексацию части текста или отдельного элемента (анкор), а вот ссылка и вес, который она передает, будет системами учитываться. Таким образом, можно спрятать часть контента от поисковых систем, оставляя его доступным для пользователя. Кроме того тегом noindex следует прятать служебные данные и дублированный контент.

Причины использовать тег noindex:

  • управление контентом для разных поисковиков ( Google и Яндекс);

  • контроль частотности ключевых слов и фраз. Отдельные страницы содержат большое количество аналогичных слов и фраз, которые необходимы в конкретной ситуации. Но это негативно сказывается на поисковой выдаче. Закрывая тегом noindex часть текста, мы можем снизить общую плотность ключевых фраз и повысить качество сайта для роботов Яндекса;

  • запрет на индексацию дословных цитат и выдержек, выписок из официальных источников (законы и пр.). Данный контент может быть полезен пользователю, но для сайта несет отрицательный эффект, поэтому использование тега в этом случае принесет большую пользу.

Часто начинающие оптимизаторы используют конструкцию rel = «noindex», хотя это большая ошибка, поскольку это тег, а не атрибут. Он может быть расположен в любой части html-кода и закрыть все, что находится внутри.

Установление тега на сайт может привести к возникновению ошибок в коде. Связано это с тем, что данный элемент воспринимается не всеми системами (не валидный). Поэтому, чтобы избежать недоразумений, стоит писать тег в определенном формате:

<!--noindex--> текст, который надо закрыть <!--/noindex-->

При написании тега стоит помнить, что использовать его можно только в парном расположении. Кроме того, слишком частое использование тега на одной странице может также привести к проблемам с Яндексом – он вычеркнет ресурс из списка ранжируемых.

Иногда возникают ситуации, когда запрет на индексацию необходим для конкретного бота. Тогда следует указать его идентификатор в мета-теге. Если этого не реализовать, то система воспримет показатель index.

Как закрывать внешние ссылки от индексации?

Тегnoindex и атрибут nofollowперестали работать, но проблема закрытияссылок осталась. Ниже представлены наиболее распространенные способы закрытия ссылок, при которых вес будет перераспределяться.







JavaScript

Суть метода состоит в том, что сначала присутствует только текст, а сама ссылка добавляется или открывается с помощью скрипта.

Таким образом, Яндекс и Гугл смогут проиндексировать контент, но не увидят ссылку. Этот метод пока еще работает, но учитывая быстрое развитие технологий, скорее всего в ближайшее время роботы научатся обходить и эту хитрость.

Чтобы не попасть впросак, периодически проводите аудит на наличие разных ссылок.









Robots. txt

Здесь необходимо прописать элементы

User-agent: *

Disallow: /

Это поможет закрыть ресурс от всех поисковиков.

Чтобы закрыть данные от определенной системы (Яндекс) – можно прописать следующую конструкцию

User-agent: Yandex,

Disallow: /

Если нам необходимо предоставить доступ только одному агенту (Яндекс), то стоит указывать

User-agent: *

Disallow: /

User-agent: Yandex

Allow: /

Но такой вариант не может полностью гарантировать безопасность от индексации. Хотя попадание в ресурсы заблокированными поисковиками – это отступление от правила.

Мета-тег Robots

Если к коду каждой страницы сайта добавить тег meta name= « robots» content = « noindex, nofollow» – то получится защитить ресурс от индексации.

Его необходимо располагать в части head HTML-кода.



Файл . htaccess

Использование . htaccess поможет закрыть ресурс и разрешит доступ только после введения пароля.

Это полноценная и гарантированная защита от индексации, но здесь же может возникнуть проблема со сканированием сайта на предмет ошибок.



User Agent

Существует еще один метод закрытия доступа ботов к сайту с помощью блокировки User Agent, которые кажутся особо подозрительными.

Метод этот грубый и должен использоваться крайне редко.


Это основные методы, которые можно применять для защиты данных от поисковиков. Но выбор методики должен производиться на основании целей и объемов работы. Например, чтобы спрятать отдельную страницу, достаточно применять Robots. txt и Мета robots noindex. В первом варианте необходимо будет указать User-agent: ag, Disallow: страница. Но если такому закрытию необходимо подвергнуть большое количество страниц, то этот подход станет слишком сложным, поскольку вручную придется прописать все страницы. Рекомендуется прописать meta name = « robots » content = « noindex , nofollow » в Head HTML.

Очень часто необходимо прятать не все страницы, а лишь некоторую часть. Чтобы закрыть только раздел, можно взять принципы Robots. txt или Meta Robots.

Чтобы спрятать доступ к отдельной части, необходимо указать

Disallow: /Раздел/*

или

User-agent: *

Disallow: /*.js – для отдельных расширений

Чтобы наверняка быть уверенным в защите данных можно добавить meta name = « robots» content= « noindex» на каждой странице.

Методом, который на 100% даст закрытие внешних ссылок, считается сочетание внешнего скрипта . js с robots. txt. Суть метода состоит в том, чтобы переместить скрипт замены на внешний файл, далее запретить индексацию в robots. txt, а в самом контенте использовать функцию скрипта, которая будет создавать нужную ссылку. Такой подход дает гарантированный результат для Яндекс и Гугл, но при этом намного сложнее остальных и занимает больше времени.

Заключение

Закрытие контента – ситуация, которая относится к разряду текущих задач. Распределение весов, контроль распределения ключевых фраз и запросов и прочие задачи требуют наличия эффективных инструментов от повального воздействия поисковых механизмов.

Закрыть ссылки от индексации с применением nofollow и noindex стало теперь невозможным. Точнее,Яндекс, Гугл и прочие не станут их учитывать, но вес также не начнет перераспределяться и станет уходить впустую.

Развитие технологий и подходов приводит к тому, что действовавшие ранее методы закрытия ссылок быстро устаревают. Мы описали наиболее эффективные методики закрытия текста и ссылок на сайте. Какой из них выбрать и как применять – каждый решает сам в зависимости от особенностей ресурса и целей, которые необходимо достичь.

0
Читайте также:
 
Напишите ваш комментарий
или разместить анонимно
Loading comment... The comment will be refreshed after 00:00.