За что Google накладывает фильтры на сайты

Исчезновение сайта из поисковой выдачи Google свидетельствует о наложении системой бана. Чтобы этого избежать, стоит знать, какие действия могут привести к попаданию под санкции, и всячески их избегать. Предлагаем разобраться, что может стать причиной наложения фильтров.

За что Google накладывает фильтры

«Черный» метод продвижения сайта, при котором пользователи и поисковые роботы видят не одну и ту же информацию. Это может быть контент различного качества или же данные совершенно несовпадающие по тематике. Вычисление поисковых пауков происходит по их IP-адресу или User-Agent. Применение этого способа раскрутки ресурса – прямая дорога в бан, тем более что поисковые системы уже научились быстро выявлять нарушителей.

Дублированные сайты

Для увеличения количества просмотров страниц ресурса, некоторые оптимизаторы прибегают к созданию нескольких сайтов, имеющих одинаковое содержание, к чему поисковые системы относятся крайне негативно и оперативно накладывает санкции в случае обнаружения нарушений.

Однако иногда дубли ресурсов создаются случайно через категории, теги либо архив страниц. Во избежание накладывания фильтров таких ситуаций стоит избегать.

Автоматическое создание контента Это быстрый и дешевый способ получения текстов, но при этом они имеют крайне низкое качество и не несут никакой полезной информационной нагрузки для пользователей. Этот контент может быть полностью создан машиной или же скопирован и перенесен с одного ресурса на другой. Воровство статей обязательно станет причиной попадания под санкции Google.

Ключевые слова, не связанные с содержанием контента Использование на страницах сайта фраз, не соответствующих его тематике или названий чужих торговых марок может плачевно закончиться для владельца ресурса. В последнем случае возможно даже судебное разбирательство.

Обмен ссылками с сомнительными сайтами Подобная практика может привлечь нежелательное внимание поисковых систем. Обмениваться ссылками стоит только с проверенными, заслужившими доверие поисковых систем ресурсами.

Размещение невидимого текста Применение этого «черного» метода продвижения подразумевает использование одного и того же цвета при оформлении фона и подборе шрифта статьи. Контент, размещенный подобным образом, переоптимизирован.

Очень мелкий шрифт В этом случае текст, содержащий огромное количество ключевых слов, размещается в нижней части страницы, при этом он набран настолько мелким шрифтом, что пользователь не в состоянии его прочесть. Однако этот контент все равно будет распознаваться поисковыми роботами, и в итоге сайт может быть наказан.

Оптимизация заголовков Написание более одного заголовка в статье, в котором имеются ключевые фразы, также не поощряется Google.

Дорвей Это «черный» метод, при его использовании автоматически создается ресурс под определенную ключевую фразу, который направляет пользователей на раскручиваемую страницу или на рекламное объявление. Подобные сайты обычно содержат неуникальный контент, за что поисковик и накладывает фильтры.

Большое количество URL-адресов на домене Домены, которые содержат ключи и точные совпадения, представляют собой основной индикатор содержания ресурса, в связи с этим часто происходит злоупотребление этим моментом, причем владельцем сайта осуществляется скупка всех адресов – с огромным количеством вхождений ключевых слов, с опечатками, прилагательными и пр. Эти URL-адреса указываются на одном домене с целью значительного увеличения количество кликов. Однако в большинстве случаев в итоге индексируется всего один из всех этих ресурсов, причем необязательно речь идет об основном домене, и достигнуть желаемого результата не удается.

Чрезмерное обращение к Rich Snippets Проанализировав результаты поиска, несложно заметить, что расширенное описание страницы создается поисковой системой в автоматическом режиме. Однако при обнаружении каких-либо обманных действий, например, размещения невидимого контента или написание заказных отзывов, Google заблокирует Rich Snippets.

Отправка автоматических запросов к Google WebPosition Gold представляет собой программный инструмент, тестировавший в автоматическом режиме популярность ключей, пользуясь при этом SOAP API от Гугл. Люди, только начинающие заниматься SEO, вряд ли знакомы с данным ресурсом, ведь в 2006 году поисковая система изменила несколько принципов руководства, отказавшись от WPG:
«На момент 5.12.2006г новые ключи API для поиска SOAP API предоставляться перестанут. Имеющиеся все так же действительны».

Google очень негативно относится к запросам автоматического типа, потому что: «При отправлении автоматических запросов затрачивается большое количество ресурсов и при этом используется любое ПО (к примеру, WebPosition Gold) для определения, как сайт либо страницы в интернет-поисковике ранжируются в результатах различных запросов. В дополнение к оценке ранжирования прочие разновидности автоматического доступа к Гугл без наличия разрешения тоже противоречат нашим принципам и условиям оказания услуг».

Несоблюдение данных правил повлечет за собой наложение фильтра.

Неуникальный контент Если на страницах ресурса не будет размещаться оригинальный контент, а в худшем случае периодически станут появляться материалы, скопированные с других сайтов, и сам он превратиться в склад продукции, предлагаемой другими проектами, Google не пройдем мимо. Чтобы не попасть в бан сайт должен содержать полезную для пользователей информацию, а на его страницах стоит размещать только уникальные, качественные тексты.

Скрейпинг контента Быстрый, но незаконный способ повысить свой рейтинг. Это технология, позволяющая собрать с посторонних ресурсов всю необходимую информацию, которую недобросовестные оптимизаторы в дальнейшем используют для продвижения своего сайта.

Скрытая переадресация Отправление пользователя с одного ресурса на другой может происходить законным путем. Наиболее часто используемая переадресация 301, при которой посетитель сайта направляется на страницу другого проекта. Однако если замечена попытка обмануть пользователя и завлечь его на свою страницу с помощью технологий meta refresh или JavaScript, Google обязательно отреагирует на нарушение и применит по отношению к ресурсу определенные санкции.

Сцепка

Метод «серой» оптимизации, при котором применяются схемы, создающиеся на превосходстве внешних ссылок в поисковике ранжирования для разработки большого количества ресурсов и дальнейшего их связывания друг с другом. Вычисление подобной схемы затруднительно как для Google-ботов, так и для простых пользователей. Обнаружить её удается только при проведении тщательного расследования либо при определении доминирования в выдаче поисковой системы нескольких однотипных сайтов. Разоблачение подобной комбинации повлечет за собой де-индексацию всех ресурсов.

Использование хотя бы одного «черного» метода может стать причиной наложения фильтров, выйти из-под которых крайне сложно, а иногда и вовсе не представляется возможным, так что лучше отказаться от этой идеи сразу, не успев навредить своему ресурсу.

Снятие фильтров Google

Наиболее распространенные санкции, используемые поисковиками:

  • ручной фильтр за искусственно созданные входящие линки;
  • автоматический фильтр за обратные ссылки.

Оба эти ограничения касаются работы алгоритма Google Penguin. При применении к ресурсу подобных санкций происходит потеря рейтинга и незамедлительное снижение посещаемости.


Ручной фильтр Гугл за искусственные входящие ссылки


Первое, что происходит – в панели Вебмастеров Google появляется уведомление, содержащие информацию об обнаружении искусственных линков, ведущих на рассматриваемый ресурс. Далее в течение двух-трех недель замечается падание позиций сайта, сопровождаемое сильным снижением его посещаемости.

Основным сигналом к получению уведомления такого рода является анкор ссылки и его переспам. Использование обратных линков с коммерческими либо прочими ключевыми фразами приводит к ручному фильтру, уменьшению рейтинга и посещаемости. Молодым ресурсам и сайтам, успевшим занять высокие позиции и заслужить доверие интернет-поисковика, стоит отказаться от покупки большого количества ссылочной массы, так как рано или поздно это приведет к внедрению санкций по отношению к проекту.

Как снять ручной фильтр Google:

1. Убедиться в наличии сообщения в Google Webmaster Tools.
2. Отправить запрос на пересмотр, выяснив какие конкретно линки вызвали сомнения поисковика и поинтересовавшись порядком требуемых действий для снятия ограничений с ресурса.
3. Получить ответ и при возможности снять указанные в нем ссылки.
4. Изучить перечень предложенных действий и выполнить их. Если на ресурс стоит слишком большое количество арендованных ссылок, многие из которых представляют собой прямые анкоры, содержащие ключи, нужно почистить ссылки с анкорами и отправить повторный запрос о пересмотре. Когда на сайте размещены исключительно вечные ссылки, снятие которых не представляется возможным, а большая их часть содержит прямые анкоры, следует:

  • заняться просмотром всех обратных ссылок, при желании используя сервисы Ahrefs, MajesticSeo, LinkPad;
  • создать перечень нежелательных ссылок;
  • внести их в Disawov Tool;
  • подождать одну или две недели.

5. Отправить еще один запрос на пересмотр, описав в нем совершенные действия и поинтересовавшись, что еще требуется для снятия фильтра. Ожидание ответа займет от нескольких суток до месяца.
6. Получить сообщения с промежуточным ответом, в котором будет идти речь о том, что заявка принята к рассмотрению.
7. В случае получения негативного ответа, стоит:

  • пересмотреть ссылки еще раз;
    добавить нежелательные из них в Google Disawov либо снять;
  • отправить еще один запрос.
  • При получении положительного ответа ручной фильтр будет снят, и сайт займет свои прежние позиции.

Автоматический фильтр Google за обратные ссылки

Оповещение о наложении этой санкции не приходит, что усложняет работу с ней. Снятие автоматического фильтра возможно только после официального обновления алгоритма Google Penguin, происходящего раз в два-четыре месяца. Симптоматика автоматического фильтра ничем не отличается от ручного: проседание позиций сайта, снижение посещаемости. Его причинами могут стать прямое вхождение анкора либо обратные ссылки плохого качества.

Как снять автоматический фильтр Google:

  1. Изучить ссылочный профиль, выявляя качественные и спамные сайты, а также ресурсы с прямым анкором линка. Оценивая качество сайта, необходимо обращать внимание на его тематическое направление, посещаемость, уникальность контента, индексацию, обновление ресурса, наличие обратных ссылок и динамику их роста.
  2. Заменить анкоры ссылок, воспользовавшись помощью вебмастера или укрепив ссылочный профиль путем добавления новых безанкорных.
  3. Для улучшения динамики стоит безостановочно заниматься добыванием обратных ссылок на ресурс, однако, не забывая хорошо разбавлять анкорный лист.
  4. Чтобы выдерживать качество ссылочных доноров, стоит обращаться к различным источникам линков: контекстным, в статьях, с форумов, из соцсетей, из блогов, СМИ ресурсов и пр. Разнообразие ссылочного профиля положительно влияет на скорость избавления от автоматического фильтра.
  5. Нельзя прекращать работу над ресурсом: следует разбавлять лист анкоров, продвигать ресурс по НЧ запросам и т.д.

Важно понимать, что быстро избавиться от автоматического фильтра невозможно, но если продолжать развивать ресурс, он обязательно вернется на хорошие позиции в поисковой выдаче, что повлечет за собой стремительный рост трафика.

Во избежание попадания под санкции следует:

  • не прибегать к применению прямого анкорного листа или делать это крайне незаметно;
  • работать только с качественными ссылками;
  • с целью получения естественных линков акцентировать внимание на продукции и ее качестве;
  • соблюдать динамику.

Рассмотренные фильтры имеют отношение к запуску алгоритма Google Penguin. Однако потеря рейтинга может быть связана не ссылками, а к примеру, с качеством контента. В такой ситуации речь идет об алгоритме Google Панда, и выход из-под санкций будет связан с выполнением другого ряда действий.

0
Читайте также:
 
Напишите ваш комментарий
или разместить анонимно
Loading comment... The comment will be refreshed after 00:00.