Войти

Регистрация




11 наиболее частых ошибок внутренней оптимизации

1

Иногда все старания по внешнему продвижению сайта оказываются неэффективными. Причина часто кроется в том, что допущены грубые ошибки внутренней оптимизации.

Прежде чем начинать закупать ссылки, стоит поработать над качеством сайта и устранить все не очевидные нюансы, которые мешают достижению ТОПа. Например, на страницах может быть несколько заголовков H1 или он вовсе отсутствует, сайт пессимизируется из-за дублей, важные страницы закрыты от индексации и так далее. Такие мелочи становятся камнем преткновения для оптимизатора.

Далее мы разберем наиболее частые ошибки внутренней оптимизации в коде сайта и в контенте, которые крайне важно устранить.

Низкий статический вес важных страниц

Отсутствие или малое количество ссылок, которые ведут на продвигаемую страницу – одна из частых причин, по которым сайт не выходит в ТОП. Внутренняя перелинковка уменьшает бюджет на закупку ссылок. НЧ-запросы с её помощью можно выводить на высокие позиции даже без помощи бэклинков.

Чтобы повысить вес самых важных для продвижения страниц, необходимо поставить на них ссылки с других внутренних страниц сайта. Хорошо, если они будут сквозными (в футере, сайдбаре, меню и пр.). Однако не стоит ограничиваться только ими. Ссылки должны быть органично вписаны в контент и релевантны ему. По ним люди охотно переходят, и поведенческие факторы улучшаются. Также необходимо следить, чтобы входящих ссылок на важный контент было больше, чем исходящих.

Анкоры перелинковки также важно использовать с умом, без переспама. Это означает, что они должны быть разнообразными: содержать разбавленные вхождения, словоформы ключевиков, слова «тут», «здесь», «в этой статье» и прочее. Переспам во внутренней перелинковке – это использование одних и тех же анкоров в попытке оптимизировать целевую страницу под конкретный запрос. Он оборачивается для сайта снижением позиций.

Отсутствие СЕО оптимизации или переоптимизация ключевиками

Возможны 2 варианта ошибок: слишком мало или слишком много ключевых слов. В первом случае ключевик используется недостаточно часто, чтобы поисковик посчитал его релевантным странице. Во втором случае имеет место заспамленность текста словами запроса, когда они вписаны в текст неестественно.

Как правило, под 1 страницу затачивается 1 ключевое слово, и к нему подбираются дополнительные (уточняющие и синонимичные) слова, которые могут использоваться в подзаголовках и в теле статьи. Ключевик должен входить:

  • В тег Title;
  • в тег h1;
  • в мета-тег description;
  • в тело статьи.

Более подробно о том, как затачивать страницы со статьями под запросы, написано здесь.

Неверное составление Robots.txt

Файл Robots.txt отвечает за индексацию страниц, и его некачественное, неграмотное составление может приводить к тому, что значительная часть страниц скроется от поисковых систем. В таком случае продвигать их бессмысленно. Если есть проблемы с индексацией, проверьте, разрешает ли Robots.txt страницам участвовать в результатах поиска. Для этого используйте этот инструмент от Яндекса. В поле «Разрешены ли URL» введите адреса страниц, которые нужно проверить.

11 наиболее частых ошибок внутренней оптимизации

Обратите внимание, что данный инструмент от Яндекса не учитывает мета-тег, запрещающий индексацию. Он выглядит в коде таким образом:

<meta name="robots" content="noindex,follow" />

Это способ скрытия страницы от индексации без использования Robots.txt. Если такой код есть на страницах, которые должны быть в индексе, то его необходимо убрать.

Проблемы могут быть и в самом Robots.txt. Например, если для важных страниц, которые должны участвовать в поиске, прописана директива Disallow, то они в выдаче не появятся. Необходимо понимать синтаксис данного файла, чтобы правильно трактовать прописанные там запреты и разрешения. Даже ошибка всего в 1 символе может значительно уменьшить количество проиндексированных страниц.

Игнорирование мета-тегов на страницах, которые не продвигаются

Страницы, которые вы не планируете продвигать (например, «контакты», «о сайте» и прочее), стоит оптимизировать в любом случае. Отсутствующие мета-теги плохо сказываются на авторитетности сайта в целом. Хотя, когда речь идет о смене посадочной страницы в выдаче (т. е. поисковик считает релевантной конкретному запросу не ту страницу, которую вы продвигаете), иногда рекомендуют убирать из её Title и Description «неправильные» ключевые слова, чтобы она по ним не ранжировалась.

Допустим, есть целевая страница «А», у которой прописан ключевик в мета-тегах. Есть другая, похожая на нее страница «B», контент которой является рерайтом страницы «А». «В» содержит ключевик, который очень похож или совпадает с тем, под который заточена «А». Следовательно, нет смысловой уникальности, запрос один и тот же (или похожий), поэтому поисковик может решить, что показывать нужно только 1 из двух страниц. Происходит каннибализация, и поисковый робот нередко выбирает в качестве более релевантной страницу «B». Чтобы этого не происходило, то с Тайтла и Дескрипшна у «В» необходимо убрать ключевые слова, по которым продвигается «А». В идеале – добавить смысловой уникальности текста для «B» и выбрать другой ключевик для продвижения страницы. Возможен и вариант склейки «А» и «В» через 301-й редирект.

Если вообще не оптимизировать страницу с контентом под запросы, то вы потеряете трафик. Речь не идёт о каких-то служебных, закрытых от индексации страницах (с пагинацией, например). Если они должны участвовать в выдаче, подберите для них релевантные запросы и включите в Title и Description.

Яндекс, например, «ругается», когда эти мета-теги не заполнены. Зайдите в Инструменты для веб-мастеров и проверьте, нет ли ошибок, касающихся Title и Description.

Дубли страниц

Очень частая и грубая ошибка – это возникновение дублей (копий) страниц. То есть, одинаковый контент доступен по разным URL-адресам. Чаще всего вебмастер даже не подозревает о них, однако поисковый робот их все равно обходит. Так как на эту бесполезную работу тратятся мощности поисковика, то он может снижать позиции сайта в выдаче. Бывает, что дубли страниц генерируются самой CMS или шаблоном сайта, не настроены зеркала с www и без www и так далее. Из-за подобных ошибок появляются сотни или даже тысячи страниц с одинаковым контентом. В результате уникальность сайта снижается, и поисковик заносит его в категорию некачественных.

Что делать с дублями?

Во-первых, выявлять их. В Google найти такие страницы можно, задав запрос вида:

site:site.ru, где site.ru – домен вашего сайта.

11 наиболее частых ошибок внутренней оптимизации

Необходимо перейти на последнюю страницу выдачи и кликнуть «показать скрытые результаты», если они есть. Так можно найти дубли и по URL-адресу понять, почему они появились. Например, во многих темах Wordpress раньше ссылка «ответить» под каждым комментарием генерировала дубль всей страницы с постом. Так появлялись сотни и тысячи копий с URL-адресом, который содержал ?replytocom.

Другой случай – когда на сайте 1-я страница пагинации имеет копию. Например, дубль может быть таким:

site.ru/каталог/раздел/
site.ru/каталог/раздел?page1

Для исправления ситуации нужно сделать так, чтобы 1-я страница пагинации вела на основную страницу (первый URL из примера выше).

Во-вторых, после обнаружения дублей важно найти причину их появления и устранить ее. Могут понадобиться навыки работ с кодом сайта. Помогает настройка перенаправления (301-й редирект) или 404 ошибки на страницах-копиях.

Канонические адреса

Канонические URL для страниц с дублированным или очень схожим контентом – это обычное дело. Атрибутом rel=”canonical” вы даете роботу понять, какую страницу стоит индексировать, а какие – не следует. Для скрытия страниц от индексации в их коде нужно прописать URL канонической страницы:

<link rel=”canonical” href=”канонический URL” />

Стоит учитывать, что поисковик воспринимает этот атрибут как рекомендацию и может проигнорировать. В результате выходит, что индексируются все дубли канонической страницы, ухудшается качество сайта, продвижение становится малоэффективным. Чтобы избежать такой ситуации, необходимо точно знать, в каких случаях поисковик игнорирует атрибут rel=”canonical”. О случаях, когда он не учитывается, можно почитать в справке Яндекса и Google.

Неправильный редирект

Чтобы ненужные и удаленные страницы не попадались поисковому роботу, нужно, чтобы у них был код ответа сервера 404 (страница не существует) или 301 (постоянный редирект). Посмотреть его можно инструментом «Проверить статус URL» в «Инструментах для вебмастеров» от Яндекса.

11 наиболее частых ошибок внутренней оптимизации

Бывает так, что код ответа настроен как 302. В результате в поисковой выдаче могут оказаться оба варианта страницы, причем старая версия будет терять ссылочный вес (у Яндекса), хотя у Google он сохраняется.

Чтобы исправить ошибку, нужно настроить 301 редирект в файле .htaccess.

Страницы сайта ссылаются через редиректные URL

Допустим, на сайте все ссылки прописаны с WWW, а сам он настроен на то, чтобы переадресовывать посетителей на страницы без WWW (чтобы избежать дублей). Выходит, что все посетители при клике на любую ссылку автоматически перенаправляются. Это же происходит и с поисковым роботом, который должен обойти все ссылки. В результате расходуется краулинговый бюджет (количество URL, которые может просканировать робот), что негативно сказывается на индексировании сайта.

Чтобы проанализировать сайт на наличие редиректов, можно использовать специальные сервисы, например, этот.

Недоступность сайта

Бывает, что проблемы у хостера приводят к частой недоступности сайта. Вебмастер теряет трафик (и прибыль с него), да и поисковая система снижает авторитетность такого интернет-проекта. В итоге время от времени страницы могут исчезать из выдачи, что также усугубляет ситуацию с посещаемостью. Особенно остро эта проблема стоит перед крупными интернет-магазинами, прибыль которых зависит от присутствия в поисковых системах и от трафика, получаемого с любых других источников.

Как решить проблему с недоступностью?

Во-первых, её необходимо выявить. Для этого существуют сервисы мониторинга, которые определяют аптайм сайта. Например, можно воспользоваться услугами monitis.com или host-tracker.com. Стоимость услуг исчисляется в центах в месяц, а польза для проекта огромная.

Бесплатный способ проверки – это Яндекс.Метрика. Чтобы быть в курсе «падений» сайта, в настройках счетчика в разделе «Уведомления» нужно указать системе, чтобы она рассказывала о проблемах в работе сайта.

Узнать о проблемах с доступностью можно и в «Отчетах»:

11 наиболее частых ошибок внутренней оптимизации

11 наиболее частых ошибок внутренней оптимизации

Если хостинг работает без нареканий, то сайт будет доступен практически всегда. Если проблемы возникают часто, то есть смысл поговорить с техподдержкой хостера. При невозможности устранить причину стоит устроить сайту переезд на другой хостинг.

Отсутствие фавикона

Маленькая картинка делает сайт заметнее в выдаче. Если её нет, то снижается количество кликов по сниппету, уменьшается его CTR, вследствие чего могут падать и позиции. Бывает, что фавикон случайно удаляют из кода страниц или из файлового менеджера. Если вы заметили, что он отсутствует, необходимо проверить код сайта и наличие картинки на хостинге.

Мусор в коде сайта

Со временем, в процессе работы над сайтом код увеличивается в размерах, и не всегда это идёт на пользу. Чем он тяжелее, тем медленнее загружаются страницы. Посетители с плохим интернет-соединением уходят, увеличивая показатель отказов. Поисковики учитывают скорость загрузки страниц как важный фактор ранжирования, поэтому у медленных сайтов меньше шансов занять ТОПовые места в выдаче по сравнению с быстрыми конкурентами. Тормозить работу могут:

1 CSS-стили в основном коде сайта. Пример:

<span style=”font-weight:bold; font-size:16px; color:green; font-style: italic;”>

Решение: прописать стиль в файле style.css (назовем его “Text”) и вызывать его там, где необходимо:

<span class=”text”>

Код стал намного короче, следовательно, скорость загрузки увеличилась. Так можно сделать со всеми стилями – и сайт начнет грузиться лучше.

2 Закомментированные строчки кода. Они не выполняют никакой функции и только утяжеляют код. Иногда комментарии оставляют, чтобы быстрее найти какие-то элементы для внесения правок. Пример:

11 наиболее частых ошибок внутренней оптимизации

Решение: почистить код от лишнего хлама (закомментированных строк, лишних пробелов) вручную или с помощью сервисов.

Также следует вынести в отдельные файлы js-скрипты и проверить код на валидность этим сервисом - https://validator.w3.org/, устранить найденные ошибки.

Выводы

Прежде чем браться за продвижение ссылками, устраните ошибки внутренней оптимизации. Чистый код, грамотная перелинковка, отсутствие дублей, качественный контент без переспама, корректно заполненные мета-теги, доступность и высокая скорость загрузки – все это жизненно необходимо во времена жесткой конкуренции. СЕО оптимизация начинается с технических азов и заканчивается построением маркетинговых стратегий. При этом они не сработают, если не налажена работа сайта изнутри.

Напишите ваш комментарий
Вы не авторизованы ( Регистрация )
или разместить анонимно
Loading comment... The comment will be refreshed after 00:00.
  • This commment is unpublished.
    Kantonov · 3 лет назад
    на SEOnews недавно платформа для сеошников Serpstat опубилковала исследование по самым частым seo-ошибкам Рунета. отлично дополняет вашу статью.

Лучшие статьи на сайте