+7 (4872) 25 04 19

ТОП-10 ошибок SEO, которые допускают до 80% агентств в России

21.07.2020
96
Поделиться:


ТОП-10 ошибок SEO, которые допускают до 80% агентств в России

Содержание:

  • Хостовые ошибки

  • Отсутствие оптимизации под мобильные устройства

  • Поддомены и зеркала

  • Запутанная иерархия и уровни вложенности

  • Ошибки в ссылочной массе

  • Ошибки в использовании H1

  • Дубли страниц и индексация

  • Изменения сайта

  • Title: один на всех

  • Нет микроразметки

  • Заключение

Поисковая оптимизация – одна из востребованных услуг в арсенале digital-агентства. И понятно, почему: SEO – самый эффективный способ продвижения сайта в интернете. По данным исследования BrightEdge, на органический поиск приходится 53,3% трафика, 15% приходится на платный поиск. Для B2B этот показатель еще более критичен – к ним органика+платный поиск приводят более 75% трафика. Хоть данные и прошлогодние, но эта ситуация достаточно стабильна: с 2014 года доля органики выросла всего на 23%. 

SEO приводит людей, заинтересованных в вашей услуге, причем сайт отвечает на запросы пользователей, которые находятся на разных этапах пути клиента. Потенциальный покупатель переходит по страницам, и если все сделать правильно, он постепенно прогревается, определяется с выбором и двигается на следующий этап. 

Главная ошибка – не делать SEO вообще. Нет, конечно, когда речь идет о личном сайте, который создан для себя, это необязательно. Но для коммерческих ресурсов SEO-оптимизация и продвижение – одна из основополагающих вещей. Часто в поисковой оптимизации есть ошибки, а значит, страницы теряют трафик, а бизнес – клиентов. В статье мы хотим привести ТОП-10 ошибок СЕО, которые мы чаще всего находим при аудите сайтов. Избавление ресурса от таких недочетов позволяет ему быстро поднять позиции в поисковой выдаче.

Хостовые ошибки

Сюда входят страница с ошибкой 404 и низкая скорость сайта. Проблемы, которые относятся к 404 странице:

  • Она не в общем дизайне сайта. Лучше оформлять ее так, чтобы человеку сразу было понятно, куда он попал.

  • Страница не отдает код ответа 404.

  • Нет возможности уйти с нее на главную, посетить основные разделы или вернуться назад.

Наш опыт показывает, что если страница оформлена еще и интересно, то это снижает количество отказов.

Низкая скорость загрузки отрицательно влияет не только на ранжирование и место в выдаче (конкретно у Google скорость – один из факторов ранжирования еще с 2010 года), но и на конверсию. Каждая дополнительная секунда загрузки снижает ее на 7%, 75% посетителей в принципе не готовы ждать больше 4 секунд, а больше 40% уйдут со страницы, если она грузится дольше 2 секунд.

И наоборот, чем выше скорость сайта, тем больше количество просмотренных страниц одним человеком. Как оптимизировать скорость сайта:

  • Используйте бесплатный сервис PageSpeed Insights. Все просто до безобразия: загружаете URL сайта, и через несколько секунд система выдает основные замеры по сайту и набор рекомендаций. Особенно ценно, что можно посмотреть результаты и для мобильной, и для десктопной версии. Не забудьте не только получить рекомендации, но и выполнить их.

  • Все CSS и JS-файлы отправляются в конец страницы.

  • Чтобы не грузилось все и сразу, настройте поэтапную отложенную загрузку контента по мере того, как пользователь проматывает страницу ниже.

  • Если есть картинка, то сначала она должна загружаться в низком качестве, и только потом – в высоком. Еще одна ошибка – хранить картинки на сервере, это увеличивает скорость загрузки. Они содержатся в сетях доставки контента (CDN или Content Delivery Network).

Отсутствие оптимизации под мобильные устройства

Уже давно и Google, и Яндекс объявили, что будут безжалостно понижать сайты, не адаптированные под смартфоны, но все равно полно компаний, которые не учитывают и не делают мобильную оптимизацию. По прогнозу компании Forward Leasing, к концу 2020 года в России будет 95,3 млн пользователей смартфонов, и практически все пользуются мобильным интернетом. Не реализуя мобильную адаптацию, вы сами себя лишаете приличной доли трафика.

Есть несколько способов оптимизировать сайт под смартфоны:

  1. Мобильный сайт на поддомене. Страницы имеют разный URL, поэтому необходимо связать страницы мобильной и десктопной версий и настроить автоматическую переадресацию.

  2. Адаптивная версия. Здесь URL и html одни, меняется только размер отдельных элементов и их размещение на странице, например, скрываются картинки, вместо номера телефона отображается иконка трубки и т. д. Разрешите поисковым роботам сканировать CSS, JS, картинки и не забудьте настроить метатег viewport, который будет передавать браузеру размер экрана устройства, чтобы тот смог настроить объектную модель CSS.

  3. Динамический показ. URL – один, html и CSS различаются. Необходимо настроить Vary, который будет передавать серверу и браузеру, какой у пользователя агент.

Яндекс предоставляет возможность воспользоваться технологией турбо-страниц Яндекс.Турбо. Они отличаются очень высокой, практически моментальной скоростью загрузки, их можно сделать похожими на основной сайт, реализовать поиск с переходом на основной сайт, возможность купить в один клик. AMP – аналог турбо-страниц от Google. Яндекс не поддерживает AMP, поэтому их можно закрыть от индексации поисковиками в robots.txt.

Надо понимать, что турбо-страницы ограничивают пользовательский функционал, потому подходят, в основном,  для информационного, новостного контента, интернет-магазинов. Но они не заменяют собой полноценную мобильную адаптацию, их можно сделать только в дополнение.

Поддомены и зеркала

Бесчисленное количество поддоменов тормозит ваш сайт на пути покорения ТОПа. Даже если у вас есть филиалы в регионах, лучше разместить их на одном домене или на разных, но не пихать их в поддомен. 

У многих сайтов при аудите находятся индексированные поддомены с архивным нерабочим форумом, спамом, вирусами, копиями сайта. Нужные страницы необходимо закрыть паролем от роботов ПС, а неактуальные поддомены и мусор – удалить.

Что касается зеркал: три сайта www.site.ru, http://site.ru и https://site.ru для человека одинаковы. Ему все равно, что вводить в поисковую строку, главное – результат. А вот для поисковых систем это три разных ресурса, которые имеют одинаковый контент, а значит в ТОПе выдачи им делать нечего. Если пользователи ссылаются на разные адреса, ссылочная масса тоже будет делиться между ними, а значит на каждом из них она в целом будет меньше. Но все это происходит только в том случае, если зеркала не склеены. Это делается в файле htaccess. Основным зеркалом, которое будет индексироваться поисковиком, лучше назначать защищенный протокол https, которые имеет бонус в ранжировании у Google – SSL сертификат защищает личные данные пользователей от злоумышленников.

Запутанная иерархия и уровень вложенности

Отсутствие четкой и понятной иерархии не просто влияет на юзабилити, оно запутывает посетителя, причем иногда до такой степени, что проще найти информацию в другом месте, чем разбираться в дебрях. Есть четкие правила, по которым строится структура, кроме того, нужно прислушиваться к здравому смыслу, никакого вольного творчества.

Максимальный путь до любой страницы не должен занимать больше 3-4 переходов. Чем больше кликов от главной, тем “невзрачней” она для поисковиков, поэтому важные товары и страницы надо вытаскивать ближе.

Чтобы структура была грамотной, придется уделить внимание семантическому ядру: собрать популярные запросы, кластеризовать их, страницы разложить по разделам. Например, статьи будут находиться в блоке /blog/.

Как определить правильную структуру:

  • Она логична и понятна.

  • До любого раздела можно дотянуться в 3-4 клика.

  • Каждая страница – это отдельный кластер.

  • Адреса имеют человекопонятный URL примерного вида site.ru/catalog/block/item

Ошибки в ссылочной массе

Эти ошибки делятся на внешнюю ссылочную массу и внутреннюю. Внешние ссылки делают оптимизацию более результативной, но только в том случае, когда они естественные. Если большая часть (>30%) внешней ссылочной массы искусственная и некачественная, то есть закуплена на бирже, это негативно сказывается на оптимизации. Выяснить это можно с помощью сервиса MegaIndex. 

Есть два пути исправления проблемы:

  • Закупка естественных для поисковых системы ссылок, по которым будут переходить реальные люди.

  • Собрать домены коммерческих ссылок и обратиться к владельцам с просьбой их удалить.

Основная проблема внутренней перелинковки – когда вес всех ссылок приходится на главную, то и поисковик считает ее главной. Но продвигать одну страницу сразу по всем запросам нереально, ссылочный вес должен быть равномерно распределен по второму уровню вложенности.

Ошибки в использовании H1

Казалось бы, это некритичная ошибка, но и она негативно влияет на трафик. Очень часто на главной странице просто забывают про заголовок H1. На других страницах иногда в H1 по ошибке пишут хлебные крошки. Под этим тегом должно находиться название страницы с ключевыми словами, по которым эту статью будут искать.

Дубли страниц и индексация

Когда на сайте попадаются страницы с одинаковым содержанием и мета-тегами, поисковик считает их дублями и понижает в выдаче. Проверить наличие дублей можно в бесплатных сервисах SiteAnalyzer, Xenu, и в платных Serpstat, Semrush, ComparseR и других. Такие страницы надо спрятать в уже упомянутом robots.txt, в этом поможет директива Disallow. Как это сделать, описано подробно в https://support.google.com/webmasters/answer/6062596?hl=ru&ref_topic=6061961 и https://yandex.ru/support/webmaster/controlling-robot/robots-txt.html.

Изменения сайта

В мире нет ничего неизменного, поэтому наступает момент, когда сайту требуются капитальные улучшения. Главное, при изменениях привлечь SEO-аналитика, чтобы ничего не упустить и не совершить ошибок. Самые распространенные - неверная расстановка редиректов, неперенесенные URLы. После завершения усовершенствований стоит на всякий случай сделать полный аудит сайта, чтобы не просел трафик.

Title: один на всех

У каждой страницы должен быть свой тег title, если же он один у всех страниц, то поисковик не может понять, какая страница подходит под запрос. В итоге пользователю выдаются нерелевантные, показатель отказов растет, позиции в выдаче снижаются.

Нет микроразметки

Мы уже писали о важности хлебных крошек. Они помогают пользователям ориентироваться на сайте и позволяют оптимизировать сниппет в выдаче. Если микроразметки нет, то в результатах поиска выводится общий тайтл. Какие минусы это дает с технической стороны:

  • поисковик дольше индексирует сайт;

  • поисковые роботы хуже понимают навигацию.

Заключение

Возможно, мы не написали ничего нового. Но хоть это вроде бы и известно всем, такие ошибки SEO постоянно встречаются при аудите сайтов. Мы в компании Dial их не допускаем и делаем только правильное SEO-продвижение. В то же время, не нужно забывать, что оно является только частью совокупных действий по продвижению сайтов. Для максимальной эффективности необходимо не упирать только на SEO, а подключать управление репутацией, SMM, контекстную рекламу, работать над качеством контента, УТП, позиционированием и самим продуктом.


Яндекс.Метрика Яндекс цитирования Участник проекта CMS Magazine