Внутренняя сео оптимизация


Внутренняя оптимизация сайта — это комплекс работ, проводимый с целью корректировки содержимого сайта для быстрой индексации и лучшего ранжирования сайта в поисковых системах.

Внутренняя оптимизация — это самый большой и ответственный этап в seo продвижении сайта. Здесь важно не допустить ошибок и все делать правильно, учитывая как рекомендации поисковых систем, так и личный опыт seo-специалиста.

Основные этапы.

Внутренняя оптимизация страниц сайта предполагает проведение следующих работ:

Анализ конкурентов

Процесс внутренней оптимизации сайтов начинается с анализа конкурентов. Обычно в самом начале работ уже известен некоторый перечень сайтов конкурентов. Когда этого перечня мало, можно воспользоваться такими сервисами как SemRush, SpyWords, Advisor.Sape и найти их еще пару штук.

Обычно хватит для конкурентного анализа 5-6 сайтов. Цель такого анализа: снять различные количественные и качественные характеристики таких сайтов. Снимают обычно такие параметры, как: тиц, pr, возраст сайта, количество проиндексированных страниц, число главных страниц в выдаче, наличие запроса в точной форме в title  и другие. Как правило, результаты анализа оформляются в виде наглядной таблицы.

По результатам анализа получается конкретный список тех работ, который нужно будет провести, чтобы подтянуть сайт до уровня конкурентов и возможно в чем-то даже обогнать.

Составление семантического ядра


Следующий этап — это составление семантического ядра по которому и будут продвигаться страницы сайта в зависимости от выбранной стратегии: по позициям или по трафику. Дело в том, что если продвижение осуществляется по позициям, то и семантическое ядро обычно не большое (до 100-200 слов). Если речь идет о трафиковом продвижении, то нужно подбирать семантическое ядро с количеством фраз от 1000 в зависимости от тематики.

Здесь основной акцент нужно сделать на работу с ВЧ, СЧ и НЧ запросами, которые разделяются между собой в зависимости от частоты показов и тематики. Например в тематике «еда» — ВЧ имеют частоты от 100 тыс показов в месяц, а в тематике «продвижение сайтов» уже от 2000. Нет единых численных значений — помните об этом. Как правило, СЧ имеют частоту в 3-10 раз ниже чем ВЧ, а НЧ в 3-10 ниже чем СЧ.

Высокочастотные запросы очень плохо подходят для молодых сайтов, так как они почти всегда одновременно и максимально конкурентные. В основном работают с СЧ и НЧ запросами — они более целевые и их легче продвигать.

Основные стадии составления семантического ядра следующие:


  • сбор фраз из всевозможных источников (Яндекс метрика, Google Analytics, Liveinternet, SemRush, SpyWords, База Пастухова и другие);
  • очистка полученного списка от нецелевых слов и пустышек;
  • разбиение запросов на продвигаемые группы по принципу решения проблемы пользователя. Если группа запросов решает одну и ту же проблему пользователя (информационную потребность), то мы делаем вывод, что их нужно продвигать на одной странице.

Отлично автоматизировать процесс сбора семантического ядра можно в программе Key Collector.

Размещение запросов на сайте + выбор посадочной страницы

После того как мы собрали семантическое ядро, провели его чистку и сформировали продвигаемые группы мы должны подумать о размещении запросов на сайте. Для этого нужно подобрать посадочные страницы. Но в большинстве своем многие группы запросов не будут иметь существующих посадочных страниц. Тут выход один: либо такие группы не учитывать, либо создать новую целевую страницу.

Конечно, лучше размещать запросы на существующие страницы, так как они уже имеют возраст и накопленные поведенческие факторы. В таком случае запросы будут продвигаться легче и быстрее.

Минусом же новых страниц является отсутствия фактора доверия со стороны поисковых систем и возраста, а это в нынешних реалиях очень сильно сказывается на seo. Но есть и плюс — это постоянное расширение списка продвигаемых запросов и возможность оперативно подхватить текущие трендовые запросы и их тоже разместить.

Работа со структурой сайта


Под структурой сайта понимается совокупность всех страниц сайта с учетом их взаимосвязи между собой. Основные разделы в структуре сайта выделяются путем создания папок (директорий) на сервере, либо с помощью соответствующих записей в базе данных.

Пример рубрик:

  • /wordpress/;
  • /baza-znanij-seo/.

Пример страниц: 

  • /baza-znanij-yuzabiliti/yuzabiliti-internet-magazina.php; (допускается как использовать расширение .html, .php так и не использовать как в примере ниже)
  • /wordpress/nastrojka-gravatara.html;
  • /baza-znanij-seo/vnutrennyaya-optimizaciya-sajta/.

Инструкция по созданию правильной структуры сайта:

  1. Самое первое, что мы должны сделать — это сформировать список seo-запросов;
  2. Далее по основным из них (самым частотным) нужно провести анализ структуры конкурентов. Здесь вам нужно проанализировать конкретные страницы конкурентов на предмет того, как они сделаны, как оформлены. Являются ли они, например, разделом с перечислением, например, товаров или просто отдельной страницей (карточкой товара). Нужно найти какие-либо части, блоки, модули, сервисы, которые реализованы у конкурентов, но не реализованы у вас. Если они представляют ценность, то, в конечном итоге, реализовать. Также нужно посмотреть количество страниц разных типов и сравнить с вашим. Например, если у конкурента около 5000 карточек товара, то и у вас должно быть приблизительно такое же количество;

  3. Далее беремся за анализ ЧПУ конкурентов. Это может быть и анализ того, какие ключевые слова встречаются в урле и среднее количество этих слов, а также и уровень вложенности. Обычно — это шаблонные решения. И если они удачны, то необходимо подумать о реализации у себя.
  4. Провести учет иерархии разделов и подразделов. Тут нужно посмотреть как реализована иерархия в меню сайта. Посмотреть как реализовано тегирование, которое очень неплохо позволяет реализовать эту самую иерархию.
  5. Раскрыть все основные потребности на сайте. Под каждую основную потребность необходимо создать раздел, а внутри этого раздела будут подразделы или конечные детальные страницы.
  6. Возможность масштабирования. Если в процессе разбиения мы получаем ситуацию, когда в одном разделе существует более сотни подразделов — то это неправильно. Нужно изначально этот раздел разбить на несколько десятков подразделов, каждый из которых внутри будет разбиваться также на несколько десятков. Это будет более логично и удобно для восприятия.

Seo-теги: title, h1-h6, description, keywords, strong

После того, как известен список продвигаемых ключевых слов, можно приступать к оптимизации seo-тегов для каждой страницы сайта: title, h1-h6, description, keywords, strong. Здесь у каждого свои секреты. Но есть и общие требования:


  • не переспамливать ключевыми словами;
  • Yandex учитывает 186 слов в title, а Google — 12;
  • тег title должен содержать продвигаемый запрос в точной форме;
  • h1 должен быть употреблен в исходном html коде только 1 раз и не должен содержать классов и стилей;
  • необходимо соблюдать иерархию заголовков: сначала h1, потом h2, затем h3 — и так далее;
  • содержимое h1, по возможности, не должно совпадать с title;
  • старайтесь выделять тегом strong важную мысль, а не ключевые слова;
  • максимальная длинна description, которую учитывает Яндекс — 160 символов, а Google — 140;
  • description должен содержать 2-3 предложения, которые описывают содержимое страницы. Можно использовать цифры, факты, рекламные слоганы, призывы к действию и т.д;
  • мета тег дескрипшен не должен совпадать с тегом title,  иначе поисковая система будет его игнорировать.

Для упрощения работы с seo-тегами я рекомендую утилиту Screaming Frog SEO Spider, которая после сканирования выведет всю необходимую информацию по каждой странице сайта в удобном виде.

Для интернет-магазинов или порталов, ввиду большого количества страниц, ручная работа по заполнению данных мета-тегов весьма затруднительна, поэтому здесь процесс автоматизируют, используя различные шаблонные маски.

Работа с исходным html кодом


  • На данном этапе внутренней оптимизации сайта необходимо сделать так, чтобы код был валидным. Это будет почти 100% гарантией того, что сайт будет хорошо открываться в браузерах. Также есть исследования, которые говорят о том, что валидный код дает небольшой бонус при ранжировании.
  • В рамках данного этапа важно проследить за тем, чтобы все стили были вынесены из исходного html кода в отдельный CSS файл.
  • Все JS скрипты нужно вынести в отдельный файл.
  • Важно работать в целом над тем, чтобы убрать лишние теги, пробелы — это позволит уменьшить вес страниц сайта в килобайтах.
  • Оптимальный размер страницы — до 100 килобайт.
  • Также нужно позаботиться о том, чтобы ваш HTML код был лишен CSS, JS и шрифтов, которые не используются на данной конкретной странице — это позволит ускорить загрузку.
  • Основные seo-теги — title и дескрипшен нужно выводить сразу же после открывающегося тега <head>.

Наличие ЧПУ

Как известно, поисковики дают бонус в ранжировании, если урлы будут представлены в человеко-подобном виде (ЧПУ). Лучше всего использовать транслитерацию, но неплохо работают и английские переводы слов. Здесь есть один момент: ЧПУ урл не должен быть слишком большим. Есть даже такой фактор ранжирования в Google, как длина урла. Эксперты склоняются к выводу, что оптимальная длинна ЧПУ урла должна быть не более 130 символов.

Хороший пример ЧПУ урла для запроса «продвижение сайтов в гугл» → /prodvizhenie-sajtov/google/

Требования к ЧПУ:

  • содержание 1-3 основных тематикозадающих слов из запросов;
  • корректность с точки зрения поисковой системы;
  • как можно более меньшая длина урла;
  • иерархическое дополнение друг друга.

Для ручного создания правильных и корректных с точки зрения поисковиков ЧПУ урлов Вы можете воспользоваться моим сервисом транслитерации урлов.

Улучшение индексации сайта

Цель улучшения индексации сайта — это сделать так, чтобы мы удалили из базы поисковой системы бесполезные страницы сайта и добавили полезные. Для выполнения этой задачи мы первым делом должны проверить индексацию каждой существующей страницы сайта. Лучший инструмент для этой задачи, на мой взгляд, сделала команда сервиса Seranking. Он находится здесь. Да, инструмент платный, но зато быстрый и удобный.

По результатам проверки мы можем выяснить, что часть страниц не попала в индекс, а часть попала. Далее мы должны удостовериться, что проиндексированные страницы не являются мусорными. Если часть из них являются все же мусорными, то мы должны предпринять меры по их удалению из базы поисковой системы. Для этого существует файл robots.txt, meta name=»robots» и link rel=»canonical».

Также в индекс могут не попадать и нормальные страницы. Причины этого следующие:

  • Страница находится более чем в 3 кликах от главной;
  • Отсутствие уникального контента;
  • Дублирование заголовков;
  • Долгое время загрузки страницы.

P.S. Для реально ускорения индексации сайта в яндексе нужно использовать инструмент переобход страниц, а в гугле аддурилку.

Составление корректного robots.txt

Файл для поисковых роботов robots.txt очень важен для корректной внутренней оптимизации. С помощью директив Disallow (запретить) и Allow (разрешить) можно управлять сканированием разделов сайта. Корректность составления данного файла можно проверить с помощью сервиса Яндекса здесь.

Из других основных директив следует отметить:

  • User-agent: — указывает для какого робота будут действовать директивы секции;
  • Host: — указывает основное зеркало (работает только в секции для поискового робота Яндекс);
  • Sitemap: — позволяет указать урл по которому расположена XML карта сайта.

Пример составления файла для cms WordPress можете посмотреть у меня на блоге.

Правильная расстановка meta name=»robots» и link rel=»canonical»

Для правильного индексирования сайта и распределения весов нужно правильно расставить meta name=»robots» и link rel=»canonical».

Если страница закрыта от индексации с помощью данного метатега, то важно, чтобы она не была одновременно закрыта в robots.txt. Помните, что robots.txt управляет сканированием, а meta name=»robots» индексированием.


Для указания основной страницы используйте link rel=»canonical». Данный атрибут целесобразно применять тогда, когда нужно поисковой системе явно указать какая из двух страниц с одинаковым содержимым является приоритетной. Я рекомендую все же это делать не с помощью canonical, а с помощью 301 редиректа.

Создание автоматически генерируемых sitemap.xml для обычных постов, картинок, видео

Карта сайта — это ничто иное как обычное содержание, которое должно именно индексироваться.

На сайте должен присутствовать автоматически обновляемый файл sitemap.xml. Различают sitemap.xml для постов, для картинок и видео. Стоит отметить, что сайтмап для картинок и видео поддерживает лишь Google, а Яндекс нет. При составлении данного файла важно учитывают следующие моменты:

  • любая новая страница, картинка или видео должны сразу же попадать в соответствующий sitemap.xml;
  • если страница запрещена в robots.txt или запрещена мета-тегом, то такая страница не должна присутствовать в сайтмапе;
  • лучше всего настроить автоматическую генерацию карты сайта средствами вашей CMS;
  • идеальный случай — это когда в файле sitemap.xml присутствуют лишь непроиндексированные url.

Тег noindex (скрытие текстового содержимого в коде страницы)

Тег noindex позволяет скрывать часть текста в коде страницы от индексирования. То есть все, что находится внутри данного тега не учитывается при текстовом ранжировании. Работает только в поисковой системе Яндекс. Тег можно ставить в любой порядке и в любом месте кода, так как он не является вложенным.

Пример использования тега:

<!--noindex-->текст, который нужно скрыть от индексации<!--/noindex-->

Тег используют если:


  • на странице большое число повторов, например, характеристик товара;
  • на странице используется неуникальный контент, который вы где-то позаимствовал.

В Гугле тег noindex, к сожалению, не работает. Для закрытия контента в гугле и яндексе одновременно используйте технологию seohide.

Атрибут rel=»nofollow»

Атрибут rel=»nofollow» присваивается ссылкам и служит для закрытия их от индексации поисковыми системами Яндекс и Google. Раньше с помощью данного атрибута управляли pagerank (статическим весом), который является одним из алгоритмов ссылочного ранжирования. Сейчас это не имеет смысла в связи с изменением учета nofollow поисковыми системами. Другими словами, для внутренней перелинковки смысла использовать nofollow нет.

Но в тоже время использовать данный атрибут для внешних ссылок смысл есть, например, в случае закрытия исходящих ссылок в комментариях.

Пример использования:

<a rel="nofollow" href="урл ссылки, который нужно закрыть от индексации">анкор ссылки</a>

Борьба с дублированием контента

Таблица: Причины дублирования страниц и как решать их:

Причины дублирования контента Как исправлять проблему
Сайт доступен как по адресу site.ru, так и по адресу www.site.ru Нужно настроить главное зеркало в вебмастерах поисковых систем. В директиве host файла robots.txt указать главной зеркало для ПС Яндекс. Настроить 301 редирект на одну любую версию сайта (с www либо без www).
Сайты доступны со слешем (/) на конце и без слеша. Настройка 301 редиректа на одну любую из версий.
Одинаковое содержимое доступно по адресу site.ru, site.ru.html, site.ru.php.
Параметрический урл и ЧПУ. Одна и та же страница доступна по адресам вида: site.ru.php?=category=100 и, например, site.ru/seo/ankor/.
Один и тот же сайт открывается как по https так и по http протоколу.
Использование UTM-меток и реферальных ссылок. С помощью link rel=»canonical» на всех копиях страниц указываем главную страницу, которую нужно индексировать.

Внутренняя перелинковка

Внутренняя перелинковка продолжает сейчас иметь важное значение при оптимизации страниц сайта. Принципы и формы перелинковки различны для сайтов информационной и коммерческой направленности. Одно скажу, что стандартные схемы типа кольца, куба и прочие не работают в настоящее время. Если их использовать можно даже попасть и под санкции поисковых систем.

Из практических советов:

  • важно следить за максимальной уникальностью и разнообразностью анкор листа. Отлично себя зарекомендовала теговая перелинковка в интернет-магазинах;
  • работает и классическая контекстная перелинковка из статей. Но нужно ставить не более 1 линка на 1000 знаков контента. Анкоры при этом делаем разнообразные с тематическим содержимым;
  • для работы с внутренней перелинковкой вам обязательно нужно освоить метод скрытия контента через js и отдельно технологию seohide;
  • гиперссылки необходимо цветом отделить от основного контента (пример — ссылки синего цвета, а текст черного);
  • для больших порталов и интернет-магазинов нужно обязательно разрабатывать свое комплексное решение по перелинковке.

Циклические ссылки

При правильной перелинковке сайта нужно избегать использования циклических ссылок. Циклическая ссылка — это когда страница ссылается сама на себя.

Пользователю такая ссылка точно не нужна, поскольку он уже находится на этой странице — для чего ему с этой же страницы переходить на неё же? Вывод: циклические ссылки нужно удалять.

Мероприятия по увеличению скорости загрузки сайта

Если вы хотите, чтобы внутренняя оптимизация сайта давала результат, то прилагайте усилия, чтобы ваш ресурс загружался максимально быстро. Google и Яндекс официально признали, что скорость загрузки является фактором ранжирования. Важно сделать так, чтобы время загрузки страницы сайта не было больше 2 секунд. Советы следующие:

  • Чтобы узнать, что именно нужно сделать, чтобы увеличить скорость загрузки страницы сайта, можно воспользоваться официальным инструментом от Google — PageSpeed Insights.
  • Среди основных моментов на которые нужно обращать внимание — это оптимизация размера картинок, сжатие HTML и CSS кода, вынос JS перед закрывающим тегом BODY, включение Gzip сжатия, использование кэша браузера и многое другое.
  • Перейдите на хостинг, сервера которого находятся физически ближе к вашему целевому посетителю.
  • Набирает популярность технология AMP для мобильных страниц. Если есть техническая возможность, то ее лучше внедрить, так как она отлично ускоряет загрузку.

Коды ответа сервера

Общее: на данном этапе нам нужно проверить корректность отдачи сервером нужных кодов в ответ на запрос сайта с браузера. Проверить код ответа сервера вы можете с помощью плагина Firebug для Firefox или сервисом от Яндекса.

Код ответа 200 OK

На данном этапе мы должны удостовериться, что при вводе в браузере любой реально существующей страницы сайта, сервер отдает 200 код ответа. Данный ответ сервера, говорит нам, что запрос успешен. С точки зрения поисковых систем данный код означает, что страница существует и ее можно индексировать. Здесь нам важно убедиться в том, что несуществующие страницы сайта не отдают 200 код. Если так и есть, то все хорошо.

Перенаправление навсегда — код 301

В том случае, если вы настраиваете постоянный редирект с одной страницы на другую, то должны удостовериться в том, что сервер возвращает 301 код ответа. Для чего вам нужно перенаправление? Например, если у вас поменялся URL одной и той же страницы, то вы должны в обязательном порядке настроить 301 редирект со старого урла на новый, чтобы показать, что страница расположена по другому адресу. 301 редирект также передает вес и возраст страницы, а также решает вопрос дублирования контента.

Проверка сайта на корректную отдачу 404 кода

Проверка сайта на корректную отдачу 404 кода (страница не существует) — это один из первоочередных этапов внутренней оптимизации. Важно проверить все возможные варианты, когда должна отдаваться 404 ошибка. Проверять нужно не только реальную отдачу сервером 404 кода в случае ввода несуществующего url, но и чтобы для пользователя выводилась хорошо оформленная страница. Пример такой хорошо оформленной страницы у меня на сайте (введите несуществующий url и увидите).

Коды 5xx (ошибки сервера)

Тут вы должны знать, что существуют еще коды ответа сервера серии 5xx, например, 501, 502, 503 и так далее. Они говорят нам, что есть некая ошибка именно на сервере. Как правило причиной таких ошибок является перегрузка сервера, например, из за роста посещаемости. Поэтому если вдруг вы получаете любой из кодов пятисотой серии, то вам нужно провести работу по оптимизации настроек сервера. Как подсказка: анализируйте логи, чтобы понять какой именно процесс приводит к сбою сервера.

Поиск и исправление битых ссылок

Битые ссылки — это ссылки, которые ведут на несуществующие страницы. Причины их появления следующие:

  • неаккуратная простановка ссылок администратором сайта;
  • смена адреса страницы. При этом забывают поменять ссылки ведущие на эту страницу;
  • удаление страницы, но ссылки на нее остаются на других страницах.

Наличие битых ссылок очень сильно сказывается на ранжировании сайта. Они доставляют и неудобства пользователю, так как при переходе по такой ссылке попадаешь не на целевую страницу, а на страницу 404 ошибки. К тому же с точки зрения seo на эти страницы утекает статический вес. Поэтому seo-специалистам и вебмастерам необходимо их вовремя находить и исправлять. Для оперативного поиска битых ссылок я использую бесплатную утилиту XENU или платную Page Weight.

Оптимизация изображений

При оптимизации изображений имеют ввиду следующие особенности:

  1. Изображение желательно должно быть уникальным;
  2. Картинку нужно оптимизировать под определенные размеры по ширие и высоте;
  3. Воспользоваться сервисами сжатия, чтобы максимально сократить размер в килобайтах;
  4. При размещении на сайте обязательно заполнять атрибуты alt и title таким содержимым, чтобы оно полностью описывало именно то, что изображено на картинке;
  5. По возможности заполнять EXIF данные;
  6. Названия картинок нужно делать в ЧПУ виде (по аналогии с урлами — лучше всего транслитом);
  7. Полезно использовать разметку Schema.org для картинок, которая поддерживается и Яндексом и Гуглом.

Коммерческие факторы ранжирования

При оптимизации интернет-магазинов важно правильно работать с коммерческими факторами ранжирования. В первую очередь сюда относят следующие факторы:

  • наличие телефона в видном месте на странице (обычно в шапке сайта);
  • бесплатный телефон на 8-800;
  • максимально полная информация об организации в на странице «контакты» с картой проезда;
  • добавление информации о сайте в справочник организаций в Яндексе;
  • наличие различных сортировок, сервисов, разделов, которые призваны повышать удобство пребывания пользователя на сайте;
  • увеличивать ассортимент продукции;
  • наличие возможности онлайн-консультирования;
  • возможность попасть в карточку любого товара за 1-3 клика;
  • наличие актуальных цен и многое-многое другое.

Составление ТЗ для написания качественного и полезного контента

Контент — это король SEO. Так было, так и осталось. К тому же влияние контента в последнее время только усиливается. В информационных тематиках продвижение контентом дает, по моим оценкам, 85% успеха. Для коммерческих тематик текст не имеет решающего значения. В тоже время написание качественных статей с большим количеством графики, видео, интерактива в раздел обзоров интернет-магазина позволяет здорово улучшить поведенческие факторы в целом на сайте. А это со временем приведет к росту позиций и по коммерческим запросам.

У каждого seo-специалиста свой подход в составлении технического задания на написание текста. Обычно это базовые требования:

  • Важно в первую очередь то, чтобы страница полностью решала потребности пользователя. Конечно, текстовое ранжирование, по-прежнему, основано на модернизированной формуле BM 25 и это не нужно забывать;
  • Уникальность контента;
  • Объем текста — от 1000 знаков для хорошей индексации. В более объемных статьях, например, информационной направленности обязательно необходимо включать картинки, видео и любые другие иллюстрации. Это позволит добавить ценность на посадочную страницу и снизить вероятность наложения санкций за переспам;
  • Параграфы должны состоять из не более 4-6 строк;
  • Текст верстаем тегами <p>;
  • Использование подзаголовков, списков, жирного шрифта, курсива.

Правильная внутренняя оптимизация сайта необходима для увеличения его траста в глазах поисковых систем, что положительным образом будет отражаться на позициях и трафике.

www.seowind.ru

Довести сайт до технического совершенства

Чтобы поисковик добавил сайт в ТОП-10, сначала этот сайт должен попасть в индекс ПС – поисковую базу, в которой хранятся все доступные поисковикам веб-страницы и документы. А чтобы в индекс попали страницы с контентом и не попали технические, нужно правильно настроить сайт.

Чек-лист технической оптимизации:

  • Robots.txt есть на сайте, корректно заполнен;
  • Sitemap.xml есть на сайте, корректно заполнена;
  • Несуществующие страницы отдают ответ 404 Not found;
  • Есть кастомная страница 404;
  • Количество страниц в индексе Яндекс и Google различаются незначительно;
  • URL оформлены по принципу ЧПУ;
  • Есть «хлебные крошки»;
  • Уровень вложенности не больше 3-х;
  • Нет дублей контента, мета-тегов;
  • Нет битых ссылок;
  • Код сайта валидный;
  • Изображения оптимизированы.

Заполнить robots.txt и sitemap.xml

Первый шаг на пути к техническому совершенству сайта – дать прямые команды поисковикам, какие страницы стоит добавлять в индекс, а какие не стоит. Такие команды задаются в специальном файле robots.txt, который лежит в корневой директории сайта.

Принцип заполнения robots.txt очень простой: задаем роботам ПС правила «поведения» (директивы) относительно всех файлов, и роботы при обходе сайта придерживаются этих правил и не «спотыкаются» при индексировании.

Официальная справка по заполнению robots.txt: от Яндекс и от Google.

Ещё один файл-помощник для общения с роботами ПС – sitemap.xml. Он важен в первую очередь для сайтов с большим количеством страниц. Потому что, роботы ПС обходят сайт последовательно: зашел на страницу X, нашел на ней сслыку на страницу Y, перешел на Y, нашел ссылку на Z и т.д. При этом есть ограничение по количеству страниц, которое поисковик обходит на одном сайте за сутки (краулинговый бюджет). Поэтому, если на сайте хотя бы 100 страниц, разбитых на несколько категорий, лучше дать поисковику маршрут, по которому стоит обходить сайт. Этот маршрут задается в карте сайта sitemap.xml. Когда карта сайта есть – процесс добавления страниц в индекс проходит быстрее (и их обновление при переобходе тоже проходит быстрее).

В карту сайта добавьте полный список страниц ресурса и так же, как и robots.txt, загрузите в корневую папку, чтобы адрес был таким: https://www.ваш-сайт.ru/sitemap.xml.

А чтобы не заполнять карту в over 100 страниц вручную, воспользуйтесь специальными модулями, автоматизирующими создание карты сайта, которые есть у популярных CMS. Подробнее о создании карты сайта в формате XML читайте в справке Яндекса.

Настроить 404

404 ошибка

Фото с сайта geocities.jp

Когда пользователь вводит в адресную строку браузера URL (например, https://seo.ru/blog/), браузер обращается к серверу, хранящему эту страницу, и в ответ получает некий код состояния. Два самых частых кода состояния – это 200 OK и 404 Not Found: первый означает, что страница с запрошенным адресом действительно существует (и загружает эту страницу); второй – что страницы с запрошенным адресом не существует.

Если в адресную строку ввели адрес, страницы по которому не существуют (например, https://seo.ru/blok/), сервер должен ответить браузеру 404 Not Found, и в окне браузера должна появиться «заглушка», информирующая пользователя, что ему нужно уточнить адрес.

404 ошибка на сайте SEO.RU

Вот что происходит, когда на сайте не реализована функция грамотного ответа для несуществующих страниц:

  1. При переходе на несуществующую страницу пользователь попадает в тупик и покидает сайт;
  2. При переходе на несуществующую страницу поисковый робот думает, что она существует (ведь 200OK), и добавляет ее в индекс как дубль.

Поисковики ненавидят дубли (об этом читайте ниже, пункт «Избавиться от дублей контента, мета-тегов»). Поэтому обязательно настройте 404 для пустых страниц!

По умолчанию, популярные CMS уже оснащены функцией грамотного ответа для несуществующих страниц, но это не точно. Так что, лучше проверьте: введите в адресную строку неправильный адрес, проверьте, появляется ли «Страница 404», и проверьте код ответа (например, здесь: www.redirect-checker.org). Если что-то не так – срочно исправляйте.

Настроить 301 и 302 редиректы

Большая боль поисковых роботов – это редиректы (переадресации) в структуре сайта. В структуре – значит в тексте/меню/адресах картинок и проч., то есть, где-то в таком месте, на которое робот наткнется при обходе страниц. Каждый раз, встречая переадресацию в структуре, робот как бы спотыкается (сначала для него подгружается один URL, потом вдруг его перекидывает на второй), и вам засчитывается как бы негативный балл. Далее разберемся, где нужно и как правильно использовать редиректы, чтобы не огорчать поисковых роботов.

Если при оптимизации внутренних страниц пришлось заменить адрес (был непонятный site.ru/1/n1234, решили заменить на понятный site.ru/catalog/nazvanie-tovara-artikul-1234), то используйте 301-ый редирект. Тогда у страниц с редиректом, которые уже присутствуют в поисковой выдаче, поисковик проиндексирует новую страницу и заменит в выдаче адрес на новый.

Если адрес страницы меняется на время (например, на сайте ведутся технические работы, и все адреса должны направлять на страницу с заглушкой), то используйте 302-ой редирект. В этом случае поисковик не будет менять адрес страницы в поисковой выдаче на новый, и не будет индексировать новую страницу.

Ситуации, когда необходимо настроить 301-ый редирект:

Ситуации, когда необходимо настроить 302-ый редирект:

Важный нюанс: при настройке редиректов проследите, чтобы не возникало целой цепочки редиректов. Это ситуация, когда с исходного URL происходит редирект на URL№2, затем на URL№3 и так может быть до бесконечности. Чтобы проверить, настроен ли со страницы редирект (и какой), и нет ли цепочки редиректов, воспользуйтесь уже упомянутым сервисом www.redirect-checker.org.

Избавиться от дублей контента, мета-тегов

Дубли страниц, контента и мета-тегов недопустимы

Фото с сайта theinfosphere.org

Дубли – это плохо. Если у страницы на сайте есть дубль – из индекса (а уж тем более, из ТОПа) могут вылететь обе: и дубль, и оригинал. Если мета-теги на разных страницах совпадают, шансы выйти в ТОП снова стремятся к нулю. Поэтому дубли нужно отлавливать и беспощадно уничтожать.

Вот самые частые причины возникновения дублей контента:

Как противостоять «атаке клонов»:

  1. Грамотно настроить «главное зеркало» сайта.
  2. Удалить все лишние технические адреса страниц, возникшие случайно в ходе создания сайта.
  3. Избегать параметрических УРЛов, если уже настроены ЧПУ.
  4. При использовании UTM-меток указывать поисковикам каноничный адрес страницы.

Самый простой пункт – настроить «главное зеркало», т.к. это просто дело техники. Главное зеркало – это основной адрес сайта, например, у нашего сайта главное зеркало https://seo.ru/: с протоколом https, без www, и со слешем на конце. Соответственно, все остальные варианты адресов должны перенаправлять на этот, основной. Поисковики умеют и сами определять главное зеркало, но это не всегда срабатывает, особенно для больших сайтов с 1000+ страниц, и в индекс попадают дубли, что снижает вероятность выхода в ТОП. Подробнее о настройке главного зеркала сайта читайте в официальной справке Яндекса.

Удалить лишние технические адреса страниц уже сложнее, т.к. сначала их нужно обнаружить. С проверкой внутренней оптимизации сайта на предмет дублей здорово справляется специализированный софт, например, Screaming Frog SEO Spider или его бесплатный аналог Xenu. С помощью софта находим все «левые» адреса и оставляем только один каноничный.

Скриншот из screamingfrog

Фото с сайта www.screamingfrog.co.uk

Если у вас на сайте используются параметрические УРЛы, постарайтесь заменить их на ЧПУ (которые лучше индексируются). Если это невозможно (например, так уж реализован фильтр в каталоге товаров), то компромиссное решение – сделать копии страниц, но в формате ЧПУ. Например, https://www.site.ru/catalog/audio_and_digits/tv/AKAI/ — страница индексируется; а https://www.site.ru/catalog/audio_and_digits/tv/AKAI/?available=1&status=55395790&p=1&price_min=6590&price_max=244934 уже нет, и у поисковика не будет подозрения на дубли контента. Вторая страница не индексируется благодаря директиве Disallow: */?available в robots.txt.

Похожая ситуация с UTM-метками. Стандартные UTM-метки, используемые, например, в Яндекс.Директе, сам Яндекс уже и так распознает, и не пытается добавить в индекс; но адреса с UTM-метками, используемыми для других целей, могут быть ошибочно восприняты поисковиком как самостоятельные страницы. Решается проблема тоже директивой Disallow в robots.txt.

Кроме дублей контента частая проблема работ по внутренней оптимизации сайта – дубли мета-тегов. Они появляются при автоматическом заполнении мета-тегов, например, в каталогах товаров интернет-магазина. Отлавливать дубли мета-тегов следует так же, как и дубли контента: через специализированный софт. А когда отловили – остается их только уникализировать. Если дублей много, то работа это непростая, т.к. вручную теги на 1000+ страниц даже при большом желании обновлять слишком долго и дорого; так что, в таких случаях используется заполнение по маске. Например, если у вас магазин телевизоров, и 50 телевизоров Samsung называются одинаково в карточках товаров «Телевизор Samsung» (на 50 разных страницах совпадают title и h1), то надо их переназвать, включив в заголовок различающиеся параметры: тип телевизора, диагональ, цвет, даже артикул.

Seo’оптимизировать изображения

Если дубли, пустая sitemap.xml, неработающая 404 ошибка – это прямо «криминал» в глазах поисковиков; то неоптимизированные изображения – вроде административного правонарушения. Все же, практика показывает, что оптимизация картинок дает общий «плюс к карме», и позиции растут быстрее; и, конечно же, если картинки оптимизированы – с ними можно влезть в Яндекс и Google поиск по картинкам, что в определенных тематиках приносит дополнительный трафик.

5 советов по оптимизации изображений:

  1. Старайтесь публиковать уникальное изображение;
  2. Используйте сервисы сжатия для сокращения веса картинки в килобайтах (чем меньше вес, тем быстрее загрузится картинка);
  3. Обязательно заполняйте атрибуты alt и title, включайте в них слова и фразы, релевантные изображенному;
  4. Называйте файлы картинок в ЧПУ виде (по аналогии с УРЛами — лучше всего транслитом);
  5. Используйте разметку schema.org для картинок, которая поддерживается и Яндексом, и Google.

Наполнить сайт ключевыми словами

После того, как технически сайт готов, пора приступить к насыщению его семантикой, то есть релевантными словами/фразами, по которым вы будете его продвигать.

Чек-лист по семантике:

  • Емкое и релевантное семантическое ядро;
  • Уникальный, интересный, разноплановый контент;
  • Правильно заполненные seo-теги;
  • Грамотная перелинковка.

Найти ключевые слова (семантику)

Семантическое ядро сайта (согласно Википедии) – это упорядоченный набор слов, их морфологических форм и словосочетаний, которые наиболее точно характеризуют вид деятельности, товары или услуги, предлагаемые сайтом. Если упростить, то это набор тех фраз/слов, по которым вы хотите, чтобы ваш сайт находили пользователи поисковых систем.

Данный метод внутренней оптимизации укладывается в четыре этапа:

  1. Сбор ключевых слов вручную с помощью специальных сервисов: Яндекс.Вордстат (Подбор слов) и Google Adwords.
  2. Дополнение семантики ключевыми словами конкурентов (хорошо подойдет сервис SEMrush) и словами из готовых баз (например, База Пастухова).
  3. Удаление нецелевых и малоэффективных слов из образовавшегося списка.
  4. Кластеризация запросов. Продвигать на одной странице следует ту группу запросов, которая нацелена на решение конкретной проблемы пользователя. В результате кластеризации получается карта распределения запросов по сайту.

Создать контент согласно семантике

Качественный контент - половина успеха SEO

Фото с сайта kino.ru

Когда готова карта запросов, пора составить техническое задание для копирайтера.

В ТЗ копирайтеру нужно указать:

Общие seo-рекомендации к тексту, чтобы он был одинаково хорошо воспринят поисковиками и пользователями (отправьте вашему копирайтеру):

Правильно заполнить seo-теги (title, h1-h6, description, keywords, strong)

Следующий важный для внутренних факторов оптимизации шаг, когда уже выбрана семантика и написаны тексты, – публикация текстов вместе с seo-тегами (часто их называют «мета-теги»). Порой грамотно заполненные seo-теги влияют на скорость поднятия в ТОП-10 страницы сильнее, чем оптимизированные тексты.

Seo-теги – это title, “description”, “keywords”, h1-h3 заголовки. Пользователь видит title, h1-h3, а description, keywords фактически видны только поисковым роботам. Задача при заполнении seo-тегов: вписать в них ключевые слова в максимально точном вхождении, соблюдая все требования ПС, при этом сохранив адекватным вид seo-тегов, видимых пользователю. Все seo-теги должны уникальными и не пустыми.

Базовые требования к seo-тегам:

  1. Тег <title></title>. Важно хотя бы один раз включить точное вхождение ключевого слова. Для него выбрать самое значимое для страницы ключевое слово. Располагать ключевое слово нужно максимально близко к началу заголовка. Яндекс учитывает первые 15 слов в title, а Google первые 12.
  2. Мета-тег <meta name=»description» content=»» />. Поисковики часто используют кусок из текста с ключевой фразой в качестве описания сайта. Но иногда в качестве сниппета используется содержимое <description>. Приемлемый вариант описания: уникальный текст не более 160 символов, одно употребление точного вхождения ключевого слова. “description” должен состоять из пары предложений, описывающих содержимое страницы. Допустимо использовать рекламные слоганы, цифры, те или иные факты, призыв к действию. Если “description” будет совпадать с тегом title, поисковик будет его игнорировать.
  3. Мета-тег <meta name=»keywords» content=»» />. Этот мета-тег вторичен для поисковых систем и используется скорее как вспомогательный. Если его правильное заполнение слишком трудозатратно или вовсе невозможно – то лучше полностью отказаться от “keywords”.
  4. Тег <h1></h1>. Важно использовать здесь основное ключевое слово, но при этом содержимое <h1> не должно совпадать с <title>. Важно соблюдать иерархию заголовков: <h1>, потом <h2>, затем <h3> — и так далее.
  5. Теги <strong></strong>,<u></u>,<em></em> – выделение текста на странице. Эти теги помогают улучшить читабельность текста, но ими нельзя злоупотреблять. Можно не выделять ключевые слова, а визуально подчеркнуть стоит только главные мысли из текста.

Ручное заполнение данных мета-тегов для больших интернет-магазинов довольно затруднительно из-за множества страниц. Для этого процесс автоматизируют при помощи шаблонных масок. При помощи них, например, можно массово озаглавить тысячи страниц с товарами сайта и все его разделы.

Настроить перелинковку

Перелинковка (от слова “link” – «ссылка») означает установку обратной связи между страницами сайта: с главной страницы сайта в меню есть ссылка на страницу контактной информации – значит, имеет место быть внутренняя перелинковка между главной страницей и страницей контактной информации. Чем больше ссылок внутри сайта будет вести на одну страницу, тем больший вес получит она в глазах поисковых систем.

6 советов по организации внутренней перелинковки:

  1. Делайте анкоры уникальными и разнообразными.
  2. Используйте ключевые слова в анкорах.
  3. Ставьте не более одной ссылки на 1 000 знаков контента.
  4. Выделяйте цветом гиперссылки (классика: ссылки синего цвета, а текст черного).
  5. При внутренней оптимизации интернет-магазинов и больших порталов делайте массовую перелинковку похожих статьей/товаров и проч.
  6. Избегайте использования циклических ссылок – это ситуация, когда страница ссылается сама на себя.

Сделать сайт удобным

Вы расположили поисковиков к своему сайту, вышли по нужным запросам в ТОП – теперь нужно удовлетворить посетителя, дать ему кроме релевантного ответа на его запрос ещё и возможность комфортно использовать сайт.

Чек-лист по юзабилити:

  • Интерфейс удобный, отвечает задачам бизнеса;
  • Интересный и мультимедийный контент;
  • Скорость загрузки высокая;
  • Сайт мобилопригодный;
  • Учтены коммерческие факторы ранжирования.

Повысить юзабилити

Юзабилити сайта (от англ. “usability” – «удобство использования») – это уровень удобства использования интернет-сайта, которое позволяет пользователю легко и быстро найти нужную информацию.

Базовые факторы юзабилити сайта:

В юзабилити, конечно же, укладывается и вообще все, что может способствовать удобству восприятия информации: удобные формы обратной связи, формы заказа; качественный дизайн; удобство навигации, etc. Поэтому делайте сайты для людей.

Усилить коммерческие факторы

Коммерческие факторы играют большую роль в SEO

Фото с сайта imprenditoreglobale.com

«Коммерческие факторы» в контексте SEO – это все элементы сайта, которые указывают поисковым системам, что: а) сайт что-то продает; б) на сайте вся информация, важная потребителю для покупки, представлена полно, точно и в удобной для восприятия форме.

Список коммерческих факторов:

  1. Несколько способов связи: телефон, e-mail, skype и т.д.;
  2. Несколько телефонов и наличие номера 8-800;
  3. Контакты отдельных сотрудников + их фото;
  4. Схема проезда и прохода в офис;
  5. Схема на Яндекс.Картах/Google Maps;
  6. Живые аккаунты в соцсетях, наполняемые контентом;
  7. Отзывы пользователей;
  8. Указание цены (скидок, бонусных баллов);
  9. Информация о наличии на складе и доставке;
  10. Раздел «О компании»;
  11. Сертификаты, награды, свидетельства, дипломы;
  12. Миссия компании;
  13. Банковские реквизиты;
  14. Несколько пунктов самовывоза товара;
  15. Несколько способов доставки и описание условий;
  16. Возможность задать вопрос онлайн;
  17. Фото живого сотрудника клиентской поддержки;
  18. Оперативный ответ онлайн-консультанта;
  19. FAQ (ЧаВО);
  20. Callback-сервис;
  21. Раздел «Помощь»;
  22. Акции, распродажи, спецпредложения;
  23. Фильтры и сортировки для быстрого поиска товаров/услуг.

Чтобы выйти в ТОП-10 в коммерческой тематике, желательно, чтобы на сайте присутствовали все эти элементы.

Повысить CTR в поисковой выдаче

Чтобы все этапы, описанные выше, не пропали зря, и поисковики вознаградили вас высококонверсионным органическим трафиком, необходимо заранее позаботиться о привлекательности своих сниппетов.

Сниппет (англ. “snippet” — отрывок, фрагмент) – это фрагмент контента страницы, который показывается в поисковой выдаче. В сниппете всегда отображаются: заголовок страницы, адрес, краткое описание, фавикон; а также в сниппет могут попасть другие элементы: ссылки на другие популярные страницы сайта («быстрые ссылки»), контактная информация (адрес, телефон, часы работы), цена товара/услуги, рейтинг товара/услуги и другое в отдельных случаях.

Чек-лист по сниппетам:

  • Внедрена микроразметка Schema.org;
  • Загружен фавикон;
  • Настроены названия быстрых ссылок через Яндекс.Вебмастер и Google Search Consol;
  • Заголовки <title> страниц должны не только содержать ключевые слова, но и быть интересными;
  • Сайт зарегистрирован в Яндекс.Справочнике и Яндекс.Каталоге;
  • Подключены Товары и цены от Яндекс;
  • Подключен Яндекс.Маркет и Google Merchant Center.

Внедрить микроразметку Schema.org

Микроразметка – мощнейший инструмент, ведь с ее помощью можно даже вставить в сниппет информацию о цене. Микроразметка – это добавленные в код страницы специальные теги/атрибуты, которые указывают роботам ПС, что определенный элемент контента соответствует определенному типу сущности.

Микроразметкой Schema.org можно можно выделять для поисковиков следующую информацию:

А также отзывы, страницы с видеороликами, фильмами, музыкой и др.

После нанесения микроразметки ПС будет выводить дополнительную информацию в сниппет страницы, что поможет увеличить CTR.

Подробнее о назначении и принципах микроразметки читайте в другой нашей статье: «Полное руководство по работе со структурированными данными».

Использовать все приемы повышения CTR

Сниппеты, вообще-то, не подвергаются гибкой настройке; но есть лайфхаки, которые помогут подкрутить их так, чтобы CTR полз вверх.

  1. Обязательно загрузите на сайт уникальный фавикон, который будет привлекать внимание.
  2. Добавьте «хлебные крошки», проследите, чтобы структура сайта была понятна и логична. Грамотная структура, наличие «хлебных крошек», а также частые посещения помогут превратить отдельные страницы в «быстрые ссылки», которые выводятся прямо в сниппете:

хлебные крошки

После того, как поисковик присвоит сайту «быстрые ссылки», можно будет настроить их отображение через Яндекс.Вебмастер и Google Search Consol.

Подробнее о том, что такое «быстрые ссылки» и как поисковики их выбирают, читайте в справке Яндекса и справке Google.

  1. В заголовок <title></title> вставляйте не только ключевые слова; делайте заголовки интересными. Заголовок должен «зацепить» пользователя, он так же важен, как важны рекламные заголовки в контекстных объявлениях.
  2. Добавьте сайт в Яндекс.Справочник и Яндекс.Каталог. И укажите все адреса компании, это позволит получить расширенные сниппеты с указанием адреса организации. А через Яндекс.Каталог еще можно задать регистр имени домена (вместо seo.ru указать SEO.ru). UPD: с 20 декабря 2017 года Яндекс.Каталог прекратил принимать заявки.
  3. Сниппет, когда сайт добавлен в Яндекс.Справочник и Яндекс

  4. Подключите сервис Товары и цены от Яндекса, если у вас интернет-магазин или сайт услуг, где точно обозначены цены. Это позволит выделиться на фоне конкурентов в поисковой выдаче и увеличить свой CTR, особенно если у вас есть преимущество по цене.
  5. Используя Яндекс.Маркет и Google Merchant Center можно улучшить сниппеты интернет-магазина (влияние на сниппет похоже с сервисом «Товары и цены» от Яндекса).

Сниппет, когда сайт добавлен в Яндекс Товары и Цены

seo.ru

1. Используйте человеко-понятные URL

Google заявил, что первые 3-5 слов в URL получают максимальный вес.

Делайте адреса страниц короткими и удобными. И всегда включайте в них ключевые слова. Другими словами:

Избегайте некрасивых адресов: blogarbik.ru/?p=1306

Или длинных: serpstat.com/ru/blog/kak-izbavitsya-ot-musornih-klyuchevih-fraz-pri-prodvizhenii-v-yandekse-s-pomoshyu-novogo-instrumenta-serpstat/

2. Начинайте Title с ключевого слова

Тег Tiltle – это наиболее значимый фактор внутренней оптимизации.

Чем ближе ключевое слово расположено к началу, тем больше веса оно имеет для поисковых систем.

Не нужно все время начинать Title с ключевого слова. Но если есть запрос, который для вас важен – поместите его ближе к началу Title.

Важный фактор внутренней оптимизации - ключевое слово в начале TITLE

3. Добавьте в Title слова, часто используемые с ключевым

Использование описаний, таких как «2016», «лучший», «руководство» или «обзор» позволит вам ранжироваться по низкочастотному хвосту запросов.

4. Поместите заголовок поста в блоге в тег H1

H1 – это «тег заголовка». Большинство систем управления контентом (например, WordPress) автоматически добавляют тег H1, формируя его из названия поста. Если у вас это так, то не о чем беспокоиться.

Но в некоторых темах эти настройки изменены. Посмотрите исходный код сайта, чтобы убедиться, что название страницы размещено в H1.

«Я считал, что WordPress помещает заголовки моих статей в H1… пока не посмотрел исходный код сайта.

Я понял, что некоторые темы WordPress используют тег H1 для увеличения размера текста. В одной из тем мой адрес электронной почты был помещен в тег H1.

Вам стоит проверить HTML-код, чтобы убедиться, что у вас только один тег H1 на страницу. Он должен содержать ключевое слово».

Брайан Дин

5. Используйте мультимедийный контент

На одном тексте вы далеко не уедете. Цепляющие картинки, видео и диаграммы снижают показатель отказов и увеличивают время, проводимое на сайте, а это два самых важных поведенческих фактора, на которые Google обращает больше всего внимания.

Также это увеличивает воспринимаемую ценность контента, люди будут охотнее на него ссылаться.

6. Поместите подзаголовки в тег H2

Включите ключевое слово как минимум в один подзаголовок… и заключите его в тег H2.

Определенно, это не заменит, но и не испортит внутреннюю оптимизацию. Эксперименты показывают, что заключение ключевых слов в тег H2 помогает немного продвинуться.

7. Поместите ключевой запрос в первые 100 слов

Используйте ключевую фразу в первых 100-150 словах статьи.

Скорее всего, у вас так и получается естественным путем. Но многие люди начинают посты с длинного извилистого введения… и употребляют ключевое слово ЗНАЧИТЕЛЬНО позже. Вместо этого включите ключевую фразу в первую сотню слов. Это помогает Google понимать, о чем ваша страница.

Ключи в первых словах текста - хорошая стратегия внутренней оптимизации страницы

8. Используйте адаптивный дизайн

В 2015 Google ввел санкции против сайтов, неадаптированных под мобильные устройства. И скорее всего, со временем они станут еще более суровыми. Если вы хотите сделать сайт удобным для просмотра на мобильных устройствах, используйте адаптивный дизайн.

«Я удивлюсь, если ваш сайт до сих пор не адаптирован под мобильные устройства. Если это так, возможно, стимул в виде большего органического трафика заставит вас предпринять шаги в этом направлении.

Если вы планируете адаптировать сайт под мобильные устройства, я очень рекомендую адаптивный дизайн. Я считаю такой вариант идеальным для пользователей. К тому же, его предпочитает Google».

Брайан Дин

9. Используйте исходящие ссылки

Это простая стратегия белого SEO, которая позволяет получить больше трафика. Исходящие ссылки на связанные страницы помогает Google определить тематику вашей страницы. И показывает, что она – источник качественной информации.
Отсутствие исходящих ссылок – первая ошибка, которую делают вебмастера. Лучше ставить 2-4 внешние ссылки на каждые 1000 слов. Это хорошее правило для большинства сайтов.

Помните о том, что сайты, на которые вы ссылаетесь, влияют на ваш. Поэтому убедитесь, что ссылки стоят по возможности на авторитетные ресурсы.

10. Используйте внутренние ссылки

Внутренняя перелинковка очень ценна. Ставьте 2-3 ссылки в каждой статье.

Если вам нужен хороший пример, как делать внутреннюю перелинковку – посмотрите на Википедию. Они добавляют анкорные ссылки куда только возможно:

Перелинковка на страницах Википедии

Они могут себе позволить ставить 50 и больше внутренних ссылок, потому что это Википедия. Но лучше и безопаснее при публикации новой статьи ставить ссылки на 2-5 предыдущих статей.

11. Увеличьте скорость загрузки сайта

Google официально признал, что скорость загрузки сайта является фактором ранжирования. Вы можете ее увеличить при помощи CDN, сжав изображения или перейдя на более быстрый хостинг.

Убедитесь, что ваш сайт загружается не дольше, чем 4 секунды: MunchWeb выяснили, что 75% пользователей не возвращается на сайт, который загружается медленнее, чем за 4 секунды.

Вы можете проверить свой сайт при помощи превосходного инструмента GTMetrix.com.

CDN и плагины для кэширования – это хорошо, но лучшее, что вы можете сделать для ускорения загрузки сайта – вложиться в премиум хостинг. 5$ в месяц – скромная плата за хостинг. Провайдер не будет беспокоиться о хорошей скорости загрузки.

«Я уменьшил скорость загрузки с 6 до 2 секунд, сменив 5-долларовый тарифный план на превосходный хостинг. С точки зрения конверсии и SEO, возврат на инвестиции от премиум хостинга невозможно превзойти.»

Брайан Дин

12. Используйте семантически связанные ключевые слова

LSI keywords – это синонимы, которые использует Google для оценки релевантности страницы (и, возможно, ее качества). Добавляйте их в каждую статью.

Можно не заморачиваться по поводу семантически связанных ключевых слов, если вы пишете действительно объемный контент. Большой объем контента увеличивает вероятность естественного использования LSI keywords.

Но если вы хотите быть уверенными на 100% в том, что вы их используете, введите ваш ключевой запрос в поиск Google и промотайте вниз до блока «Вместе с … часто ищут» в конце страницы.

Что еще ищут в Google вместе с запросом по внутреннему seo

Вставьте одну или две фразы оттуда в статью.

13. Оптимизируйте изображения

Убедитесь, что как минимум одно название файла изображения содержит ключевое слово (например, on_page_SEO.png) и что оно присутствует в ALT тексте.

Еще одна причина, чтобы оптимизировать изображения для SEO: это дает поисковые системам еще один ключ к тому, о чем страница… что может помочь в ранжировании.
Когда Google видит изображения с Atl текстом «голубые виджеты» и «зеленые виджеты», это показывает, что страницы про виджеты.

14. Используйте кнопки шаринга в социальных сетях

Социальные сигналы прямо не влияют на позиции сайта. Но они генерируют больше просмотров контента.

А чем больше просмотров вы получаете, тем больше вероятность, что кто-то разместит на вас ссылку. Поэтому не стесняйтесь размещать социальные кнопки на видное место сайта.

Исследование компании BrightEdge показало, что размещение социальных кнопок на видном месте увеличивает количество расшариваний до 700%.

Социальные сигналы – не основная часть алгоритма ранжирования Google. Но перепосты на Facebook, Twitter или в Google+ могут косвенно улучшить позиции.

15. Публикуйте объемный контент

Сеошная поговорка «чем длиннее, тем сильнее» была подтверждена исследованием, которое показало, что длинный контент ранжируется значительно лучше на первой странице выдачи Google.

Соотношение кол-ва текста на странице и позиции в ТОПе гугла

Ориентируйтесь как минимум на 1900 слов для каждой публикуемой вами статьи.

«Как правило, я проверяю, чтобы мои статьи были объемом 1000+ слов содержательного, полезного контента.

Длинный текст помогает ранжироваться лучше по ключевым словам и приносит низкочастотный трафик… одни плюсы!».

Брайан Дин

16. Увеличьте время до возврата к результатам поиска

Если пользователь, придя на посадочную страницу, немедленно нажимает кнопку «назад», это очень явный сигнал для Google: это страница низкого качества. Поэтому Google использует dwell time, чтобы определить на нем качество контента.

Увеличьте время, проводимое на сайте, создавая объемный увлекательный контент, который люди захотят читать.

Смотрите также причины, по которым посетители покидают ваш сайт.

17. Качественный контент

Вероятно, вы уже устали об этом слушать. У поисковых систем нет способов напрямую определить качество контента, зато есть много косвенных методов, например:

  • Повторные посетители
  • Закладки в Хроме
  • Время на сайте
  • dwell time
  • Брендовые запросы

Другими словами, отличный контент точно вам не повредит. Поэтому нет причин отказываться от использования хорошего материала каждый раз при публикации.

18. Поощряйте комментарии в блоге

Раньше мы считали, что сайты с большим количеством качественных комментариев получают небольшое преимущество в результатах поиска Google.

Но Google заявил, что растущая, активно общающаяся аудитория на сайте может существенно помочь в ранжировании.

Google подтверждает, что они используют сигнал активности комьюнити на сайте

Поощрять людей комментировать блог – умный ход.

19. Максимизируйте CTR в выдаче

Скорей всего Google использует показатель кликабельности сниппета в выдаче как сигнал ранжирования. Но даже если это не так, все равно оптимизируйте CTR сниппета. Больше кликов = больше трафика.

20. Оптимизируйте уровень вложенности

В 90% случаев главная страница сайта является наиболее авторитетной. А это значит, что она концентрирует максимум PageRank для дальнейшего его распределения по страницам.

Другими словами, чем ближе страница к главной, тем выше она будет в топе Google. То есть, необходимо уменьшить количество кликов от главной страницы на те, которые вы пытаетесь продвигать.

Если для какой-то из страниц нужно более 3х кликов от главной, то она теряет кучу веса. Поэтому убедитесь, что приоритетные страницы находятся не более, чем в 3х кликах от главной.

Пройдитесь теперь по этому чеклисту для проверки внутренней оптимизации каждой странички своего сайта. И обязательно поделитесь им со своими друзьями!

devaka.ru


You May Also Like

About the Author: admind

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.