Внутренняя оптимизация сайта самостоятельно

Оптимизация структуры сайта

Многое зависит от дизайна, но следует понимать, что слишком неординарный дизайн может вызвать недоумение у посетителей и они не смогут ориентироваться в меню навигации. Поэтому для коммерческих или социальных проектов, рассчитанных на широкую аудиторию, используется оригинальный логотип и шапка сайта, но меню и структура обычно стандартные, то есть выглядит как на большинстве подобных сайтов.

Например, большинство интернет-магазинов давно похожи на amazon.com по своей простоте, а самые известные в мире социальные сети Фейсбук и ВКонтакте по принципу структуры и даже на вид будто «близнецы». Это как бы намекает, что никто не хотел делать новое непривычное для навигации меню, ведь все хотят иметь структуру, привычную целевому пользователю. В коммерческом проекте на первом месте юзабилити, то есть удобство и простота навигации для рядового пользователя. Все просчитывается так, чтобы любой пользователь интуитивно понимал как ему купить, заказать, найти, посмотреть , послушать, наконец, оплатить и т. д.


Если же проект некоммерческий и дизайнера «выпускают на волю», может получится вообще круглый необычный и даже анимированный дизайн с кнопками в самых неожиданных местах. Таким образом, посетитель ощущает себя на своеобразном аттракционе, в поисках нужной информации нажимая на все подряд. Многие уйдут, но самые упорные целевые посетители останутся и оценят оригинальность, к примеру, этого сайта www.jonathanyuen.com

primer-originalnogo-sajta

Редкий гость будет десять раз перелистывать каталог в поисках нужной страницы. Роботы ПС тоже не любят страницы вдалеке от главной и индексируют их неохотно, долго. Иногда страницы, сильно удаленные от главной, вообще оказываются вне индекса на многостраничниках. Максимальный уровень вложенности страниц — третий или четвертый: чем дальше страница от главной — тем меньше шансов на индексацию.

Карта сайта и настройка robots.txt

Чтобы поисковики максимально быстро индексировали все новые страницы, необходимо создать карту сайта. Есть два варианта — это карта сайта HTML и Sitemap XML. Причем лучше всего сделать оба вида Sitemap, поскольку считается, что Гугл быстрее индексирует именно карты в виде структуры HTML. Однако, карта сайта XML имеет свои преимущества, ведь кроме адресов в ней прописаны даты изменения страниц и их приоритеты.


Файл robots.txt должен быть в корневом каталоге каждого сайта. Это стандарт исключений для роботов ПС, он дополняет Sitemap и также облегчает индексацию страниц. С другой стороны, именно robots.txt позволяет запретить индексацию ненужных страниц.

Два основных правила при настройке robots.txt:

  1. Никогда и ничего нельзя менять, если вы не понимаете, что делаете. Иначе может заблокироваться индексация нужных страниц или целые разделы каталога.
  2. Обязательно пропишите в документе robots.txt адрес Sitemap в виде команды: Sitemap:  http://site.ru/sitemap/

Создать robots.txt можно самостоятельно в блокноте, но если вы не можете отличить директивы Disallow и Allow, то лучше использовать генератор robots.txt и Sitemap. Вы можете составить карту сайта самостоятельно с помощью простого генератора, например, www.seolib.ru/help/generators/, там же есть генератор robots.txt. Готовый файл Sitemap необходимо загрузить в Яндекс.Вебмастер и Google Webmaster.

Внутренняя оптимизация страниц сайта

После индексации всех страниц роботы ПС пытаются избавиться от дублей, ведь нередко на разных страницах одного домена контент имеет схожее содержание. К примеру, в интернет-магазине множество разных, но однотипных товаров одного бренда, и Гугл выкидывает из индекса все схожие страницы, оставляя одну «каноническую» (на усмотрение алгоритмов робота). Чтобы самостоятельно указать канонический URL, нужно прописать тег rel=»canonical» в раздел <head> на всех неканонических страницах или просто прописать атрибут  Link rel=»canonical» в HTTP заголовке канонической версии.


Внутренняя оптимизации сайта подразумевает создание такой структуры, которая понятна как живым пользователям, так и роботам поисковых систем (ПС). Многостраничные порталы должны иметь систематизированные разделы, чтобы все страницы были не дальше 3-4 кликов от главной. Очень желательно использовать навигационную цепочку («хлебные крошки») и ЧПУ («Человеку Понятный Урл»), но не все скрипты CMS имеют такой функционал.

hlebnye-kroshki

Перелинковка страниц — важный фактор внутренней оптимизации, повышающий позиции в выдаче ПС, поскольку вес даже внутренних ссылок дает возможность роботу ПС определить, как ранжировать поиск. Именно поэтому чаще всего в поиске ПС выпадают разделы каталогов, ведь на них идут «сквозняком» ссылки с главной. Перелинковка делается разными способами, иногда за счет добавления блоков ссылок на «похожие страницы», а также в виде контекстных ссылок в статьях. Главное, самые важные разделы «усилить» внутренними ссылками и при изменениях структуры следить за исправлением ссылок перелинковки, удалять устаревшие нерабочие ссылки.

seranking.ru

Анализ конкурентов


Процесс внутренней оптимизации сайтов начинается с анализа конкурентов. Обычно в самом начале работ уже известен некоторый перечень сайтов конкурентов. Когда этого перечня мало, можно воспользоваться такими сервисами как SemRush, SpyWords, Advisor.Sape и найти их еще пару штук.

Обычно хватит для конкурентного анализа 5-6 сайтов. Цель такого анализа: снять различные количественные и качественные характеристики таких сайтов. Снимают обычно такие параметры, как: тиц, pr, возраст сайта, количество проиндексированных страниц, число главных страниц в выдаче, наличие запроса в точной форме в title  и другие. Как правило, результаты анализа оформляются в виде наглядной таблицы.

По результатам анализа получается конкретный список тех работ, который нужно будет провести, чтобы подтянуть сайт до уровня конкурентов и возможно в чем-то даже обогнать.

Составление семантического ядра

Следующий этап — это составление семантического ядра по которому и будут продвигаться страницы сайта в зависимости от выбранной стратегии: по позициям или по трафику. Дело в том, что если продвижение осуществляется по позициям, то и семантическое ядро обычно не большое (до 100-200 слов). Если речь идет о трафиковом продвижении, то нужно подбирать семантическое ядро с количеством фраз от 1000 в зависимости от тематики.


Здесь основной акцент нужно сделать на работу с ВЧ, СЧ и НЧ запросами, которые разделяются между собой в зависимости от частоты показов и тематики. Например в тематике «еда» — ВЧ имеют частоты от 100 тыс показов в месяц, а в тематике «продвижение сайтов» уже от 2000. Нет единых численных значений — помните об этом. Как правило, СЧ имеют частоту в 3-10 раз ниже чем ВЧ, а НЧ в 3-10 ниже чем СЧ.

Высокочастотные запросы очень плохо подходят для молодых сайтов, так как они почти всегда одновременно и максимально конкурентные. В основном работают с СЧ и НЧ запросами — они более целевые и их легче продвигать.

Основные стадии составления семантического ядра следующие:

  • сбор фраз из всевозможных источников (Яндекс метрика, Google Analytics, Liveinternet, SemRush, SpyWords, База Пастухова и другие);
  • очистка полученного списка от нецелевых слов и пустышек;
  • разбиение запросов на продвигаемые группы по принципу решения проблемы пользователя. Если группа запросов решает одну и ту же проблему пользователя (информационную потребность), то мы делаем вывод, что их нужно продвигать на одной странице.

Отлично автоматизировать процесс сбора семантического ядра можно в программе Key Collector.

Размещение запросов на сайте + выбор посадочной страницы

После того как мы собрали семантическое ядро, провели его чистку и сформировали продвигаемые группы мы должны подумать о размещении запросов на сайте. Для этого нужно подобрать посадочные страницы. Но в большинстве своем многие группы запросов не будут иметь существующих посадочных страниц. Тут выход один: либо такие группы не учитывать, либо создать новую целевую страницу.

Конечно, лучше размещать запросы на существующие страницы, так как они уже имеют возраст и накопленные поведенческие факторы. В таком случае запросы будут продвигаться легче и быстрее.

Минусом же новых страниц является отсутствия фактора доверия со стороны поисковых систем и возраста, а это в нынешних реалиях очень сильно сказывается на seo. Но есть и плюс — это постоянное расширение списка продвигаемых запросов и возможность оперативно подхватить текущие трендовые запросы и их тоже разместить.

Работа со структурой сайта

Под структурой сайта понимается совокупность всех страниц сайта с учетом их взаимосвязи между собой. Основные разделы в структуре сайта выделяются путем создания папок (директорий) на сервере, либо с помощью соответствующих записей в базе данных.

Пример рубрик:

  • /wordpress/;
  • /baza-znanij-seo/.

Пример страниц: 

  • /baza-znanij-yuzabiliti/yuzabiliti-internet-magazina.php; (допускается как использовать расширение .html, .php так и не использовать как в примере ниже)
  • /wordpress/nastrojka-gravatara.html;
  • /baza-znanij-seo/vnutrennyaya-optimizaciya-sajta/.

Инструкция по созданию правильной структуры сайта:

  1. Самое первое, что мы должны сделать — это сформировать список seo-запросов;
  2. Далее по основным из них (самым частотным) нужно провести анализ структуры конкурентов. Здесь вам нужно проанализировать конкретные страницы конкурентов на предмет того, как они сделаны, как оформлены. Являются ли они, например, разделом с перечислением, например, товаров или просто отдельной страницей (карточкой товара). Нужно найти какие-либо части, блоки, модули, сервисы, которые реализованы у конкурентов, но не реализованы у вас. Если они представляют ценность, то, в конечном итоге, реализовать. Также нужно посмотреть количество страниц разных типов и сравнить с вашим. Например, если у конкурента около 5000 карточек товара, то и у вас должно быть приблизительно такое же количество;
  3. Далее беремся за анализ ЧПУ конкурентов. Это может быть и анализ того, какие ключевые слова встречаются в урле и среднее количество этих слов, а также и уровень вложенности. Обычно — это шаблонные решения. И если они удачны, то необходимо подумать о реализации у себя.
  4. Провести учет иерархии разделов и подразделов. Тут нужно посмотреть как реализована иерархия в меню сайта. Посмотреть как реализовано тегирование, которое очень неплохо позволяет реализовать эту самую иерархию.

  5. Раскрыть все основные потребности на сайте. Под каждую основную потребность необходимо создать раздел, а внутри этого раздела будут подразделы или конечные детальные страницы.
  6. Возможность масштабирования. Если в процессе разбиения мы получаем ситуацию, когда в одном разделе существует более сотни подразделов — то это неправильно. Нужно изначально этот раздел разбить на несколько десятков подразделов, каждый из которых внутри будет разбиваться также на несколько десятков. Это будет более логично и удобно для восприятия.

Seo-теги: title, h1-h6, description, keywords, strong

После того, как известен список продвигаемых ключевых слов, можно приступать к оптимизации seo-тегов для каждой страницы сайта: title, h1-h6, description, keywords, strong. Здесь у каждого свои секреты. Но есть и общие требования:

  • не переспамливать ключевыми словами;
  • Yandex учитывает 186 слов в title, а Google — 12;
  • тег title должен содержать продвигаемый запрос в точной форме;
  • h1 должен быть употреблен в исходном html коде только 1 раз и не должен содержать классов и стилей;
  • необходимо соблюдать иерархию заголовков: сначала h1, потом h2, затем h3 — и так далее;
  • содержимое h1, по возможности, не должно совпадать с title;

  • старайтесь выделять тегом strong важную мысль, а не ключевые слова;
  • максимальная длинна description, которую учитывает Яндекс — 160 символов, а Google — 140;
  • description должен содержать 2-3 предложения, которые описывают содержимое страницы. Можно использовать цифры, факты, рекламные слоганы, призывы к действию и т.д;
  • мета тег дескрипшен не должен совпадать с тегом title,  иначе поисковая система будет его игнорировать.

Для упрощения работы с seo-тегами я рекомендую утилиту Screaming Frog SEO Spider, которая после сканирования выведет всю необходимую информацию по каждой странице сайта в удобном виде.

Для интернет-магазинов или порталов, ввиду большого количества страниц, ручная работа по заполнению данных мета-тегов весьма затруднительна, поэтому здесь процесс автоматизируют, используя различные шаблонные маски.

Работа с исходным html кодом

  • На данном этапе внутренней оптимизации сайта необходимо сделать так, чтобы код был валидным. Это будет почти 100% гарантией того, что сайт будет хорошо открываться в браузерах. Также есть исследования, которые говорят о том, что валидный код дает небольшой бонус при ранжировании.
  • В рамках данного этапа важно проследить за тем, чтобы все стили были вынесены из исходного html кода в отдельный CSS файл.
  • Все JS скрипты нужно вынести в отдельный файл.
  • Важно работать в целом над тем, чтобы убрать лишние теги, пробелы — это позволит уменьшить вес страниц сайта в килобайтах.
  • Оптимальный размер страницы — до 100 килобайт.
  • Также нужно позаботиться о том, чтобы ваш HTML код был лишен CSS, JS и шрифтов, которые не используются на данной конкретной странице — это позволит ускорить загрузку.
  • Основные seo-теги — title и дескрипшен нужно выводить сразу же после открывающегося тега <head>.

Наличие ЧПУ

Как известно, поисковики дают бонус в ранжировании, если урлы будут представлены в человеко-подобном виде (ЧПУ). Лучше всего использовать транслитерацию, но неплохо работают и английские переводы слов. Здесь есть один момент: ЧПУ урл не должен быть слишком большим. Есть даже такой фактор ранжирования в Google, как длина урла. Эксперты склоняются к выводу, что оптимальная длинна ЧПУ урла должна быть не более 130 символов.

Хороший пример ЧПУ урла для запроса «продвижение сайтов в гугл» → /prodvizhenie-sajtov/google/

Требования к ЧПУ:

  • содержание 1-3 основных тематикозадающих слов из запросов;
  • корректность с точки зрения поисковой системы;
  • как можно более меньшая длина урла;
  • иерархическое дополнение друг друга.

Для ручного создания правильных и корректных с точки зрения поисковиков ЧПУ урлов Вы можете воспользоваться моим сервисом транслитерации урлов.

Улучшение индексации сайта

Цель улучшения индексации сайта — это сделать так, чтобы мы удалили из базы поисковой системы бесполезные страницы сайта и добавили полезные. Для выполнения этой задачи мы первым делом должны проверить индексацию каждой существующей страницы сайта. Лучший инструмент для этой задачи, на мой взгляд, сделала команда сервиса Seranking. Он находится здесь. Да, инструмент платный, но зато быстрый и удобный.

По результатам проверки мы можем выяснить, что часть страниц не попала в индекс, а часть попала. Далее мы должны удостовериться, что проиндексированные страницы не являются мусорными. Если часть из них являются все же мусорными, то мы должны предпринять меры по их удалению из базы поисковой системы. Для этого существует файл robots.txt, meta name=»robots» и link rel=»canonical».

Также в индекс могут не попадать и нормальные страницы. Причины этого следующие:

  • Страница находится более чем в 3 кликах от главной;
  • Отсутствие уникального контента;
  • Дублирование заголовков;
  • Долгое время загрузки страницы.

P.S. Для реально ускорения индексации сайта в яндексе нужно использовать инструмент переобход страниц, а в гугле аддурилку.

Составление корректного robots.txt

Файл для поисковых роботов robots.txt очень важен для корректной внутренней оптимизации. С помощью директив Disallow (запретить) и Allow (разрешить) можно управлять сканированием разделов сайта. Корректность составления данного файла можно проверить с помощью сервиса Яндекса здесь.

Из других основных директив следует отметить:

  • User-agent: — указывает для какого робота будут действовать директивы секции;
  • Host: — указывает основное зеркало (работает только в секции для поискового робота Яндекс);
  • Sitemap: — позволяет указать урл по которому расположена XML карта сайта.

Пример составления файла для cms WordPress можете посмотреть у меня на блоге.

Правильная расстановка meta name=»robots» и link rel=»canonical»

Для правильного индексирования сайта и распределения весов нужно правильно расставить meta name=»robots» и link rel=»canonical».

Если страница закрыта от индексации с помощью данного метатега, то важно, чтобы она не была одновременно закрыта в robots.txt. Помните, что robots.txt управляет сканированием, а meta name=»robots» индексированием.

Для указания основной страницы используйте link rel=»canonical». Данный атрибут целесобразно применять тогда, когда нужно поисковой системе явно указать какая из двух страниц с одинаковым содержимым является приоритетной. Я рекомендую все же это делать не с помощью canonical, а с помощью 301 редиректа.

Создание автоматически генерируемых sitemap.xml для обычных постов, картинок, видео

Карта сайта — это ничто иное как обычное содержание, которое должно именно индексироваться.

На сайте должен присутствовать автоматически обновляемый файл sitemap.xml. Различают sitemap.xml для постов, для картинок и видео. Стоит отметить, что сайтмап для картинок и видео поддерживает лишь Google, а Яндекс нет. При составлении данного файла важно учитывают следующие моменты:

  • любая новая страница, картинка или видео должны сразу же попадать в соответствующий sitemap.xml;
  • если страница запрещена в robots.txt или запрещена мета-тегом, то такая страница не должна присутствовать в сайтмапе;
  • лучше всего настроить автоматическую генерацию карты сайта средствами вашей CMS;
  • идеальный случай — это когда в файле sitemap.xml присутствуют лишь непроиндексированные url.

Тег noindex (скрытие текстового содержимого в коде страницы)

Тег noindex позволяет скрывать часть текста в коде страницы от индексирования. То есть все, что находится внутри данного тега не учитывается при текстовом ранжировании. Работает только в поисковой системе Яндекс. Тег можно ставить в любой порядке и в любом месте кода, так как он не является вложенным.

Пример использования тега:

<!--noindex-->текст, который нужно скрыть от индексации<!--/noindex-->

Тег используют если:

  • на странице большое число повторов, например, характеристик товара;
  • на странице используется неуникальный контент, который вы где-то позаимствовал.

В Гугле тег noindex, к сожалению, не работает. Для закрытия контента в гугле и яндексе одновременно используйте технологию seohide.

Атрибут rel=»nofollow»

Атрибут rel=»nofollow» присваивается ссылкам и служит для закрытия их от индексации поисковыми системами Яндекс и Google. Раньше с помощью данного атрибута управляли pagerank (статическим весом), который является одним из алгоритмов ссылочного ранжирования. Сейчас это не имеет смысла в связи с изменением учета nofollow поисковыми системами. Другими словами, для внутренней перелинковки смысла использовать nofollow нет.

Но в тоже время использовать данный атрибут для внешних ссылок смысл есть, например, в случае закрытия исходящих ссылок в комментариях.

Пример использования:

<a rel="nofollow" href="урл ссылки, который нужно закрыть от индексации">анкор ссылки</a>

Борьба с дублированием контента

Таблица: Причины дублирования страниц и как решать их:

Причины дублирования контента Как исправлять проблему
Сайт доступен как по адресу site.ru, так и по адресу www.site.ru Нужно настроить главное зеркало в вебмастерах поисковых систем. В директиве host файла robots.txt указать главной зеркало для ПС Яндекс. Настроить 301 редирект на одну любую версию сайта (с www либо без www).
Сайты доступны со слешем (/) на конце и без слеша. Настройка 301 редиректа на одну любую из версий.
Одинаковое содержимое доступно по адресу site.ru, site.ru.html, site.ru.php.
Параметрический урл и ЧПУ. Одна и та же страница доступна по адресам вида: site.ru.php?=category=100 и, например, site.ru/seo/ankor/.
Один и тот же сайт открывается как по https так и по http протоколу.
Использование UTM-меток и реферальных ссылок. С помощью link rel=»canonical» на всех копиях страниц указываем главную страницу, которую нужно индексировать.

Внутренняя перелинковка

Внутренняя перелинковка продолжает сейчас иметь важное значение при оптимизации страниц сайта. Принципы и формы перелинковки различны для сайтов информационной и коммерческой направленности. Одно скажу, что стандартные схемы типа кольца, куба и прочие не работают в настоящее время. Если их использовать можно даже попасть и под санкции поисковых систем.

Из практических советов:

  • важно следить за максимальной уникальностью и разнообразностью анкор листа. Отлично себя зарекомендовала теговая перелинковка в интернет-магазинах;
  • работает и классическая контекстная перелинковка из статей. Но нужно ставить не более 1 линка на 1000 знаков контента. Анкоры при этом делаем разнообразные с тематическим содержимым;
  • для работы с внутренней перелинковкой вам обязательно нужно освоить метод скрытия контента через js и отдельно технологию seohide;
  • гиперссылки необходимо цветом отделить от основного контента (пример — ссылки синего цвета, а текст черного);
  • для больших порталов и интернет-магазинов нужно обязательно разрабатывать свое комплексное решение по перелинковке.

Циклические ссылки

При правильной перелинковке сайта нужно избегать использования циклических ссылок. Циклическая ссылка — это когда страница ссылается сама на себя.

Пользователю такая ссылка точно не нужна, поскольку он уже находится на этой странице — для чего ему с этой же страницы переходить на неё же? Вывод: циклические ссылки нужно удалять.

Мероприятия по увеличению скорости загрузки сайта

Если вы хотите, чтобы внутренняя оптимизация сайта давала результат, то прилагайте усилия, чтобы ваш ресурс загружался максимально быстро. Google и Яндекс официально признали, что скорость загрузки является фактором ранжирования. Важно сделать так, чтобы время загрузки страницы сайта не было больше 2 секунд. Советы следующие:

  • Чтобы узнать, что именно нужно сделать, чтобы увеличить скорость загрузки страницы сайта, можно воспользоваться официальным инструментом от Google — PageSpeed Insights.
  • Среди основных моментов на которые нужно обращать внимание — это оптимизация размера картинок, сжатие HTML и CSS кода, вынос JS перед закрывающим тегом BODY, включение Gzip сжатия, использование кэша браузера и многое другое.
  • Перейдите на хостинг, сервера которого находятся физически ближе к вашему целевому посетителю.
  • Набирает популярность технология AMP для мобильных страниц. Если есть техническая возможность, то ее лучше внедрить, так как она отлично ускоряет загрузку.

Коды ответа сервера

Общее: на данном этапе нам нужно проверить корректность отдачи сервером нужных кодов в ответ на запрос сайта с браузера. Проверить код ответа сервера вы можете с помощью плагина Firebug для Firefox или сервисом от Яндекса.

Код ответа 200 OK

На данном этапе мы должны удостовериться, что при вводе в браузере любой реально существующей страницы сайта, сервер отдает 200 код ответа. Данный ответ сервера, говорит нам, что запрос успешен. С точки зрения поисковых систем данный код означает, что страница существует и ее можно индексировать. Здесь нам важно убедиться в том, что несуществующие страницы сайта не отдают 200 код. Если так и есть, то все хорошо.

Перенаправление навсегда — код 301

В том случае, если вы настраиваете постоянный редирект с одной страницы на другую, то должны удостовериться в том, что сервер возвращает 301 код ответа. Для чего вам нужно перенаправление? Например, если у вас поменялся URL одной и той же страницы, то вы должны в обязательном порядке настроить 301 редирект со старого урла на новый, чтобы показать, что страница расположена по другому адресу. 301 редирект также передает вес и возраст страницы, а также решает вопрос дублирования контента.

Проверка сайта на корректную отдачу 404 кода

Проверка сайта на корректную отдачу 404 кода (страница не существует) — это один из первоочередных этапов внутренней оптимизации. Важно проверить все возможные варианты, когда должна отдаваться 404 ошибка. Проверять нужно не только реальную отдачу сервером 404 кода в случае ввода несуществующего url, но и чтобы для пользователя выводилась хорошо оформленная страница. Пример такой хорошо оформленной страницы у меня на сайте (введите несуществующий url и увидите).

Коды 5xx (ошибки сервера)

Тут вы должны знать, что существуют еще коды ответа сервера серии 5xx, например, 501, 502, 503 и так далее. Они говорят нам, что есть некая ошибка именно на сервере. Как правило причиной таких ошибок является перегрузка сервера, например, из за роста посещаемости. Поэтому если вдруг вы получаете любой из кодов пятисотой серии, то вам нужно провести работу по оптимизации настроек сервера. Как подсказка: анализируйте логи, чтобы понять какой именно процесс приводит к сбою сервера.

Поиск и исправление битых ссылок

Битые ссылки — это ссылки, которые ведут на несуществующие страницы. Причины их появления следующие:

  • неаккуратная простановка ссылок администратором сайта;
  • смена адреса страницы. При этом забывают поменять ссылки ведущие на эту страницу;
  • удаление страницы, но ссылки на нее остаются на других страницах.

Наличие битых ссылок очень сильно сказывается на ранжировании сайта. Они доставляют и неудобства пользователю, так как при переходе по такой ссылке попадаешь не на целевую страницу, а на страницу 404 ошибки. К тому же с точки зрения seo на эти страницы утекает статический вес. Поэтому seo-специалистам и вебмастерам необходимо их вовремя находить и исправлять. Для оперативного поиска битых ссылок я использую бесплатную утилиту XENU или платную Page Weight.

Оптимизация изображений

При оптимизации изображений имеют ввиду следующие особенности:

  1. Изображение желательно должно быть уникальным;
  2. Картинку нужно оптимизировать под определенные размеры по ширие и высоте;
  3. Воспользоваться сервисами сжатия, чтобы максимально сократить размер в килобайтах;
  4. При размещении на сайте обязательно заполнять атрибуты alt и title таким содержимым, чтобы оно полностью описывало именно то, что изображено на картинке;
  5. По возможности заполнять EXIF данные;
  6. Названия картинок нужно делать в ЧПУ виде (по аналогии с урлами — лучше всего транслитом);
  7. Полезно использовать разметку Schema.org для картинок, которая поддерживается и Яндексом и Гуглом.

Коммерческие факторы ранжирования

При оптимизации интернет-магазинов важно правильно работать с коммерческими факторами ранжирования. В первую очередь сюда относят следующие факторы:

  • наличие телефона в видном месте на странице (обычно в шапке сайта);
  • бесплатный телефон на 8-800;
  • максимально полная информация об организации в на странице «контакты» с картой проезда;
  • добавление информации о сайте в справочник организаций в Яндексе;
  • наличие различных сортировок, сервисов, разделов, которые призваны повышать удобство пребывания пользователя на сайте;
  • увеличивать ассортимент продукции;
  • наличие возможности онлайн-консультирования;
  • возможность попасть в карточку любого товара за 1-3 клика;
  • наличие актуальных цен и многое-многое другое.

Составление ТЗ для написания качественного и полезного контента

Контент — это король SEO. Так было, так и осталось. К тому же влияние контента в последнее время только усиливается. В информационных тематиках продвижение контентом дает, по моим оценкам, 85% успеха. Для коммерческих тематик текст не имеет решающего значения. В тоже время написание качественных статей с большим количеством графики, видео, интерактива в раздел обзоров интернет-магазина позволяет здорово улучшить поведенческие факторы в целом на сайте. А это со временем приведет к росту позиций и по коммерческим запросам.

У каждого seo-специалиста свой подход в составлении технического задания на написание текста. Обычно это базовые требования:

  • Важно в первую очередь то, чтобы страница полностью решала потребности пользователя. Конечно, текстовое ранжирование, по-прежнему, основано на модернизированной формуле BM 25 и это не нужно забывать;
  • Уникальность контента;
  • Объем текста — от 1000 знаков для хорошей индексации. В более объемных статьях, например, информационной направленности обязательно необходимо включать картинки, видео и любые другие иллюстрации. Это позволит добавить ценность на посадочную страницу и снизить вероятность наложения санкций за переспам;
  • Параграфы должны состоять из не более 4-6 строк;
  • Текст верстаем тегами <p>;
  • Использование подзаголовков, списков, жирного шрифта, курсива.

Правильная внутренняя оптимизация сайта необходима для увеличения его траста в глазах поисковых систем, что положительным образом будет отражаться на позициях и трафике.

www.seowind.ru

Основные факторы внутренней оптимизации сайта

1. Дизайн сайта

Дизайн сайта может сыграть немаловажную роль для внутренней оптимизации вашего сайта, что впоследствии отразится на поведенческих факторах. Поэтому используйте уникальные и адаптивные шаблоны. Профессионально сверстанный макет сайта будет хорошо работать на большинстве типах устройств и правильно отображаться в браузерах.

В идеале, конечно, лучше заказать шаблон у квалифицированного верстальщика, но это может влететь в кругленькую сумму. Если бюджет не позволяет такую роскошь, то подыщите в интернете шаблон с адаптивным дизайном для вашей CMS.

Если шаблон установлен и сменить его по какой-либо причине невозможно, то не расстраивайтесь, у вас впереди еще много работы, которую предстоит выполнить.

2. Оптимизация тегов и мета-тегов: title, description, keywords

При сканировании документа/страницы робот первым делом смотрит контейнер <head> — секция с различной технической информацией для поисковых машин. Но в данный момент нас интересуют теги, отвечающие за внутреннюю оптимизацию ресурса: title, description, keywords. Обычно эти теги заполняются через опцию движка сайта.

2.1 Тег <title>

Тег <title> — заголовок/название страницы — важный (!) тег для поисковиков, который поведает им о содержании документа. В браузере отображается при наведении курсора на вкладку, а в поисковой выдаче — в виде ссылки для перехода на сайт.

Рекомендации по его заполнению:

  • название страницы опишите максимально кратко (до 70-80 символов) и эффективно с включением продвигаемых слов/фраз, расположение которых должно быть ближе к началу описания;
  • в целях экономии места в «тайтле» старайтесь, по возможности, избегать стоп-слов, которые поисковики не учитывают;
  • заголовок должен быть уникальным для каждой страницы сайта — за невыполнение этого требования поисковики могут наказать последний фильтром — обязательно проверьте все ваши странички, например, программой Xenu (сео-инструментарий в конце статьи);
  • также, постарайтесь уникализировать заголовок таким образом, чтобы не встречалось названий, так сказать, «точь-в-точь» как у похожих в интернете веб-ресурсов — даже если тематика конкурентная, то всегда добавляйте в описание что-то свое.

Стоп-слова — цифры, частицы, предлоги, союзы, междометия, местоимения, знаки препинания.

2.2 Мета-тег description

Мета-тег description — описание страницы — расскажите поисковикам и посетителям чуть детальнее (примерно до 200 знаков — 1-2 предложения) о содержании документа. Аналогично «тайтлу», каждый «дискрипшн» должен быть уникальным и включать ключевые фразы;

Пример сниппета в поисковике Яндекс

2.3 Мета-тег keywords

Мета-тег keywords — ключи или поисковые слова/фразы — вообще этот мета-тег не так важен, как когда-то — его роль ушла в прошлое. Поэтому его можно не заполнять, а можно через запятую перечислить ключевики, примерно до 10-15 слов. Но лучше оптимизировать тексты статей под конкретные запросы, а этот мета-тег оставить в покое.

Как прописать мета-теги? Обычно для веб-ресурсов под управлением CMS или конструктора сайтов это действие можно выполнить с помощью встроенного редактора или же дополнительного модуля, который нужно скачать и установить. Приведу несколько популярных движков:

  • для WordPress — плагин «All in One SEO Pack»;
  • для Joomla — плагин «Easy Frontend SEO»;
  • для Drupal — модуль «MetaTag»;
  • для 1C-Bitrix — модуль «Управление SEO тегами».

Онлайн инструмент для генерации мета-тегов: Seolib Meta.

Заказать оптимизацию сайта

3. Оптимизация текстов: релевантность, уникальность, объем, структура

Релевантность страницы. Оптимизация текста (SEO-текст, семантика) — релевантность страницы запросу — подбор ключевых фраз для продвигаемых статей. Данный вид внутренней оптимизации — один из самых значимых и чему нужно уделить особое внимание:

  • оптимизация для роботов — на странице обязательно должны использоваться продвигаемые слова или словосочетания, которые нужно равномерно и максимально естественно распределять по статье (для подбора ключей используйте сервисы, список которых в конце статьи);
  • оптимизация для посетителей — страница должна отвечать на запрос пользователя, который на нее перешел из поиска — если этого не произойдет, то посетитель быстро покинет ваш сайт.

Получается, что релевантность — это некая тонкая граница между поисковыми машинами и посетителями, ведь нужно угодить и тем и другим.

Уникальность и полезность статей. Чтобы потенциальные посетители не сразу покидали вашу страничку, тем самым не ухудшая поведенческий фактор, размещайте только уникальные, полезные и максимально интересные статьи (читайте статью источники уникального контента, если не знаете где его взять).

Объем статьи. Как говорится, краткость — сестра таланта. Однако, объем статьи зависит от конкретного случая и примерно определяется запросом пользователя под который она пишется/создается.

Говоря о цифрах — минимум 2000 знаков без учета пробелов, а верхний предел не имеет значения (хоть 30к символов), если того требует развернутый ответ. Очень большие тексты удобно распределять на несколько страниц.

Структура текста. Даже если вы на сайте опубликуете уникальную и супер полезную информацию — это еще не значит, что цель достигнута. Важно преподнести информацию таким образом, чтобы ее было удобно читать, а значит нужно соблюсти несколько условий:

  • использование заголовков — для их обозначения в статье используйте теги <h1>, <h2>, <h3> — в них обязательно пишите продвигаемые слова/фразы — это может быть часть или фраза полностью. Имейте ввиду, что тег h1 – допускается использовать только один раз на странице, h2, h3 – несколько. При необходимости применяйте подзаголовки h4-h6;
  • использование списков — для обозначения маркированных и нумерованных списков применяются теги <ul>, <ol> — в них заключайте информацию, которую обычно перечисляют;
  • разбивка на абзацы — не делайте абзацы <p> большими — оптимально использовать 3-5 кратких предложений в каждом;
  • выделение слов — делайте акцент на тех словах/фразах, которые по вашему мнению были бы интересны пользователям (а не роботам) — можно использовать различные теги форматирования текста, например, <strong>, <em> и другие;
  • дополнительно — разбавляйте текст иллюстрациями, а также встраивайте видео и применяйте таблицы — все это улучшает восприятие текста.

Пример правильной структуры текста на странице

4. Оптимизация изображений

Правильная оптимизация изображений важна не только для поисковых роботов, но и для посетителей сайта, что обеспечит более быструю загрузку страниц и дополнительный трафик из поиска по картинкам.

Оптимизация изображений включает:

  • уникальность — как бы это банально не звучало, но оригинальные картинки ценятся поисковиками (однако, все стоит денег и можно попытаться провести уникализацию изображений — добавить фон, надпись, изменить размеры, цветовую палитру, объединить несколько картинок в одну, ну и на что еще хватит фантазии — таким образом получив на выходе псевдо-уникальную графику);
  • формат — загружайте на сайт картинки в правильном формате *.gif, *.jpg, *.png (предпочтительнее jpg);
  • размер (вес) — как правило, на размер влияет качество картинки, что, в свою очередь, отражается на скорости загрузки веб-страницы и экономии дискового пространства на хостинге — учитывайте этот момент, а для оптимизации используйте графический редактор, например, Фотошоп (при сохранении картинки выбираете «Файл» → «Сохранить для Web и устройств…» → варианты параметров для jpg-формата «Среднее», «Высокое» или «Очень высокое»);
  • размеры (ширина и высота) — загружаемая картинка должна иметь такие размеры, в которых она будет отображаться на веб-ресурсе. Не следует делать подгонку за счет атрибутов «height» (высота) и «width» (ширина). Для изображений с высоким разрешением делайте ресайз (изменение размеров). Предположим, что у вас имеется изображение размером 1500×900 пикселей, а вы планируете разместить в тексте картинку 500×300 пикселей, значит идете в фотошоп и делаете изменения;
  • название — имена файлов изображений должны кратко (1-4 слова) отражать их содержание и быть написаны на английском языке, либо на латинице (транслитерация с русского) и без пробелов, например так, «image-optimization.jpg» или «optimizaciya-izobrazhenij.jpg» (для заполнения пробела используйте нижнее подчеркивание «_» или дефис «-» (я чаще применяю транслит и дефис));
  • атрибуты — важной составляющей HTML кода изображений являются такие атрибуты как alt и title — соответственно «альтернативное описание» и «всплывающая подсказка», которые служат для детального (оптимально не более 100 символов) описания картинки. Язык описаний используется тот же, что и основной текст статьи. Рекомендуется аккуратное использование в них ключевых слов, исключающие спамные конструкции;
  • водяной знак — нанесение логотипа или адреса сайта на изображение никак не повлияет на его оптимизацию, но может предотвратить несанкционированное использование копипастерами. В особенности это касается купленных изображений или созданных самостоятельно.

Пример кода для изображения на странице

5. Перелинковка внутренних страниц сайта: смысл, виды, как сделать

Перелинковка — связывание страниц сайта внутренними ссылками, то есть простановка линков с одной статьи на другую. Уделяя должное внимание этой части оптимизации вы значительно сэкономите в будущем на продвижении.

В чем смысл перелинковки?

  • индексирование новых страниц сайта — таким образом вы сообщаете поисковым машинам, что появилась свежая статья и ее нужно проиндексировать;
  • удобство для посетителей — статьи как бы дополняют друг друга информацией;
  • улучшение поведенческих факторов — пользователи дольше находятся на сайте;
  • увеличение статического веса продвигаемых страниц и повышение позиций в поиске по ключевым фразам — по сути, вы используете в качестве анкора ссылки продвигаемый запрос.

Виды перелинковки:

  • контекстная — ссылки в основном содержимом статьи;
  • сквозная — ссылки в меню (горизонтальном, вертикальном) на основные страницы;
  • навигационная — или «Содержание страницы» — навигация по конкретному разделу (пример, Википедия), которую целесообразно делать для очень объемных страниц;
  • «рекомендуемые ссылки» — ссылки в конце поста после слов — «читайте также», «рекомендуем почитать», «похожие статьи», «случайные публикации» и так далее.

Как сделать контекстную перелинковку? В двух словах:

  1. пишете по какой-либо теме оптимизированную статью со ссылками (подходящими по смыслу) на другие статьи, которые ранее были опубликованы;
  2. в качестве анкора указываете продвигаемую фразу — как правило, это СЧ или НЧ запросы;
  3. заполняйте атрибут title (описание) для каждой ссылки, аккуратно используя ключевики — здесь чуть детальней (оптимально до 50-100 символов) опишите страницу, которая откроется при переходе пользователя по ссылке;
  4. ставите ссылки в ранее опубликованных статьях на новую — чтобы найти нужные анкоры можно воспользоваться встроенным поиском движка или же формой поиска от Гугл или Яндекс (если их код установлен на сайт).

Пример html кода ссылки

Отличным примером перелинковки может служить трастовый веб-ресурс Википедия, где в статьях чуть ли не каждое слово или фраза является ссылкой на разные статьи. По аналогии делайте у себя на сайте.

Пример перелинковки из Википедии

Рекомендации по перелинковке:

  • надежнее и эффективнее контекстную перелинковку делать вручную без использования программ или плагинов;
  • используйте в контекстных ссылках видоизмененные ключевые фразы — предположим, вы продвигаете фразу «как сделать внутреннюю оптимизацию сайта», то не стоит на всех страницах писать ее в точно таком же виде (поисковики примут это за спам) — меняйте падеж, склонение, слова — пример, «как выполнить внутреннюю оптимизацию веб-сайта»;
  • проставляйте контекстные ссылки по смыслу (как бы в тему), а не чтобы «слить» вес на продвигаемую страницу — помните, что делаете для людей, а не для поисковых роботов.

Замечательные программы проверки перелинковки: Page Weight, Linkoscop.

6. Оптимизация загрузки сайта

Скорость загрузки веб-ресурса — важная составляющая внутренней оптимизации сайта, с которой нужно «плотно» поработать и разобраться с основными факторами, которые на нее негативно влияют: скрипты, неоптимизированные изображения, плагины и многое другое.

Инструменты для проверки загрузки веб-сайта:

  • Google PageSpeed Insights;
  • Pingdom Website Speed Test;
  • GTmetrix.

7. Регистрация веб-сайта в поисковых системах

Для улучшения индексации веб-ресурса добавьте его панель для вебмастеров. Поисковая система вам предоставит данные и рекомендации по вашему сайту, на основании которых вы сможете его улучшить и оптимизировать.

Зарегистрировать сайт следует в:

  • Яндекс-Вебмастер;
  • Google Search Console.

По желанию можно добавить в: Bing.com, Mail.ru.

8. Файл инструкций «robots.txt»: назначение, синтаксис и директивы, расположение

Назначение. Файл инструкций «robots.txt» — файл в текстовом формате (*.txt), содержащий определенные команды для поисковиков. Поисковый робот, когда заходит на любой сайт, сначала читает инструкции в «роботс», а затем сканирует веб-ресурс. Данный файл можно создать у себя на компьютере с помощью Блокнота, а затем загрузить его на хостинг.

Как правило, файл содержит директивы, запрещающие сканировать определенные директории (разделы, папки, файлы) вашего сайта, информацию в которых нежелательно отправлять в индекс поисковых систем, например, похожие страницы (вроде «версия для печати»), дубли страниц, регистрационные данные пользователей, личные фото и многое другое.

Также, с помощью «роботс» можно:

  • указать главное зеркало веб-сайта («www.vash-sajt.com» или «vash-sajt.com»);
  • указать наличие карты сайта для поисковых роботов;
  • настроить время задержки сканирования каждой из страниц (для очень нагруженных порталов);
  • настроить адреса страниц с динамическими параметрами;
  • запрещать/разрешать индексировать сайт конкретным поисковым роботам (Яндекс, Google, Yahoo, Nigma и другим).

Синтаксис и директивы. Чтобы поисковые роботы верно интерпретировали инструкции в файле, очень важно соблюдать правильность их написания.

Пример (разрешено индексировать весь сайт всем роботам):

User-agent: *
Disallow:

Подробнее о «роботс», синтаксисе и директивах читайте в официальной справке Яндекса и Google.

Сервисы генерации правильного «роботс»: Pr-Cy Robots, Seolib Robots

Расположение. Файл «robots.txt» должен находиться в корневой папке домена, то есть в самой папке с именем вашего сайта на хостинге. Сама корневая папка может располагается в директории с названиями вроде «httpdocs», «public_html», «www» (зависит от хостинга и панели управления). Запутались? Смотрите изображение ниже.

Пример расположения файла robots-txt

9. Карта сайта «sitemap.xml»: назначение, синтаксис, как сделать, расположение

Назначение. Карта сайта «sitemap.xml» или навигация для поисковых машин — файл с расширением *.xml, который служит источником информации обо всех страницах веб-сайта. Поисковый робот, «заглядывая» в карту, будет знать какие страницы нужно проиндексировать.

Синтаксис. Подробнее о «сэйтмэп», синтаксисе и требованиях читайте в официальной справке Яндекса и Google.

Способы сделать XML-карту сайта:

  • карта автоматически генерируется CMS или с помощью дополнительного модуля/плагина — лучший способ;
  • сгенерировать с помощью онлайн сервиса, например, MySiteMapGenerator.com;
  • сгенерировать с помощью программы, например, WonderWebWare SiteMap Generatior (софт бесплатный);
  • сделать карту вручную — создать файл «sitemap.xml», записать все имеющиеся URL-адреса страниц (соблюдая синтаксис) и каждый раз при публикации новой странички добавлять в нее URL’ы — трудоемкий процесс.

После генерации карты или создания ее вручную, не забудьте закинуть файл на свой хостинг.

Расположение. Аналогично файлу «роботс», карта «sitemap.xml» должна находиться в корне сайта (смотрите рисунок выше).

10. Карта сайта в формате HTML

По сути, это страница-навигация по всему блогу/сайту, которая содержит перечень ссылок всех страниц, рубрик, подрубрик, разделов. Служит для удобства пользователей.

Ссылка на «карту сайта» должна быть проставлена на всех страницах (например, в верхнем меню или футере) вашего веб-ресурса, чтобы пользователь легко мог по ней перейти, а затем попасть в интересующий раздел.

Как сделать? Опять же, либо вручную, либо «автоматом»:

  • создаете html-страничку у себя на блоге/сайте и вручную перечисляете все URL-адреса, а потом лишь добавляете новые по мере появлении свежих публикаций;
  • если ваш блог часто обновляется, то есть смысл поискать решение для автоматизации этого процесса, например, для Вордпресс существует вышеназванный плагин «All in One Seo Pack».

easy-jobs.ru

Качественный хостинг — важное звено в развитии веб-ресурса

Формально этот пункт моей пошаговой инструкции можно считать первым, и прежде чем начинать беседу по теме сегодняшнего поста, хочу задать вам вопрос. А каким хостингом вы пользуетесь? Если это бесплатный хостинг, тогда немедленно выкиньте его в мусорное ведро. Вы должны прекрасно понимать, что если вы собираетесь заниматься продвижением своего интернет-проекта, то он должен работать на качественном и надежном хостинге.

Возможно, вам покажется это банальным, но поисковики к этому вопросу относятся достаточно серьёзно. И если у вас бесплатный хостинг или дешевый и тормозной, то они без предупреждения понижают такие ресурсы в результатах поисковой выдачи. Вам это надо? Скорее всего нет, чем да. Ваш веб-ресурс должен работать без сбоев и быть всегда в режиме онлайн — 24 часа в сутки и 7 дней в неделю.

Скорее всего вы захотели спросить какой хороший хостинг и какой бы посоветовал я. Сначала почитайте статью «Какой выбрать хостинг», а порекомендовать могу только проверенного хостера Макхост, потому что пользуюсь им давно и все мои интернет-проекты, в том числе этот блог, размещены на нем.

Надежный хостинг для продвижения и seo оптимизации сайта самостоятельно

А сейчас, давайте вернёмся к теме сегодняшнего поста. Вы знаете, с чего начинается строительство дома и от чего будет зависеть его прочность и долговечность? Догадались? Конечно же с фундамента, так вот, перед тем как продвигать веб-ресурс и заниматься его seo оптимизацией, необходимо составить семантическое ядро и сделать это правильно.

Семантическое ядро — основа seo оптимизации сайта

Возможно, кто-то уже слышал эти 2 слова, а для некоторых они могут показаться странными и непонятными. Поэтому предлагаю начать с определения, а далее я расскажу несколько способов как его составлять и где взять готовое СЯ.

Семантическое ядро — это упорядоченный список ключевых слов, которые максимально точно описывают и характеризуют нишу сайта, а также его вид деятельности.

Этот элемент в раскрутке крайне важен, от правильности его составления будет зависеть посещаемость и дальнейшая судьба раскрутки веб-ресурса в поисковых системах.

Семантическое ядро представляет собой иерархическую структуру поисковых запросов. Как правило, во главе стоит один или несколько высокочастотных запросов (главная страница), а ниже по иерархии среднечастотные (рубрики, категории) и низкочастотные запросы (статьи, карточки товара).

Если взять в качестве примера веб-ресурс посвящённый строительству своими руками, то его СЯ может выглядеть примерно так:

Пример семантического ядра для seo оптимизации сайта

Имейте ввиду, что это очень сокращённый и утрированный пример, СЯ обычно состоят из нескольких тысяч слов. А теперь несколько вариантов, где и как составить семантику для своего интернет-проекта:

4(1) составить самостоятельно воспользовавшись бесплатными инструментами по подбору ключевых слов — wordstat.yandex.ru и adwords.google.com/ko/KeywordPlanner

4(1) более продвинутый вариант, который используют профессионалы, это использование seo-софта программа key-collector и её братишка с урезанными функциями Slovoeb, а так же можно воспользоваться бесплатной базой Букварикс.

4(1) если не хотите париться и ломать себе голову как правильно собрать семантику и в то же время хотите быстрых результатов, тогда обратитесь к профессионалам из web-студии 1ps.ru они сделают все быстро и качественно. Проверенные ребята, за качество работы которых я ручаюсь.

Кластеризация поисковых запросов СЯ

Следующий важный этап пошаговой инструкции, который идёт после составления СЯ — это эффективное распределение ключевых фраз по всему сайту. Другими словами, задача данного этапа максимально точно распределить запросы по наиболее подходящим группам, а именно по страницам, разделам, рубрикам и статьям.

Многие начинающие веб-мастера ленятся делать распределения ключей, но когда осознают всю важность данного этапа, то им приходится переделывать все заново. Только представьте, какой нужно выполнить объём работ, когда на web-ресурсе несколько сотен статей, несколько десятков страниц и подразделов.

Конечно, проще сразу все сделать правильно, а затем полностью контролировать процесс продвижения и знать в какую сторону двигаться дальше и что нужно для этого делать. Как быстро и эффективно сделать кластеризацию поисковых запросов? Есть несколько вариантов:

4(1) сделать самостоятельно вручную в Майкрасофт Excel (долго, но зато качественно)
4(1) специальным софтом, например, Key Collector (получается быстро и качественно, минус что прога платная)
4(1) воспользоваться специальными онлайн-сервисами, есть платные и бесплатные (делают быстро, но не всегда хорошего качества, приходится дорабатывать вручную)

С моей точки зрения самый оптимальный вариант использование seo софта — Key Collector. Да он платный, но своих денег он стоит и даже более того. Многие трудоемкие и долговременные задачи я делаю в коллекторе за несколько минут и ещё ни разу не пожалел о том что его купил. Погуглите в интернете за него и вы очень удивитесь, узнав на что он способен.

Кстати, у меня есть возможность приобрести Key Collector со скидкой, если кому-нибудь надо пишите через форму обратной связи. Проценты и комиссию я не беру, помогаю просто по-дружески. Единственное условие надо быть моим постоянным читателем :-)

Внутренняя оптимизация сайта

Вот мы и добрались до самого интересного и большого раздела. После распределения ключей можно с чистой совестью приступить к проведению работ по внутренней оптимизации, которая состоит из нескольких этапов. Далее я постараюсь коротко и ясно рассказать о каждом из них.

По-хорошему надо бы написать отдельную статью по каждому этапу. В ближайшем будущем я это обязательно сделаю. Итак, начнём.

1.Оптимизируем каждую страницу под поисковые запросы из СЯ

Правильно прописываем мета теги (title, description, keywords) для страниц, подразделов, категорий и статей. Все страницы должны иметь: уникальные заголовки, описание, мета теги и текст. Запомните золотое правило, на странице должен быть только один заголовок формата h1.

Используйте в статьях заголовки h2-h6, употребляйте в них и в тексте ключевые фразы. С их помощью увеличивается читабельность текста и повышается его привлекательность для поисковых роботов. Знайте меру, все должно выглядеть гармонично и естественно, помните что вы пишите для людей.

Текст в статьях или на страницах должен быть минимум 3000 символов. Имейте виду, что поисковые стражи не дремлют и строго карают штрафными санкциями за переоптимизированый, заспамленый и не уникальный текст.

Обязательно размещайте в статьях тематические изображение и затачивайте их под поисковый запрос. Для этого прописывайте мета теги изображений (title, description, alt) с употреблением ключевых запросов.

Некоторые веб-мастера оставляют этот момент без внимания, а зря, потому что это дополнительный плюсик к общей seo оптимизации сайта, а также небольшой прирост посещаемости за счёт переходов с сервисов Яндекс Картинки и Гугл Картинки.

Yandex картинки и Google картинки

Как вы уже догадались, для процесса который в народе принято называть seo оптимизация сайта самостоятельно пошаговая инструкция может послужить отличным помощником для эффективного продвижения в поисковых системах. Итак, с данным пунктом мы разобрались, теперь давайте перейдём к следующему.

2. Делаем внутреннюю перелинковку сайта

Ещё один важный пункт моего руководства. Чтобы всем было понятно что это такое, давайте начнём с краткого определения. Внутренняя перелинковка — это процесс размещения тематических ссылок внутри сайта с одной страницы или статьи на другую близкую по смыслу.

Например, если страница посвящена теме как ловить щуку на спиннинг, то здесь будет полезно разместить ссылку на другую страницу этого же веб-ресурса, где рассказывается о 5-ти популярных приманках при ловле щуки на спиннинг. Уловили смысл?

Чем полезна внутренняя перелинковка? Во-первых, улучшаются поведенческие факторы, так как пользователи будут переходить по ссылкам и получать нужную информацию в полной мере, а это в свою очередь увеличивает общее время присутствия на web-ресурсе и количество просмотров страниц.

Во-вторых, происходит ускоренная индексация всего ресурса, так как поисковые боты при индексировании любят переходить по всем найденным ссылкам на странице. Нужно помнить об этом и стараться использовать как минимум одну тематическую ссылку на странице.

В-третьих, улучшается общее качество юзабилити. Помните, что ваш интернет-проект создаётся для людей и он должен быть удобным и понятным в использование. Это не все преимущества и полезные свойства внутренней перелинковки, на самом деле их намного больше.

В рамках данной статьи я не могу раскрыть эту тему в полной мере, поэтому подписывайтесь на обновление блога, потому что скоро будет отдельная, подробная статья.

3. Правильная настройка ЧПУ

Для тех, кто не знает что это такое дам расшифровку. ЧПУ — это человеко-понятные-урлы (ссылки). Внешний вид ссылок играет немаловажную роль, как для людей так и для поисковиков. Если ваш веб-ресурс как и мой работает на движке WordPress, то настроить правильное отображение ссылок не составит для вас ни какого труда. В будущих статьях напишу об этом подробнее.

В качестве примера посмотрите, как правильно должны выглядеть ссылки:

  1. http:///kak-vesti-blog/kak-pisat-stati-dlja-bloga.html
  2. http:///2016/post-36=?274-

Догадались, какой верный вариант? В ссылке должен содержаться заголовок статьи и ключевое слово, а также она должна быть читабельна и понятна человеку.

4. Настройка Sitemap.xml

Не пугайтесь если вы слышите впервые это странное слово:) Сейчас я расскажу что это такое и зачем оно нужно. Sitemap.xml — это карта вашего веб-ресурса, предназначенная исключительно для поисковых роботов, в нём содержится информация о страницах и ссылках вашего сайта, которые подлежат индексации.

Проще говоря, это такой специальный файл, которой помогает поисковым машинам делать свою работу быстрее и качественнее.Чем полезен Sitemap.xml? С помощью него процесс индексации проходит гораздо быстрее. В качестве примера можете посмотреть мою Sitemap по адресу http:///sitemap.xml.

Если у вас до сих пор нету этого файла создайте его прямо сейчас. Для тех у кого движок WordPress, скачайте и установите плагин Google XML Sitemaps, он автоматически сгенерирует карту и будет её обновлять по мере необходимости. У кого другая платформа управления контентом или самописный сайт загуглите информации по этой теме в интернете.

5. Настраиваем html-карту сайта для людей

Данная карта повышает удобство навигации для посетителей, улучшает поведенческие факторы, а также способствует повышению скорости индексации сайта в целом, так как содержит большое количество внутренних ссылок.

Html-карта — это отдельная страница, которая доступна посетителям и поисковым системам. Блоггеры часто её называют «Все статьи» или «Карта сайта». На данной странице отображаются все разделы, категории, страницы и статьи интернет-ресурса. В WordPress html-карту можно создать в несколько кликов с помощью плагинов Dagon Design Sitemap Generator или WP DS Blog Map.

Вот так выглядит html-карта моего блога — http:///vse-stati-bloga.html

6. Настройка файла robots.txt

Файл robots.txt — это обычный текстовой файл, который содержит в себе набор подробных пошаговых инструкций для поисковиков, в которых прописаны правила индексирования страниц, разделов, файлов, папок, каталогов и т.д.

Данный файл размещается в корневой папке. Для чего он нужен? Robots.txt — играет важную роль при seo оптимизации, так как с помощью него можно запретить поисковым система индексировать системные файлы, страницы не содержащие полезного контента и многое другое.

ivan-maslov.ru


You May Also Like

About the Author: admind

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.

Adblock
detector