Сео сайта

О важности поисковой оптимизации не говорит только ленивый. Мы не ленивые =), не раз писали, например, на что ориентироваться при самостоятельной работе, давали SEO-подсказки и рекомендации, не так давно публиковали список инструментов, помогающих продвигать сайт быстрее и удобнее.

Однако советы советами, а как быть с практической задачей – анализом собственного ресурса, проверкой оптимизации сайта? Что проверять, какими именно сервисами и программами воспользоваться, на какие показатели смотреть и как эти данные трактовать?

Сегодня мы расскажем, как наши специалисты проводят SEO-аудит клиентских сайтов, чем пользуются и на что обращают внимание. Показываем буквально на пальцах, не ленитесь, проверьте оптимизацию своего сайта!

Присутствие в индексе

Google Webmaster и Яндекс.Вебмастер – ваши самые важные друзья, которые помогут получить разнообразную информацию по сайту. Если вдруг вы еще не зарегистрировались и не добавили ресурс в них, рекомендуем это сделать. Сообщать поисковикам необходимые сведения, производить проверку ряда параметров будет значительно удобнее.

Итак, информацию по индексации в Яндексе смотрим в разделе «Общая информация»:


Общая информация в Вебмастере

В Google: выбираем «Индекс Google» → «Статус индексирования». Для отображения всей информации не забываем выбрать «Расширенные данные» и нажать кнопку «Обновление».

Статус индексирования в GoogleWebmaster

Многие скажут: я все это видел, что тут сложного или полезного? Да, видели, да, это найти несложно, но, как показывает практика, многие не обращают на это внимания. Представленная в данных разделах информация поможет узнать, все ли в порядке с индексацией, есть ли какие-либо ошибки, а значит, своевременно их исправить. Например, если ваш ресурс достаточно большой, а в индексе мало страниц, это первый звоночек о серьезных проблемах или санкциях. Или еще ситуация: сайт состоит примерно из 300–400 страниц, а Вебмастер показывает в 2 раза больше страниц в индексе – это критическая ошибка для продвижения, значит, в индексе слишком много дублей.

Наличие санкций и фильтров

Проверить, применялись ли поисковиками к сайту какие-либо меры и какие именно, можно в следующих разделах:

В новом Яндекс.Вебмастере: «Диагностика» → «Нарушения».


Проверка наличия санкций в новом Вебмастере

В Google: «Поисковый трафик» → «Меры принятые вручную».

Проверка наличия санкций в GoogleWebmaster

Надеемся, никому не нужно объяснять, чем может грозить наличие предупреждающих сообщений в данных разделах?

Теги title, description, keywords

О том, что title является важным фактором в оценке релевантности сайта запросу, тоже сказано немало. Он должен быть и оптимизирован, и для пользователей привлекателен.

Тег Title

Про description тоже забывать не нужно, он участвует в формирование сниппета – краткого описания сайта в результатах выдачи. Поэтому не менее важно правильно составить и его. О том, как работать с тегами, читайте в нашей книге Тег title и мета-теги description и keywords: правила и секреты. Там всё подробно и в деталях.

Теперь не менее важный вопрос: как проверить заполнение тегов для всех страниц сайта?

Например, это можно сделать с помощью программы ScreamingFrog. Интерфейс интуитивно понятен: вводим адрес сайта, запускаем проверку, ждем результат и начинаем анализ.

Проверка тегов title, description

Внимательно изучаем данные во вкладках Page Titles, Meta Description, Meta Keywords.Что нас будет интересовать:


  • для всех ли страниц заполнены теги title, description – они должны присутствовать на каждой странице и быть уникальными, то есть не дублироваться;
  • есть ли keywords – здесь все наоборот, его быть не должно (пояснение нашей точки зрения тут);
  • используются ли ключевые слова, релевантны ли они странице;
  • какова длина тегов, не слишком ли длинные или короткие названия и описания страниц;
  • нет ли спецсимволов и т.д.

Проверяйте, соответствуют ли найденные теги основным правилам. Если нет – исправляйте.

Также посмотрите, как Яндекс и Google видят description. Раздел «Диагностика» → «Диагностика сайта» в Яндексе. Список страниц, для которых обнаружены проблемы, будет доступен по ссылке «Ознакомьтесь».

Проверка description в новом Яндекс.Вебмастере

И в Google: «Вид в поиске» → «Оптимизация HTML».

Проверка description в GoogleWebmaster

Теги заголовков H1, H2


Правильное оформление заголовков не только поможет посетителю быстрее найти нужную информацию и сориентироваться на странице, но и позволит увеличить вес ключевых слов.

Кроме того, тег <h1> играет важную роль при формировании быстрых ссылок в выдаче Яндекса.

Пример быстрых ссылок

Проверить, определены ли для сайта быстрые ссылки, а также управлять ими можно в новом Яндекс.Вебмастере:

Управление быстрыми ссылками в Вебмастере

Если для вашего сайта они определены, вы должны понимать, зачем и как это сделано. О формировании быстрых ссылок мы писали тут.

Возвращаемся к программе ScreamingFrog. Теперь проверяем данные во вкладках H1 и H2:

Проверка тегов h1 и h2

При проверке помните:

  • H1 желательно составить уникальными для всех страниц;
  • H1 должен быть на странице только один, в нашем примере их два – это критическая ошибка;
  • теги заголовков должны включать ключевые слова из семантического ядра.

Поэтому если у вас нашелся ряд страниц, для которых H1 или H2 не прописаны, теги слишком короткие и неинформативные, то заполните их корректно.

Развернутые сведения о том, как составлять теги H1 и H2, есть в нашей статье.

Атрибут Alt для картинок


Посмотрите, прописан ли атрибут alt тега <img> ко всем картинкам на сайте. Удобнее всего это сделать в браузере Mozilla Firefox. Кликните по изображению правой кнопкой мыши, выберите «Информация об изображении»:

Проверка атрибута alt

Нас интересует информация в колонке «Альтернативный текст»:

Атрибут alt

Содержание атрибута учитывается поисковыми системами и влияет на рейтинг вашего ресурса. Проверьте, чтобы alt был прописан для всех картинок, соответствовал изображению и по возможности содержал подходящие ключевые слова.

Анализ текстов на сайте

Мы часто пишем, что качественные тексты – это основа всего продвижения. Проанализировать ваш контент помогут сервисы text.ru – проверка на уникальность, pr-cy – на переспам, «Главред»– на наличие клише, штампов и различного смыслового мусора.

Уникальность

Для проверки на уникальность вам нужно просто вставить текст в соответствующее окно на сайте и нажать кнопку «Проверить».

Посмотреть уникальность текста на text.ru

Буквально несколько минут, и вы узнаете уникальность вашего текста, она должна быть не менее 90%.

Не забудьте только в списках доменов, на которых нашлись совпадения, исключить свой сайт. Если текст есть только на вашем ресурсе – отлично, если нет и совпадений достаточно много – надо дорабатывать или полностью переписывать.


Результаты проверки текста на уникальность

Чтобы защитить свой контент от копирования, не забывайте закреплять на него права в Яндекс.Вебмастере. Подробнее о проверке на уникальность смотрите тут.

Оптимизация

Следующий шаг – с помощью pr-cy проверяем как обстоят дела у этого же текста с оптимизацией:

Тошнота страницы

В первую очередь смотрим на тошноту. Она должна быть в рамках 5-8%. Если меньше – текст оптимизирован мало, продвижения этого недостаточно, если выше – то переоптимизирован, что может повлечь за собой санкции. Подробнее про тошноту читайте по ссылке.

Далее проверяем плотность ключевых слов. Обращаем внимание на раздел «Контент»:

Вес ключевых слов

Смотрите, чтобы вес основных ключей был в пределах 2-5 (слова с пометками Title, Headers). Если меньше, то имеет смысл текст оптимизировать. Если будет больше, то это уже переспам.

Проверка с точки зрения пользы для читающего


Узнать, насколько текст понятен и полезен посетителям сайта, поможет «Главред». Все просто – открываем сервис, загружаем текст в окно и смотрим оценку:

Посмотреть текст с точки зрения читающего

Нормой считается 6-7 баллов. Если меньше, текст вряд ли будет интересен пользователям, его в лучшем случае просто пробегут глазами.

Все проблемы, выявленные в тексте, «Главред» выделяет – так что вы без труда получите пояснение, что именно написано не так.

Советуем при проверке на уникальность, тошноту и пользу для читателя брать несколько текстов. В первую очередь обязательно анализируйте контент на главной – ведь это лицо вашего сайта.

Файл Robots.txt

Проверить, присутствует ли на вашем сайте robots.txt, достаточно просто. Попробуйте перейти по ссылке http://site.ru/robots.txt и увидите подобную картину:

Файл robots.txt

Также проверить robots.txt можно в Вебмастере:

Проверка robots.txt в Вебмастере

На что обратить внимание при проверке:

  • желательно, чтобы были отдельно заполнены User-Agent для Yandex и Google;
  • указана директива Host;
  • указан адрес карты сайта;
  • закрыты от индексации страницы авторизации, восстановления пароля, технические страницы и т.д.

Подробнее об использовании robots.txt рекомендуем прочитать в нашей статье.

Наличие ошибки «Googlebot не может получить доступ к файлам CSS и JS на сайте»

Летом 2015 года в Google Webmaster многие владельцы сайтов стали получать предупреждение о наличии такой ошибки. Google сообщал, что если не открыть доступ к ресурсам, то сайт просядет в выдаче.

Проверить наличие данной ошибки можно в Google Webmaster, раздел «Сканирование» → «Посмотреть как Googlebot».

Ошибка Googlebot не может получить доступ к файлам на сайте

Следует найти и исправить все ошибки на сайте, чтобы ваш сайт не потерял позиции в выдаче.

Максимально наглядно мы разбирали данный вопрос в этой статье.

Скорость загрузки страниц

Согласитесь, вряд ли кому-то нравится, когда сайт слишком долго открывается. Кроме того, этот фактор учитывается и поисковиками при ранжировании.

Проверить скорость загрузки страниц можно с помощью Google PageSpeed Insights. Все элементарно просто: вводите адрес любой страницы и нажимаете кнопку «Анализировать».

Проверка скорости загрузки страниц

После чего сервис даст оценку скорости как для компьютера, так и для мобильной версии, а также покажет выявленные ошибки и рекомендации по их устранению.


Результаты проверки скорости загрузки страниц

Страница получает от 0 до 100 баллов. Чем больше будет показатель, тем лучше. Если страница получила более 85 баллов, все отлично. Если в диапазоне 50-80 баллов, то нужно поработать над скоростью загрузки, однако ошибка не критична. Если же скорость загрузки близка к 0, то очень важно ее повысить. Слишком медленные сайты хуже ранжируются в результатах поиска.

Рекомендации по устранению ошибок вы найдете в разделах «Исправить обязательно» и «Исправить по возможности».

Оптимизация под мобильные устройства

Число пользователей, совершающих покупки через мобильный Интернет, постоянно растет. Поэтому чтобы не потерять приличную долю трафика, важно оптимизировать сайт и под мобильный поиск.

С 21 апреля 2015 года Google и со 2 февраля 2016 года Яндекс при индексации отдают большее предпочтение сайтам, оптимизированным под смартфоны.

Проверить, адаптирован ли ваш сайт к мобильным, можно, например, с помощью Google Developers. Вводите адрес своего ресурса, нажимаете «Анализировать» и получаете результат. Если сайт не оптимизирован под мобильные, сервис укажет, в чем именно заключается проблема.


Оптимизация под мобильные устройства

Проверить адаптивность можно в новом Яндекс.Вебмастере: «Инструменты» → «Проверка мобильных страниц».

Проверка оптимизации под мобильные устройства в Вебмастере

Подробнее о том, почему оптимизация под мобильные – 100% musthave, мы писали тут.

Валидность HTML-кода

Некорректный код страниц вашего сайта может помешать продвижению: ошибки могут негативно сказываться на сканировании микроразметки, на отображении сайта на мобильных устройствах и т.д.

Проверку валидности кода можно осуществлять с помощью сервиса MarkupValidationService. Вводите адрес страницы в поле Checkby, нажимаете кнопку Check, получаете список всех найденных ошибок и предупреждений.

Проверка валидности кода

Конечно, далеко не все ошибки являются критичными, но лучше показать полученный список вашим разработчикам – пусть исправят все, что возможно.

Битые ссылки

Наличие битых ссылок негативно сказывается на продвижении. Поисковые системы могут наложить санкции за большое число «мертвых ссылок».

Для поиска битых ссылок подойдет, например, программа Xenu. Она распространяется в Интернете бесплатно.

В программе выбираем в меню File-Check URL, вводим адрес и нажимаем ОК. Через некоторое время Xenu проверит ваш сайт и выдаст результат. Нас интересуют ссылки, выделенные красным цветом и имеющие статус Notfound.

Битые ссылки

После того, как вы нашли битые ссылки на сайте, нужно выяснить причины их появления, затем эти причины устранить.

Дублированный контент

Наличие дублей негативно влияет на продвижение, ведет к потере естественных ссылок, может подменить истинно-релевантные страницы, способствует неправильному распределению внутреннего ссылочного веса. Чтобы узнать, если ли у вашего сайта дублированный контент или нет, можно воспользоваться программой NetpeakSpider.

Указываем адрес сайта, запускаем проверку и ждем результатов. После окончания проверки нажимаем кнопку «Найти дубликаты» и смотрим, что программа нашла. Нас интересует раздел «Дубликаты» → «По title»: смотрим, для каких страниц теги полностью совпадают, переходим на страницы и проверяем контент – полностью ли он дублируется или нет, а также смотрим в таблице, заполнен ли тег <link rel=»canonical»> – столбец LinkCanonical. Этот тег указывает поисковикам, какая страница у нас основная и предназначается для индексации.

Поиск дублированного контента

Если вы нашли одинаковые страницы и для них тег <link rel=»canonical»> не заполнен – это дубли. Их надо исправлять.

Итоги

Конечно, это далеко не все параметры для анализа. Но найти и исправить ряд основных ошибок вы сможете.

Если же с самостоятельной проверкой сайта возникнут проблемы, закажите SEO-аудит у нас. Проведем более глубокий анализ и выдадим конкретный список проблем и работ, которые следует выполнить. Это будет готовое руководство по оптимизации вашего сайта, с ним вы можете начать работать самостоятельно или пойти в любое агентство.

1ps.ru

Команда SbUP.com разработала огромное количество SEO сервисов и инструментов, для облегчения работы вебмастеров и оптимизаторов.
  Самыми важными мы считаем сервис комплексного анализа сайтов, включающий проверку траста сайта, а также разработанный на его основе сервис массового сравнения сайтов.

Для того, чтобы получить бесплатный SEO аудит, введите адрес проверяемого сайта в форму выше и нажмите «Анализировать». Через 10-30 секунд вы получите детальный отчет о проверяемом сайте.

Что делает seo сервис, какие данные предоставляет, какая от этого польза, и сколько это стоит?

SEO анализ ни стоит нисколько, т.е. бесплатный. Прежде чем перейти к ответам на остальные вопросы, давайте посмотрим следующее слайд шоу результатов работы сервиса (кликните по изображению ниже).

Кликните для просмотра слайд шоу

Сервис предоставляет огромное количество данных и характеристик сайта. Более сотни графиков, несколько сотен всевозможных параметров проверяемых ресурсов.

Среди них:
Обратные ссылки во всевозможных поисковиках и сервисах контроля за входящими ссылками, уровень доверия сайта (т.е. trust или трастовость), проиндексированные страницы, скорость сайта и хуиз история, дата регистрации и контактные данные хостера, плотность ключевых фраз на странице и гео положение сайта, наличие в самых важных каталогах, безопасность ресурса, наличие конкурентов, посещаемость и позиции сайта в поисковых системах, и еще сотни других важных характеристик подопытного ресурса.

Сервис seo аудита может определить на каком движке (CMS) работает сайт, а также какие скрипты использует.
Детектируются более 60 систем управления содержимым и около сотни различных скриптов. Если движок был детектирован, то его название будет ссылкой на ТОП сайтов по этой CMS.

Сервис анализа также определяет уровень доверия ресурса, т.е. TrustRank или траст сайта в поисковых системах. Трастовость сайта (авторитет сайта) определяется многими параметрами. Это возраст ресурса, количество страниц в индексе, уникальность контента, посещаемость сайта, количество обратных ссылок, частота обновления ресурса и еще десятки характеристик. Подробнее о трасте сайта вы можете узнать на этой странице.

Недавно введен новый параметр — Заспамленность ссылками.
При подсчете учитывается много данных, в том числе проиндексированные страницы, число акцепторов сайта, уровень доверия ресурса и другие характеристики.
Измеряется по шкале от 0 до 100%. При наведение мышки на результат вплывают поясняющие подсказки. Также есть цветовая (и графическая) индикация в зависимости от результата.

Ниже классификация заспамленности, в зависимости от процентов:
0 — 10% Сео сайта. Все отлично.

10 — 20% Сео сайта. Все хорошо.

20 — 30% Сео сайта. Возможно все хорошо, но обратите внимание на исходящие ссылки.

30 — 50% Сео сайта. Внимание, возможно много исходящих ссылок.

50 — 80% Сео сайта. Плохо, много исходящих ссылок.

80 — 100% Сео сайта. Очень плохо, слишком много исходящих ссылок.

N/A. Не определено. Недостаточно данных.

Особо хочу обратить ваше внимание на подробный анализ сервисом всевозможных рейтингов (пузомерок). Кроме общепринятых, вы получите данные и по эксклюзивным, разработанным нашей командой.

Это будут следующие рейтинги:
Примерная цена сайта,
Траст (TrustRank), уровень доверия сайта в поисковых системах,
Реальный PageRank,
Номинальный google ПР,
Яндекс тИЦ и рэнк,
Alexa рейтинг.

Хочу пояснить по методике формирования примерной стоимости (цены) сайта.
Сервис seo анализа учитывает только текущие характеристики ресурса. В зачет не идут затраченные усилия (моральные и финансовые), офисы и другая недвижимость, персонал, бюджет, биржевой азарт (напр. для яндекса и гугла), потенциал тематики сайта либо ваш личный потенциал и т.п.
Только действующие на текущий момент характеристики и параметры ресурса.

По каждому рейтингу мы разработали информеры, которые вы можете разместить на своих сайтах. Как пример, ниже счетчики для текущего сайта:

Цена sbup.com Траст sbup.com Настоящий ПР sbup.com sbup.com Alexa/PR sbup.com Tic/PR sbup.com участник Трастового Каталога

Получить кнопки можно как на странице аудита сайта, так и на специальной странице информеров, где можно выбрать счетчики из почти сотни вариантов, и подобрать их под любой дизайн сайта.

Сами информеры обновляются автоматически, при каждом анализе сайта. Поэтому у вас нет необходимости менять код кнопок, уже размещенных на ваших ресурсах. Адреса кнопок остаются те же, а их значения обновляются автоматически.

Еще хочу заметить по аудиту, что для каждого анализируемого сайта формируется отдельная страница с уникальным адресом. Поэтому, для того чтобы получить отчет по уже проанализированному ресурсу, необязательно делать повторный анализ. Для этого достаточно посетить определенный адрес seo аудита конкретного сайта. На самой странице анализа есть ссылки, в разных форматах, на сгенерированный URL.

На основе сео анализов многочисленных сайтов мы сформировали различные рейтинги и ТОПы, в которых ранжировали ресурсы по всевозможным показателям. Как пример, приведу некоторые из них:
Новые сайты, ТОП по цене ресурса, ТОП по трасту, ТОП по реальному ПР и многие другие. По этим рейтингам отчетливо видно какие сайты имеют преимущества, и самое главное почему.

Сео сайта Вы можете сохранить отчет комплексного анализа в формате PDF, для предоставления клиентам (начальству), либо более детального изучения оффлайн. Для этого сеть ссылка в конце аудита.

Рекомендую внимательно ознакомиться с презентацией сервиса комплексного сео анализа. На странице анонса подробно описаны все характеристики, генерируемые сервисом, а также объяснены нюансы работы с результатами аудита.

На основе вышеописанного сервиса был разработан инструмент массового сравнения характеристик сайтов.
Сервис массовой проверки сайтов
Можно проверять до 50 сайтов одновременно и получать (и сравнивать) более 60 характеристик по каждому ресурсу. Сам инструмент находится здесь, а его подробное описание на следующей странице.

У сервиса появился программный интерфейс (API) доступа к проверенным данным.
API сервиса комплексного анализа
За один запрос можно получить информацию по 50 сайтам. Подробнее на этой странице.

Ниже вы можете видеть остальные несколько десятков сервисов, разработанных нашей командой. Доступ к ним можно также получить в правом нижем меню сайта.

www.sbup.com

Оптимизируйте URL страницы

Первые 3-5 слов адреса URL страницы дают больше веса. Например:

Неправильно:

http://mysite.ru/12340

Неправильно:

http://mysite.ru/jeto-super-dlinnyj-url-adres-web-stranicy-bla-bla

Правильно:

http://mysite.ru/korotkaja-kljuchevaja-fraza

Название страницы должно быть коротким и понятным, чтобы человек мог запомнить url страницы.

Идеальный SEO заголовок

Старайтесь уложить длину заголовка в 55 знаков. Поисковые системы используют 50-60 символов заголовка или столько символов, сколько уместится в экран шириной не более 512 пикселей.

Используйте целевые ключевые слова в заголовке и заключайте заголовок в тег <H1>. Заголовки участвуют в формировании ссылки на страницу сниппета в поиске. Именно заголовок может стать той ссылкой, на которую будут кликать при переходе к вам на сайт из поиска.

Используйте медиа

Картинки и фотографии, видео и gif анимации сокращают отказы, увеличивают время на сайте и помогают улучшить поведенческий фактор, которому уделяется особое внимание.

Посетители сайта много времени уделяют медиа контенту, часто делятся им и больше времени проводят на сайте, что улучшает поведенческие факторы, дает внешние ссылки и переходы.

Ссылки на авторитетные сайты

Исходящие ссылки на авторитетные страницы помогают поисковым системам точнее определить тему вашей страницы и повышают качество информации. Привыкайте в конце статьи ставить ссылки на авторитетные источники информации.

Подобные ссылки дают сигнал поисковым системам о том, что контент на вашей страницы цитирует источники информации с высокой степенью доверия и позволяет вам получить частичку этого доверия.

Больше ключевых слов в первых 100 словах

Ключевые слова в первых 100-150 словах статьи имеют больший вес, чем ключевые слова далее по тексту. Это не значит, что текст должен начинаться с перечисления ключей. Старайтесь выстроить логику текста так, чтобы ключевые слова вначале текста выглядели органично.

Времена насыщения текста ключевыми словами безвозвратно прошли, пора думать о структуре текста. Текст, посредствам ключевых слов, должен сразу давать читателю то, зачем он пришел на конкретную страницу, а потому и ключевые слова должны быть ближе к началу статьи, чтобы сразу донести необходимую информацию.

Используйте синонимы ключевых слов

Поисковые системы анализируют значение различных формулировок ключевых слов, чтобы определить релевантность страницы. Чем более богато описана суть ключевого запроса, тем более релевантной этому запросу будет страница.

Кроме синонимов не забывайте различные склонения и числа как самих ключевых слов, так и из синонимов. Современные поисковые системы понимают даже логические синонимы, а так же ключевые слова с ошибками. Пользуйтесь на здоровье!

Оптимизируйте название изображений и тег ALT

Если вы используете оригинальные изображения, необходимо оптимизировать название файла изображения и тег ALT. Оптимизация тега ALT оригинальных изображений позволяет увеличить поисковый трафик на 24% за счет добавления ключевых слов.

Не забывайте, что при помощи таких атрибутов как alt и title, в код страницы можно добавить достаточно много дополнительного контента. За такую заботу и трудолюбие, поисковые системы обязательно наградят страницы более высокой релевантностью.

Уменьшение скорости загрузки

Уменьшение скорости загрузки за счет хорошего хостинга и сжатия файлов изображений, позволяет увеличить релевантность страницы и поведенческие факторы. В следующей статье вы увидите инфографику, показывающую как скорость загрузки страниц влияет на показатели SEO сайта.

Скорость загрузки страницы рассматривается поисковыми системами как один из факторов поискового ранжирования. 75% посетителей не вернутся на сайт, если его страницы загружаются дольше 4 секунд.

Проверить скорость загрузки страниц сайта можно через Google PageSpeed.

Добавьте кнопки социальных сетей

Добавление кнопок социальных сетей дает возможность получения внешних ссылок на страницы сайта. Внешние социальные ссылки — залог качественной целевой внешней ссылочной массы, а так же сильный сигнал поисковым системам о том, что посетителям действительно важен ваш контент.

Социальные ссылки являются выражением пользы и применимости контента вашей страницы. Это именно то, к чему нужно стремиться и за что «выдается» высокая релевантность.

Увеличивайте объем контента

Первые места в поисковой выдаче занимают страницы с текстам от 2000 слов. Безусловно оптимальный объем контента зависит от тематики.

Чтобы описать суть конкретной страницы, необходим определенный объем текстового контента, который будет отвечать основным ключевым запросам страницы и передавать уникальный смысл именно этой страницы.

Чем больше текстового контента на странице и он более разнообразно описывает смысл ключевых запросов, тем проще поисковым системам и посетителям понять о чем идет речь. Вспоминаем, что текстовый контент, это не только текст статьи, но и атрибуты alt, title и тег meta description. Не забывайте о них.

Адаптируйте сайт под мобильные устройства

Адаптивный дизайн позволяет отрегулировать сайт под размер устройства, которым пользуется посетитель. Отсутствие адаптивного дизайна увеличивает отказы при просмотре сайта с мобильных устройств, что ухудшает поведенческий фактор.

Кроме адаптивного дизайна, существует ряд способов повысить релевантность страниц, используя SEO-оптимизированную верстку сайта.

Чеклист

  1. Оптимизируйте URL страницы;
  2. Идеальный SEO заголовок короче 55 символов;
  3. Используйте медиа (картинки, фотографии, видео, gif);
  4. Ставьте ссылки на авторитетные сайты;
  5. Размещайте ключевые слова в первых 100 словах текста страницы;
  6. Используйте синонимы ключевых слов;
  7. Оптимизируйте название изображений и тег ALT;
  8. Уменьшите скорость загрузки страницы;
  9. Добавьте кнопки социальных сетей;
  10. Увеличивайте объем текстового контента на странице;
  11. Адаптируйте сайт под мобильные устройства.

Сохраните себе инфографику, чеклист и не забудте поделиться с друзьями. А чтобы быть в курсе последних статей — подписывайтесь на блог. Дальше будет еще интересней.

convertmonster.ru

Сео сайта

Недавно мы закончили курс по SEO в Нетологии и составили для себя чек-лист того, что обязательно нужно сделать на сайте «Я люблю ИП» для поисковой оптимизации. Но эти советы универсальны для любого проекта. В статье вы найдёте список практических рекомендаций со всего курса из 13 лекций от 8 разных специалистов, а также полезные ссылки и сервисы, которые помогут вам улучшить SEO вашего сайта.

Для кого эта статья:

  • для веб-дизайнеров и разработчиков, которые хотят создавать сайты, изначально оптимизированные под SEO,
  • для владельцев интернет-ресурсов, которые хотят самостоятельно разобраться в SEO, чтобы увеличить поисковый траффик.

Дисклеймер: эти советы вряд ли помогут вам выйти в топ по высокочастотным запросам, но вы сможете исправить все технические и текстовые ошибки на сайте, чтобы повысить свои позиции.

Работы по SEO в основном состоят из 5 этапов:

  1. Технический аудит сайта.
  2. Аудит коммерческих факторов.
  3. Подбор семантического ядра.
  4. Внутренняя и внешняя оптимизация сайта.
  5. Наращивание ссылочной массы.

Технический аудит сайта

1) Проверьте, все ли страницы сайта находятся в поиске:

  • по количеству результатов в поиске (в Google — при помощи site:site.ru, в Яндексе — при помощи host:site.ru),
  • в Яндекс.Вебмастер (Индексирование → Страницы в поиске) или в Google Search Console (Индекс Google → Статус индексирования).

2) Проверьте наличие дублей на сайте. Дубли — это страницы с одинаковым содержанием, но с разными URL. Дубли могут быть полные (если контент совпадает на 100 %) или частичные (с высоким % совпадения). Дубли страниц необходимо удалять.

3) Проверьте наличие пустых страниц (которые не содержат контента). Пустые страницы можно:

  • удалить,
  • закрыть от индексации (в файле robots.txt, см. ниже),
  • наполнить контентом.

4) Проверьте наличие мусорных страниц (которые не содержат полезного контента). Мусорные страницы можно:

  • закрыть от индексации,
  • сделать полезными.

5) Проверьте наличие файла robots.txt. Это текстовый файл в корневой директории сайта, который содержит специальные инструкции для поисковых роботов. Подробнее см. справку Яндекса и Google. Размер файла не должен превышать 32 КБ.

6) В файле robots.txt можно указать общие правила для всех поисковых систем и отдельно для Яндекса. В правилах для Яндекса должна быть дополнительно указана директива Host (главное зеркало вашего сайта с www или без) и директива Sitemap с ссылкой на карту вашего сайта. Проверить файл robots.txt можно в Яндекс.Вебмастере.

User-agent: *
Disallow: /contacts/
Sitemap: http://www.iloveip.ru/sitemap.xml

User-agent: Yandex
Disallow: /contacts/
Host: www.iloveip.ru
Sitemap: http://www.iloveip.ru/sitemap.xml

Пример файла robots.txt с нашего сайта

7) Проверьте наличие файла sitemap.xml. Это аналог карты сайта, предназначенный специально для поисковых роботов. Подробнее см. справку Яндекса и Google. Создать карту сайта можно по ссылке. Проверить файл sitemap.xml можно в Яндекс.Вебмастере.

8) Проверьте наличие «битых» ссылок (ссылок на несуществующие или недоступные страницы). Необходимо удалять все битые ссылки, как внешние, так и внутренние. Проверить битые ссылки можно в программе Screaming Frog SEO Spider Tool (загружается на компьютер, есть бесплатная версия) или онлайн с помощью инструмента Технический анализ от SeoWizard (сервис платный). Также битые ссылки можно проверить в Яндекс.Вебмастере: Индексирование → Статистика обхода (см. HTTP код 404).

9) Проверьте наличие редиректов на сайте. Виды редиректов:

  • 301 — запрошенный документ окончательно перенесен на новый URL,
  • 302 — запрошенный документы временно доступен по другому URL.

Редиректами лучше не злоупотреблять, так как наличие на страницах сайта ссылок, ведущих на страницы с редиректом, способствует «утере» ссылочного веса.

Проверить можно в Яндекс.Вебмастере: Индексирование → Статистика обхода (см. HTTP код страницы).

10) Проверьте скорость загрузки сайта (должна быть менее 3 сек). Это один из важных факторов, который влияет на ранжирование сайта поисковыми системами. Проверить можно с помощью Google PageSpeed или в Google Search Console (Сканирование → Статистика сканирования → Время, затраченное на загрузку страницы).

11) Настройте ошибку 404 для удалённых или несуществующих страниц. Это можно сделать в файле .htaccess. Подробнее см. справку Яндекса.

12) Проверьте ответы сервера и файл .htaccess. Наиболее частые ошибки, которые встречаются:

  • Доступны обе версии сайта с www и без (например, site.ru и www.site.ru). Это плохо влияет на индексацию, так как поисковик старается исключать дубли и может выбрать в качестве оригинала совсем не ту страницу, которую вы продвигаете.
  • Отсутствуют редиректы для страниц со « /» на конце и без него. Если страницы сайта без слэша на конце и со слэшем отдают ответ сервера 200 (страница доступна), то попадая в индекс поисковых систем они представляют собой полные дубли.

13) Проверьте правильность URL. Неконечные страницы (разделы, подразделы) должны содержать «/» на конце URL, а конечные страницы (страницы товаров, статей) не должны содержать «/». Но применять этот формат рекомендуется только к новым страницам, так как для старых это приведёт к потере возраста документа.

14) Старайтесь использовать «ЧеловекоПонятныеУРЛы» (сокращенно «ЧПУ») или красивые и дружественные адреса URL. Пример отсутствия ЧПУ: yoursite.net/viewpage.php?page_id=23. Основные рекомендации:

  • можно использовать иностранные слова (/contacts/) или транслит (/kontakty/),
  • в качестве разделителя между словами используйте дефис «-»,
  • между разделителями «/» в адресе URL должно быть не более 2–3 слов,
  • длина URL не должна превышать среднее значение по конкурентам.

15) Соблюдайте иерархию папок в URL. Например:

site.ru/название-раздела/назавание-подраздела/конечная-страница

Это поможет Яндексу составить навигационные цепочки и отразить их в сниппете вашего сайта при выдаче в поиске. Подробнее см. справку Яндекса.

16) Проверьте отображение сайта на мобильных устройствах. Это можно сделать в Яндекс.Вебмастере (Инструменты → Проверка мобильных страниц) или в Google Search Console.

17) Укажите в head кодировку страниц meta charset=«utf-8».

18) Проверьте наличие и уникальность тегов title, description и h1 на каждой странице.

19) Тег title должен быть максимально близко к началу head.

20) Старайтесь добавить в тег title все ключевые слова, при этом самое популярное ключевое слово должно быть ближе к началу тега.

21) Максимальная длина тега title — 150 символов, оптимально — 60 символов.

22) В теге title не должны повторяться одинаковые слова (максимум не более 2 раз), можно использовать синонимы, близкие слова или другие слова из запросов. Например: Займ в банке под залог комнаты. Получить кредит под залог комнаты в Москве.

23) Для разделения разных фраз в теге title (например, названия страницы и сайта) используйте символ «|».

24) Тег description не влияет на ранжирование сайта прямо, но поисковые системы могут использоваться его содержимое для сниппета сайта при выдаче.

25) Длина description может быть от 100 до 250 символов, оптимально — 155 символов. Обычно это одно-два осмысленных предложения для описания страницы, включая поисковые запросы.

26) Укажите в head метаданные по Open Graph Protocol для правильного представления сайта в социальных сетях.

27) Добавьте в корневую директорию фавикон сайта.

28) Стили и скрипты должны загружаться в head отдельными файлами.

29) На странице может быть только один заголовок h1.

30) Заголовок h1 не должен копировать title.

31) Заголовок h1 может содержать от 1 до 7 слов и должен включать точное вхождение главного поискового запроса. Например: Займ под залог комнаты.

32) Старайтесь не использовать вложенные теги в теге h1 (например, span, em, a href и т. д.).

33) Соблюдайте последовательность заголовков h2-h6 и включайте в них остальные ключевые слова. Теги h2-h6 должны использоваться только для разметки SEO-текстов.

34) Используйте семантическую вёрстку (для параграфов — p, а не div), старайтесь включать ключевые слова в списки, таблицы, картинки (теги alt, title), выделения (em, strong).

35) Атрибуты alt и title для картинок должны отличаться. Alt — это альтернативный текст для картинки, если она не загрузилась. Title — это заголовок картинки, который всплывает при наведении на картинку, а также выходит в поиске.

36) Добавьте на сайт микроразметку Shema.org. Валидатор микроразметки в Яндекс.Вебмастере.

37) Если вы планируете переезд сайта на https, почитайте эту статью.

Аудит коммерческих факторов

38) Коммерческие факторы важны для коммерческих сайтов.

39) На сайте должны присутствовать контакты:

  • телефоны,
  • онлайн-консультант,
  • обратный звонок,
  • адрес, схема проезда,
  • график работы.

40) Разместите на сайте юридическую информацию:

  • договор-оферту, условия оказания услуг,
  • реквизиты компании,
  • условия обмена/ возврата,
  • условия доставки.

41) Разместите на сайте ассортимент:

  • прайс-лист,
  • количество товаров в наличии,
  • скидки, акции.

42) Добавьте информацию, которая вызывает доверие:

  • отзывы,
  • портфолио (примеры работ),
  • видео,
  • вакансии.

43) Разместите электронную почту на своём домене (например, info@site.ru).

44) Если на сайте публикуются новости, следите за их обновлением.

45) В копирайте (с) укажите текущий год.

46) Стремитесь, чтобы дизайн сайта был современным и адаптированным для мобильных устройств.

Подбор семантического ядра

Подбор семантического ядра — это большая тема, которая заслуживает отдельной статьи. Здесь мы остановимся на основных принципах.

47) Прежде, чем перейти к подбору семантического ядра, необходимо понять, какие бывают типы пользовательских запросов и по каким запросам вы будете продвигать сайт:

  • Навигационные (брендовые) запросы — поиск конкретного сайта или места в сети интернет. Обычно по таким запросам сайты находятся на первом месте, и продвижение не нужно.
  • Информационные запросы — поиск информации, неважно на каком сайте (например, как лечиться от простуды).
  • Транзакционные запросы — пользователь хочет совершить какое-то действие («скачать», «купить» и т. д.). Коммерческие запросы всегда являются транзакционными. Но не все транзакционные запросы являются коммерческими (например, «скачать бесплатно»).

Коммерческие страницы (интернет-магазины, сайты компаний) нужно продвигать по коммерческим запросам, информационные (форумы, блоги, статьи) — по информационным.

48) Определить, каким является запрос, информационным или транзакционным, можно при помощи поиска. Введите фразу и посмотрите на результат поисковой выдачи. Если там в основном информационные статьи, то запрос информационный, если коммерческие страницы — то коммерческий.

49) На одну и ту же страницу не должны вести одновременно информационные и транзакционные запросы. Если запрос информационный, то продвигаем статью. Если коммерческий, то добавляем коммерческую информацию (цена, условия доставки и т. д.).

50) На одну страницу должен вести один запрос. Можно объединить группы запросов в кластеры. Кластеризация помогает объединить запросы по смыслу и проверить совместимость продвигаемых слов (например, аренда авто, прокат машины). Инструменты для автоматической кластеризации запросов (сервисы платные, но есть бесплатные лимиты):

  • Rush Analytics,
  • SEMParser,
  • JustMagic,
  • Бесплатный до 500 запросов.

51) Структура сайта (меню, навигация) должна определяться только исходя из поискового спроса.

52) Для доступа к любой странице с главной должно быть не более трёх кликов.

53) Если вы используете хлебные крошки, вместо «Главная» укажите главное ключевое слово. Например, название интернет-магазина.

Внутренняя и внешняя оптимизация сайта

54) Текст должен быть уникальным (не менее, чем на 70 % в зависимости от тематики). Проверить уникальность текста можно поиском по цитате (запрос в кавычках) или с помощью сервисов:

  • Content Watch,
  • Text.ru,
  • Advego Plagiatus (для Windows).

55) Длину текста, а также плотность ключевых слов берите из ТОП–10. Проверить можно с помощью инструмента Текстовый анализ от SeoWizard или JustMagic.

56) Текст с ключевыми словами размещайте ближе к началу текста.

57) Используйте в тексте дополнительные термины и синонимы. Это могут быть подсвечиваемые слова по запросу в поисковой выдаче Яндекса, «Запросы, похожие на» из Яндекс Wordstat.

58) Пишите лаконичнее, избегайте стоп-слов. Проверить текст можно в сервисе Главред.

59) Пишите без ошибок и внимательно относитесь к оформлению текста. Проверить орфографические ошибки можно при помощи Яндекс.Спеллер.

60) Для повышения CTR переходов на сайт из поиска необходимо улучшить его сниппет в поисковой выдаче. Сниппет состоит из:

  • заголовка (тег title),
  • описания (в Google — тег description, в Яндексе — часть текста с ключевым словом),
  • структуры URL (хлебные крошки, навигационные цепочки, быстрые ссылки).

61) Чтобы улучшить сниппет в Яндексе, возьмите абзац, который показывает Яндекс по ключевому слову в поисковой выдаче, и измените его текст.

Разное

Переиндексация Яндексом происходит в среднем раз в 2,14 месяца (более 60 дней). SEO — это надолго, нужно уметь ждать. Результаты SEO обычно можно получить через 1–6 месяцев, в зависимости от возраста проекта.

Ускорить процесс индексации сайта можно с помощью:

  • внешних ссылок,
  • ссылок в социальных сетях (особенно в Twitter),
  • ссылок с главной страницы,
  • через Яндекс.Вебмастер (Индексирование → Переобход страниц).

Частота захода бота зависит от частоты обновления сайта.

При продвижении в Яндексе имеет значение запросный индекс — чем больше статей по тематике, тем лучше.

Очень сложно уместить весь курс в одну статью. Если статья окажется вам полезной, в следующий раз мы напишем о подборе семантического ядра и наращивании ссылочной массы.

Если вы хотите самостоятельно разобраться в SEO, рекомендуем пройти курс в Нетологии. Для читателей Хабра у них есть скидка 2500 руб. по промокоду habr на все онлайн-программы (действует до конца 2017 года).

habr.com

Основные направления работы[править | править код]

Поисковые системы учитывают множество внутренних и внешних параметров сайта при вычислении его релевантности (степени соответствия введённому запросу):

  • плотность ключевых слов (сложные алгоритмы современных поисковых систем позволяют производить семантический анализ текста, чтобы отсеять поисковый спам, в котором ключевое слово встречается слишком часто (терм. сленг «тошнота»);
  • индекс цитирования сайта («ИЦ»), зависящий от количества и авторитетности веб-ресурсов, ссылающихся на данный сайт; многими поисковиками не учитываются взаимные ссылки (друг на друга). Примером метрики являлся PageRank;
  • водность текста — показатель, определяющий наличие малозначимых слов, которые не несут никакой полезной информации и служат для разбавления текста (стоп-слова);
  • поведенческие факторы (внутренние) — ряд всевозможных действий пользователей, которые они могут произвести на сайте: вход, общее время проведённое пользователем на сайте, количество сессий одного пользователя на сайте, просмотр страниц, количество просмотренных пользователем страниц, возврат пользователя на сайт, клики на ссылки в тексте, переходы по ссылкам в меню;
  • поведенческие факторы (внешние) — основной внешний показатель качества поведения пользователя при взаимодействии с сайтом является отказ от дальнейшего поиска по ключевой фразы в поисковой системе;
  • индекс качества сайта («ИКС») — это показатель того, насколько полезен конкретный сайт для пользователей с точки зрения Яндекса. ИКС введён в 2018 году взамен тематического индекса цитирования (тИЦ), учитывавшего тематику ссылающихся сайтов.

Все факторы, влияющие на положение сайта в выдаче поисковой системы, можно разбить на внешние и внутренние. К внутренней оптимизации (касающейся исключительно внутренней системы сайта) относится работа, направленная на общее повышение качества сайта, пользы, которую он приносит посетителю. Сюда можно отнести работу над структурой проекта, над облегчением восприятия контента и непосредственно над качеством этого контента. Значение общего количества таких факторов в большинстве источников колеблется в районе 200. Функциональный подход к поисковой оптимизации, направленный на подгонку определённых факторов к их целевым значениям, отошел в прошлое в связи с усложнением алгоритмов поисковых систем — стоимость «балансирования» десятков факторов многократно превышает стоимость создания изначально качественного ресурса.

Внутренняя оптимизация включает в себя работу с заголовками страницы, которые содержатся в коде с тегами <h1>, <h2>, <h3>, надписью, которая высвечивается на вкладке браузера — Title, и созданием уникального текста на этих же страницах. Также важно уделить внимание мета-тегу description, поскольку именно его пользователь чаще всего видит под url сайта в поисковой выдаче.

Методы внутренней поисковой оптимизации[1][источник не указан 767 дней]:

  • написание качественного контента;
  • увеличение скорости работы сайта;
  • адаптация под мобильные устройства;
  • HTML, CSS — валидация;
  • исследования нужных вам ключевых слов и конкурентов;
  • мета-теги заголовков (title);

Внешние факторы делятся на статические и динамические:

  • Статические внешние факторы определяют релевантность сайта на основании цитируемости его внешними веб-ресурсами, а также их авторитетности вне зависимости от текста цитирования.
  • Динамические внешние факторы определяют релевантность сайта на основании цитируемости его внешними веб-ресурсами и их авторитетности в зависимости от текста цитирования.
  • «Поведенческие факторы и конверсия» показывают качество сайта для непосредственных потребителей. Ресурсы с плохими ПФ не могут занимать лидирующие позиции.[источник не указан 633 дня]

Методы внешней поисковой оптимизации:

  • регистрация в самостоятельных каталогах. Она может осуществляться вручную либо с помощью специальных ресурсов;
  • регистрация в каталогах поисковых систем таких как: Яндекс. Каталог, Рамблер/Топ100, каталог Yahoo и другие;
  • обмен ссылками. Существуют несколько способов обмена — прямой, кольцевой, односторонний (покупка ссылок);
  • регистрация в сервисах: Google Мой Бизнес[2] и Яндекс. Справочник;
  • размещение статей («гостевые посты», публикация в СМИ);
  • социальные сети;
  • пресс-релизы;
  • крауд-маркетинг;
  • создание и ведение блогов;
  • создание сети сайтов («саттелиты»), используемых для увеличения количества упоминаний и ссылок в поисковой выдаче. Данный метод продвижения сайтов относится к «черным». Поисковые системы не советуют использовать подобные методы оптимизации и могут принять санкции в отношении таких сайтов.

Лицо, проводящее работу по оптимизации веб-сайтов, называется оптимизатор или SEO-специалист.

Существуют различные SEO-сервисы, позволяющие облегчить труд оптимизаторов и дать владельцам сайтов возможность продвигать их самостоятельно.

К факторам, понижающим рейтинг сайта, относятся:

  • неуникальный контент (статьи, новости и так далее);
  • технологии, которые поисковые машины рассматривают как спам;
  • избыточное число внешних ссылок, как результат неестественного прироста ссылочной массы;
  • накрутки поведенческих факторов;
  • большое количество исходящих ссылок;
  • некорректная вёрстка;
  • тяжёлый «замусоренный» код;
  • большой вес страницы (HTML-кода, картинок, JS-скриптов, CSS-стилей и прочее);
  • некорректные ответы сервера;
  • вирусы на сайте.

Помимо этого, некоторые поисковые системы (в том числе Google) снижают рейтинг сайта, если он не имеет мобильной версии (отдельной или адаптивной) — когда на телефонах и планшетах отображается полная версия сайта.[3]

История[править | править код]

Вместе с появлением и развитием поисковых систем в середине 1990-х появилась поисковая оптимизация. В то время поисковые системы придавали большое значение тексту на странице, ключевым словам в мета-тегах и прочим внутренним факторам, которыми владельцы сайтов могли легко манипулировать. Это привело к тому, что в выдаче многих поисковых систем первые несколько страниц заняли сайты, которые были полностью посвящены рекламе, что резко снизило качество работы поисковиков. С появлением технологии PageRank больше веса стало придаваться внешним факторам, что помогло Google выйти в лидеры поиска в мировом масштабе, затруднив оптимизацию при помощи одного лишь текста на сайте.

Однако оптимизация развивается вместе с поисковыми системами, и в современных результатах поиска можно видеть всё больше и больше коммерческих сайтов с искусственно раздутой популярностью, особенно по коммерчески привлекательным запросам (транзакционные запросы, транзактный анализ).

Наряду с этой глобальной тенденцией, которой активно противостоят ведущие поисковые системы, имеют место и важные изменения внутри отдельных региональных рынков поисковой оптимизации и продвижения. Так, для Рунета последних лет характерен отток действительно стоящих специалистов на зарубежные рынки. Это объясняется тем, что отечественные рынки уже не могут наполнять ликвидностью полноценные SEO компании. И бюджеты поисковой раскрутки на Западе являются более крупными, что делает их привлекательнее для оптимизаторов.[4]

Отношения с Google[править | править код]

В 1998 году два аспиранта из Стэнфордского университета Ларри Пейдж и Сергей Брин разработали поисковую систему «Backrub», которая использовала математический алгоритм для оценки популярности веб-страниц. Число, рассчитываемое по алгоритму PageRank, является функцией количества и силы обратных ссылок[5]. PageRank оценивает вероятность того, что данная страница будет доступна веб-пользователю, который случайным образом просматривает веб-страницы и переходит по ссылкам с одной страницы на другую. По сути, это означает, что некоторые ссылки сильнее, чем другие, так как случайный веб-пользователь с большей вероятностью достигнет страницы с более высоким PageRank.

Пейдж и Брин основали Google в 1998 году[6]. Google привлек лояльных последователей среди растущего числа пользователей Интернета, которым понравился его простой дизайн[7]. Были учтены факторы вне страницы (такие как PageRank и анализ гиперссылок), а также факторы на странице (такие как частота ключевых слов, мета-теги, заголовки, ссылки и структура сайта), чтобы позволить Google избежать манипуляций, наблюдаемых в поисковых системах. это только учитывает факторы на странице для их рейтинга. Хотя PageRank был сложнее для игры, веб-мастера уже разработали инструменты и схемы построения ссылок, чтобы влиять на поисковую систему Inktomi, и эти методы оказались аналогичным образом применимы к игровому PageRank. Многие сайты сосредоточены на обмене, покупке и продаже ссылок, часто в массовом масштабе. Некоторые из этих схем, или линкоферм, включали создание тысяч сайтов с единственной целью рассылки спама[8].

К 2004 году поисковые системы включили широкий спектр нераскрытых факторов в свои алгоритмы ранжирования, чтобы уменьшить влияние манипулирования ссылками. В июне 2007 года Сол Ханселл из New York Times заявил, что Google ранжирует сайты, используя более 200 различных сигналов[9]. Ведущие поисковые системы, Google, Bing и Yahoo, не раскрывают алгоритмы, которые они используют для ранжирования страниц. Некоторые практики SEO изучили различные подходы к поисковой оптимизации и поделились своим личным мнением[10]. Патенты, связанные с поисковыми системами, могут предоставить информацию для лучшего понимания поисковых систем[11]. В 2005 году Google начал персонализировать результаты поиска для каждого пользователя. В зависимости от истории предыдущих поисков Google создал результаты для зарегистрированных пользователей[12].

В 2007 году Google объявил о кампании против платных ссылок, которые передают PageRank[13]. 15 июня 2009 года Google сообщил, что они приняли меры по смягчению последствий скульптинга PageRank с помощью атрибута nofollow для ссылок. Мэтт Каттс, известный разработчик программного обеспечения в Google, объявил, что Google Bot больше не будет обрабатывать ссылки nofollowed таким же образом, чтобы запретить поставщикам услуг SEO использовать nofollow для скульптинга PageRank[14]. В результате этого изменения использование nofollow привело к испарению PageRank. Чтобы избежать всего вышесказанного, инженеры SEO разработали альтернативные методы, которые заменяют пустые теги скрытым Javascript и, таким образом, позволяют создавать скульптуры PageRank. Кроме того, было предложено несколько решений, которые включают использование iframes, Flash и Javascript[15].

В декабре 2009 года Google объявил, что будет использовать историю веб-поиска всех своих пользователей для заполнения результатов поиска[16]. 8 июня 2010 года была объявлена ​​новая система веб-индексации под названием Google Caffeine. Разработанный для того, чтобы пользователи могли находить результаты новостей, сообщения на форумах и другой контент намного быстрее после публикации, чем раньше, Google Caffeine изменил способ обновления индекса Google, чтобы в Google все быстрее отображалось, чем раньше. По словам Кэрри Граймс, разработчика программного обеспечения, который объявил Caffeine для Google, «Caffeine обеспечивает на 50 % более свежие результаты для веб-поиска, чем наш последний индекс…[17]». Google Instant, поиск в режиме реального времени, был представлен в конце 2010 года, как попытка сделать результаты поиска более своевременными и актуальными. Исторически администраторы сайта потратили месяцы или даже годы на оптимизацию сайта для повышения рейтинга в поисковых системах. С ростом популярности сайтов социальных сетей и блогов ведущие движки внесли изменения в свои алгоритмы, позволяющие быстро ранжировать свежий контент в результатах поиска[18].

В феврале 2011 года Google объявил об обновлении Panda, которое наказывает сайты, содержащие контент, дублированный с других сайтов и источников. Исторически сайты копировали контент друг от друга и получали выгоду в рейтинге поисковых систем, участвуя в этой практике. Однако Google внедрил новую систему, которая наказывает сайты, контент которых не является уникальным[19]. В 2012 году Google Penguin попытался оштрафовать веб-сайты, которые использовали манипулятивные методы для повышения своего рейтинга в поисковой системе[20]. Хотя Google Penguin был представлен как алгоритм, направленный на борьбу со спамом в сети, он действительно фокусируется на спам-ссылках путем измерения качества сайтов, с которых эти ссылки приходят[21]. В обновлении Google Hummingbird 2013 года появилось изменение алгоритма, предназначенное для улучшения обработки естественного языка Google и семантического понимания веб-страниц. Система языковой обработки Hummingbird подпадает под недавно признанный термин «Разговорный поиск», где система уделяет больше внимания каждому слову в запросе, чтобы лучше сопоставить страницы со значением запроса, а не несколько слов[22]. Что касается изменений, внесенных в поисковую оптимизацию, для издателей и авторов контента, Hummingbird призван разрешать проблемы, избавляясь от нерелевантного контента и спама, позволяя Google производить высококачественный контент и полагаться на него как на «доверенных» авторов.

Виды оптимизации[править | править код]

Методы оптимизации можно разделить на три класса в соответствии с их цветом (белый, серый и чёрный), однако, последние события в мире поисковых систем дают понять, что это разделение весьма условно — любая манипуляция определёнными параметрами сайта может быть расценена поисковиком как крайне нежелательное влияние на его результаты. Так, любая попытка манипулирования поисковыми результатами прямо запрещена в лицензии на использование поисковой системы «Яндекс». «Белые» оптимизаторы и маркетологи пользуются рекомендациями Яндекса по созданию «хороших» сайтов[23]. Таким образом, продвигают сайт, не нарушая правил поисковых систем.

Белая оптимизация[править | править код]

Белая оптимизация — оптимизаторская работа над ресурсом без применения официально запрещённых каждой поисковой системой методов раскрутки ресурса — без влияния на поисковые алгоритмы сайтов. Это включает в себя работу над самим сайтом, а именно над внутренней навигацией и содержимым, и работу с внешней средой сайта, то есть продвижением оптимизируемого сайта путём обзоров, пресс-релизов, регистрации в социальных закладках, партнерских программ и т. п. с указанием ссылок на сайт. Следует отметить, что «Яндекс» предупреждает о том, что если какой-либо метод оптимизации не является официально запрещенным, это не значит, что его можно применять.

Роботы поисковых систем могут учитывать множество различных факторов при сканировании сайта. Однако не каждая страница индексируется поисковыми системами. Расстояние страниц от корневого каталога сайта также может зависеть от того, сканируются ли страницы.[24]

Сегодня ещё наблюдается рост просмотров интернет-ресурсов при помощи мобильных устройств. Поэтому одним из факторов ранжирования для Google стало именно наличие адаптивной мобильной версии сайта.[25]

Серая оптимизация[править | править код]

К серой поисковой оптимизации можно отнести добавление большого количества ключевых слов в текст страницы, зачастую в ущерб читабельности для человека, например: «Масло масляное, потому что в нём есть маслопроизводные маслянистые жиры». (С появлением алгоритма Баден-Баден[26], Яндекс находит такие страницы и накладывает на них санкции[27].) При этом оптимизация заключается сначала в подборе ключевых запросов для конкретной веб-страницы, определении размера целевого «SEO-текста» и необходимой частоты ключевых слов в нём, а затем в формулировании предложений и фраз, содержащих в себе ключевые запросы определённое количество фраз в разных падежах, единственном и множественном числе, при разных формах глаголов. Эти параметры могут потом корректироваться по результатам выдачи поисковых систем. При этом задача SEO-копирайтера — написать оригинальный текст таким образом, чтобы подобная оптимизация была как можно менее заметна «живому» читателю (и в частности асессору поисковой системы). Широко применяется также включение ключевого запроса в HTML-теги title, meta description, h1, alt, атрибут meta keywords.

Другой пример серой оптимизации — дорвей без редиректа, когда при попадании на дорвей не происходит автоматического перенаправления на продвигаемый сайт.

Серая оптимизация отличается от чёрной тем, что она официально не запрещена, но её использование всё равно может быть расценено как неестественное завышение популярности сайта. Некоторые поисковые системы, например, Google, могут временно или постоянно заблокировать такой сайт. То есть, конечное решение о том, являются ли методы продвижения законными или нет, принимает специалист — модератор поисковой системы, а не программа.

Чёрная оптимизация (black seo)[править | править код]

К чёрной оптимизации относятся все методы, которые противоречат правилам поисковых систем. Среди них можно выделить следующие: использование дорвеев (страниц и ресурсов, созданных специально для роботов поисковых систем, зачастую с большим количеством ключевых слов на странице), приём под названием клоакинг (посетителям показывается один контент, поисковому роботу — другой), использование скрытого текста на страницах сайта, использование «однопиксельных ссылок».

Для чёрной оптимизации часто используется взлом сайтов с высокой посещаемостью или множества сайтов с небольшой посещаемостью с целью размещения на них ссылок (в том числе скрытых) на продвигаемые ресурсы. В большинстве случаев такие ссылки меняются автоматически раз в несколько дней или неделю за счет вредоносного кода чёрного оптимизатора, который можно выявить с помощью бесплатных онлайн-сканеров сайта на вирусы.

Особо уязвимы вики-сайты, не защитившие свои внешние ссылки инструкциями rel=»nofollow», и вики-движки, не имеющие такую функцию. Применение даже весьма надёжной капчи популярных форматов в таких случаях не останавливает спамеров, так как ИКС[28]/PR у вики-сайтов обычно повышенный.

С целью манипуляций поисковыми системами существует такой метод чёрной оптимизации как PBN-сети (сателлиты). В большинстве случаев — это создание большого количества небольших сайтов, на которых впоследствии размещаются искусственные ссылки на продвигаемый сайт[источник?].

SEO как инструмент маркетинга[править | править код]

SEO не является подходящей стратегией для каждого веб-сайта, и другие стратегии интернет-маркетинга могут быть более эффективными, например, платная реклама посредством кампаний с оплатой за клик (CPC), в зависимости от целей оператора сайта. Поисковый маркетинг (SEM) — это практика разработки, проведения и оптимизации рекламных кампаний в поисковых системах.[29]

В ноябре 2015 года Google выпустила для своих пользователей полную версию Руководства по рейтингу качества поиска на 160 страниц,[30] который теперь показывает смещение их акцента на «полезность» сайта и мобильный поиск.

SEO может генерировать возврат инвестиций и увеличения прибыли с продаж для предприятия. Однако поисковым системам не платят за обычный поисковый трафик, их алгоритмы меняются, и нет никаких гарантий, что ранее использованные методы оптимизации не перестанут учитываться или не станут стимулом для пессимизации выдачи интернет-ресурса. Из-за этого отсутствия гарантий и определённости бизнес, который сильно зависит от трафика с поисковых систем, может понести большие убытки, если поисковые системы прекратят посылать посетителей.[31]

Литература[править | править код]

  • Байков Владимир Дмитриевич. Интернет. Поиск информации. Продвижение сайтов. — СПб.: БХВ-Петербург, 2000. — 288 с. — ISBN 5-8206-0095-9.
  • Ашманов И. С., Иванов А. А. Продвижение сайта в поисковых системах. — М.: «Вильямс», 2007. — 304 с. — ISBN 978-5-8459-1155-1.
  • Крохина О. И., Полосина М. Н., Рубель А. В., О. И. Сахно, Селин Е. В., М. С. Ханина. Первая книга SEO-копирайтера. Как написать текст для поисковых машин и пользователей. — М.: «Инфра-Инженерия», 2012. — 216 с. — ISBN 978-5-9729-0047-3.
  • Яковлев Алексей Александрович. Раскрутка и продвижение сайтов: основы, секреты, трюки. — СПб.: БХВ-Петербург, 2007. — 336 с. — ISBN 978-5-94157-751-4.
  • Севостьянов Иван Олегович. Поисковая оптимизация. Практическое руководство по продвижению сайта в Интернете. — СПб.: «Питер», 2010. — 240 с. — ISBN 978-5-49807-670-6.
  • Джейми Сирович, Кристиан Дари. Поисковая оптимизация сайта (SEO) на PHP для профессионалов. Руководство разработчика по SEO = Professional Search Engine Optimization with PHP: A Developer’s Guide to SEO. — М.: «Диалектика», 2008. — 352 с. — ISBN 978-5-8459-1376-0.
  • Кристиан Дари, Джейми Сирович. Поисковая оптимизация сайта (SEO) на ASP.NET для профессионалов. Руководство разработчика по SEO = Professional Search Engine Optimization with ASP.NET: A Developer’s Guide to SEO. — М.: «Диалектика», 2008. — 400 с. — ISBN 978-5-8459-1404-0.
  • Питер Кент. Поисковая оптимизация для чайников, 4-е издание = Search Engine Optimization For Dummies, 4th Edition. — М.: «Вильямс», 2011. — 432 с. — ISBN 978-5-8459-1749-2.
  • Евдокимов Николай Владимирович, Лебединский Игорь Владимирович. Раскрутка веб-сайта: практическое руководство по SEO 3.0. — М.: «Вильямс», 2011. — 288 с. — ISBN 978-5-8459-1679-2.
  • Малий В. О., Золенко М.О. SEO на экспорт: Первая книга по продвижению за рубежом. — Topodin / Ridero, 2017. — 154 с. — ISBN 978-5-4483-6644-4
  • Анар Бабаев, Николай Евдокимов, Михаил Боде, Евгений Костин, Алексей Штарев. Раскрутка. Секреты эффективного продвижения сайтов. — СПб.: Питер, 2013. — С. 272. — ISBN 978-5-496-00600-2.
  • Леонид Гроховский, Иван Севостьянов, Иванов Д., Федор Фиронов. Продвижение порталов и интернет-магазинов. — СПб.: Питер, 2015. — С. 224. — ISBN 978-5-496-00736-8.
  • Наталия Неелова, Григорий Загребельный, Елена Фролкина, Анастасия Крылова, Владислав Щербаков. SEMBOOK.Энциклопедия поискового продвижения сайтов Ingate. — Москва.: Питер, 2014. — С. 520. — ISBN 978-5-496-00797-9.

ru.wikipedia.org


You May Also Like

About the Author: admind

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.

Adblock
detector