Не та страница в выдаче

В статье рассмотрим причины нахождения в выдаче не нужной страницы (которая по мнению ПС более релевантна выбранному запросу) и способы замены её на продвигаемую нами страницу (которая по нашему мнению должна участвовать в поиске).

План статьи:

  1. Введение. Анализ текущего состояния
  2. Причины участия в выдаче не продвигаемой страницы
  3. Способы “перебивки” страницы на продвигаемую

Перед прочтением статьи рекомендую подписаться на RSS и быть в курсе новых статей, о которых вы будете узнавать сразу после их публикации!

Введение. Анализ текущего состояния

Ситуация 1.

Предположим, вы не первый день продвигаете страницу по какому-либо запросу.
зультата продвижения особо не видно. Вы ищите причину и свои ошибки, проверяете все нюансы. Ничего не найдя просто проверяете выдачу и тут обнаруживаете, что в поиске участвует не та страница, которую вы продвигаете. Естественно, в серпе находится только одна страница каждого сайта. Следовательно, бюджет, который расходуется на продвижение вашего запроса, не оправдан относительно вывода в топ продвигаемой страницы. Конечно, сайт обрастает ссылочной массой (если речь идёт о закупке ссылок, статей, либо других способах внешней оптимизации), возможно набирает траст. Но, продвижения по вашему запросу, того, которое должно было быть – нет. Дело в том, что поисковая система Яндекс считает страницу, которая в данный момент находится в поиске – более релевантной данному запросу, нежели ту, которую вы продвигаете в ТОП. Как с этим бороться рассмотрим далее.

Ситуация 2.

Вы решили заняться продвижением страницы по выбранному запросу. Проверяете её на индексацию – всё отлично, страница в индексе. Но, проверив на каком месте она находится в серпе (перед началом продвижения) – вы вообще её не обнаруживаете. Более того, в выдаче находится совсем другая страница. И естественно вам нужно её перебить на выбранную ранее.

Проверить текущее состояние можно по ссылке — http://yandex.ru/search/advanced


Я ищу: вбиваем наш запрос

На сайте: вбиваем URL своего сайта

Та страница, которая находится на 1 месте – более соответствующая по версии Яндекса, собственно именно она и участвует в поиске.

Причины участия в выдаче ПС не продвигаемой страницы

Причиной обеих ситуаций является предпочтение более соответствующей страницы поисковой системой (в данном случае рассматриваем Яндекс).

На выбор страницы для поиска в ПС влияют:

  • Внутренние факторы
  • Внешние факторы

Способы “перебивки” страницы в серпе

Перебить страницу в поиске на нужную вам можно манипуляциями, как с внутренней стороны, так и с внешней. В принципе сложного тут ничего нет.

  • Внутренние факторы

Основным внутренним фактором, влияющим на страницу, которая будет находиться в выдаче – это релевантность.

Проверять вес запроса и соответствие страниц будем через сервис — http://pr-cy.ru/analysis_content

Возьмём, к примеру, 2 страницы одного сайта. Продвигаемый запрос – “релевантность страниц”.

  • Первая – участвует в поиске (более релевантна по мнению Яндекса)

http://www.topcatalog.com.ua/relevantnost

Общий вес двусложного запроса / кол-во вхождений = 7.91 / 83

Вес слова “релевантность” / кол-во вхождений = 4.03 / 34

Вес слова “страниц” / кол-во вхождений = 3.88 / 49

вес слова 1 страницы

Оба слова запроса “релевантность страниц” присутствуют в титле, в теге h1, в самом контенте (маркированы).

  • Вторая – наша продвигаемая страница (которой нет в поиске по запросу “релевантность”)

http://www.topcatalog.com.ua/relevantnost-stranic-teoriya

Общий вес двусложного запроса / кол-во вхождений = 7.58 / 54

Вес слова “релевантность” / кол-во вхождений = 3.82 / 17

Вес слова “страниц” / кол-во вхождений = 3.76 / 37


вес слова 2 страницы

Так же как и на первой странице: оба слова запроса “релевантность страниц” присутствуют в титле, в теге h1, в самом контенте (маркированы).

Сравнение:

сравнение релевантности запроса

При сравнении видно, что той странице, которую нам нужно продвинуть не хватает веса в 0,33 (и разница в кол-ве вхождений = 29). Заметим, что все пункты (за исключением вхождения в URL), которые влияют на релевантность и вес – равны. То есть не сложно понять, что просто не хватает вхождений в контент.

Каждый, сравнив обе страницы по тому же принципу, сможет выявить для себя пункты, которые нужно подкорректировать.

Замечание: Можно пойти обратным путём – снизить релевантность запроса той страницы, которая сейчас в поиске (нежелательная), вместо увеличения релевантности этого же запроса для нужной нам страницы!

Подробнее про релевантность можно почитать в статье – Способы повышения релевантности страниц

  • Внешние факторы

Внешние факторы тоже влияют на то, какую страницу выберет Яндекс. Сразу поясню почему.

Есть такое понятие, как НПС – найден по ссылке. То есть ключевой запрос не присутствует на странице, которая находится в серпе, но эта же страница выводится в поиск благодаря внешним факторам, а конкретнее – ссылке с другого домена с вхождением всё того же запроса в анкор.

Например, запрос “лор комбайн”:

лор комбайн

Как видно, ни в снипете, ни в титле словоформ запроса не обнаружено, зато страница НПС.

Немного разобравшись с НПС, перейдём к перебивке через внешние факторы.

Проанализируем всё те же страницы на входящие ссылки. Для этого будем пользоваться панелью вебмастера Яндекс. Для того, чтобы анализировать сайт в этой панели нужно добавить его и подтвердить. А так же дождаться полной загрузки в панель (о панели читаем в вопросах и ответах Яндекса).

Переходим на страницу: Индексирование сайта > Входящие ссылки > Внешние

Сравниваем обе страницы:


Перваяhttp://www.topcatalog.com.ua/relevantnost

Ссылающихся сайтов: 19, внешних ссылок (приблизительно): 63

Вторая — http://www.topcatalog.com.ua/relevantnost-stranic-teoriya

Ссылающихся сайтов: 11, внешних ссылок (приблизительно): 38

Затем, сравнив анкоры этих ссылок вручную могу сказать, что у первой страницы доноров с запросом в анкоре ссылки 5, у второй – 1. Делаем вывод, что нам не хватает 4 входящие ссылки с запросом в анкоре.

Конечно, всё это весьма грубо, так как плюс ко всему влияет качество и трас доноров, а также даты индексации ссылки на них и много других способов. Но статья не о том. Статья именно о перебивки страницы. Тех манипуляций, которые описаны в этой статье, почти во всех случаях, должно хватить для перебивки страницы в серпе. Перебивка, при благоприятных условиях, занимает 1-2 апдейта выдачи Яндекса.

И помните: каждый случай индивидуален!

www.topcatalog.com.ua

Частые причины: индексация, сильная фильтрация документов, аффилированность группы сайтов, смена CMS


ТОП-1 #

ТОП-1 нашего импровизированного рейтинга «Причины выпадения» занимает индексация продвигаемого документа.

Симптом: сайт резко выпадает или теряет позиции со сменой релевантной страницы. Позиции теряются по всем запросам, ведущим на страницу.

Проверка: для проверки индексации документа в поисковой системе Яндекс достаточно ввести следующий запрос: [url:site.ru/catalog/page.php]. Если выдача пустая, значит, продвигаемый документ выпал из выдачи и в первую очередь требуется вернуть его в индекс поисковой системы [1]. В данном случае можно просто подождать следующего апдейта выдачи.

(!) Важно: правильно вводите URL документа, результат будет отличаться для доменного имени, введенного с www и без, со слешем на конце и без.

(!) Совет: быстрой индексации документа может существенно поспособствовать постановка нескольких ссылок из индексирующихся социальных медиа, таких как Twitter, FaceBook, LiveJournal и других (см. рисунок 1).

Самые свежие документы в выдаче

(!) Совет: осуществите поиск по сайту по интересующему поисковому запросу. В данном случае поможет запрос вида: [продвигаемый-запрос site:domain.ru]. Интересующий документ должен быть на 1 строчке в выдаче. Если его нет среди релевантных ответов, то это также свидетельствует о выпадении его из индекса.


ТОП-2: сильная фильтрация сайта/документа #

Наиболее часто встречаемые текстовые фильтры (описанные в соседней статье) редко могут выбить коммерческий сайт из ТОП-10 сразу на сотые места [2]. В данном случае особое внимание следует уделить возможным сильным фильтрациям, таким как Adult-фильтр [3] и АГС.

Симптом Adult-фильтра: сайт почти полностью теряет входящий поисковый трафик. На нормальных позициях в выдаче остаются только запросы «взрослого характера». Сайт не ранжируется даже по кускам уникального текста. Трафик из других поисковых систем при этом остаётся на примерно постоянном уровне.

Симптом фильтра АГС: из видимой части индекса поисковой системы выпадет ряд содержательных страниц сайта (старые версии АГС) или обнуляется значение показателя тИЦ (новые версии). Читайте также: «Как отличить сайт под АГС от сайта с тИЦ=0».

Проверка Adult-фильтра:

  • по запросу вида [site:domain.ru] количество документов осталось на прежнем уровне;
  • сайт не ранжируется даже по уникальным фрагментам текста со страниц в индексе [url:domain.ru/dir/page.html];
  • трафик с Яндекса по статистике падает в 2-30 раз;
  • трафик с других поисковых систем остаётся на прежнем уровне;
  • если ввести запрос относительно взрослого содержания, позиция сайта останется неизменной.

Проверка АГС:

  • по запросу вида [host:site.ru] количество документов в выдаче не больше 100 (старые версии АГС);
  • количество страниц в индексе других поисковых систем осталось на старом уровне и значительно превышает 30 (при их наличии на сервере, конечно);
  • у сайта обнулилось значение показателя тИЦ и проверка на АГС подтверждает наличие фильтра.

Диагностировав, какая именно санкция была применена к вашему сайту, вы сможете направить все силы именно на её устранение.

(!) Важно: в случае с Adult-фильтром причиной может быть размещенная на сайте тизерная сеть или партнерка с «сомнительными» материалами. Иногда вам хватит и единственной ссылки на «взрослый» сайт, чтобы привлечь внимание фильтра.

(!) Важно: в случае АГС причиной служит содержимое низкого качества, дублированный контент, продажа ссылок. Особенно подвержены АГС молодые проекты.

(!) Совет: если вы сильно потеряли в трафике или в количестве страниц в выдаче, то можете смело писать вежливое письмо в техническую поддержу Яндекса для уточнения возможных причин. По обоим вышеперечисленным фильтрам сотрудники поддержки периодически подсказывают возможные причины наложения санкций (хотя и шаблонным образом).

(!) Совет: под АГС можно загнать и неплохой клиентский сайт, если бездумно плодить статьи. Желательно, чтобы каждый добавленный на сайт материал нёс смысловую нагрузку (решал какую-либо задачу пользователя) и был оптимизирован под 2-3 низкочастотных целевых поисковых запроса.


ТОП-3: аффилированность сайтов [4] #

В 2011-2014 годах Яндекс более серьёзно взялся за проблему аффилированности двух и большего числа сайтов одной тематики (сайтов, принадлежащих одной компании). В результате чего, ряд сайтов ранее успешно уживавшихся одновременно в ТОП-10 или ТОП-20 выдачи — утратили свои позиции.

Симптом: сайт резко выпадает из ТОП-100 выдачи по запросу или некоторым запросам. Иногда, позиции могут менять скачком на протяжении нескольких апдейтов подряд (5 место — нет в сотне — 4 место — нет в сотне — …).

При аффилированности двух и большего числа сайтов — в выдаче по каждому запросу остаётся только один, как правило, более релевантный запросу. Остальные аффилиаты скрываются или существенно занижаются в занимаемых ими позициях [4].

Проверка: чтобы понять, что ваш сайт был признан аффилированным с другими, достаточно произвести следующую последовательность действий:

  • задать поисковый запрос, по которому ваш сайт был в ТОП-10 выдачи до этого;
  • последовательно исключить из выдачи каждый из сайтов в ТОП-20 и проследить за выдачей (см. рисунок 2). Запрос вида: [продвигаемый-запрос ~~ site:domainN.ru];
  • если вы исключили один из сайтов и ваш проект тут же начал ранжироваться высоко (появился в ТОПе), то это значит, что исключенный домен и ваш — являются аффилиатами;
  • для уверенности, лучше проделать процедуру и для других продвигаемых фраз.

Автоматизация диагностики: доступна в соответствующем инструменте «Пиксель Тулс».

Исключение сайтов и поиск сайта-аффилиата

(!) Важно: не забывайте, что аффилированных сайтов может быть несколько и по разным запросам разные домены могут мешать вам в выдаче.

(!) Совет: можно резко сузить круг подозрительных доменов, если сравнить выдачу по двум и большему числу запросов и выявить сайты, присутствующие и там и там. Иногда это поможет сузить «круг претендентов» до 1-2 штук.

(!) Совет: аффилированность в большинстве случаев накладывается автоматически. То есть и снять её можно без обращения в службу поддержки — устранив все возможные причины. Пересекающиеся контактные данные, тексты, изображения, IP-адрес хостинга, схожесть названий компаний и доменных имен и другие факторы. Действуйте!

ТОП-4: смена CMS или структуры URL на сайте #

Выпадение может произойти в случае смены URL-структуры на сайте. Требуется наиболее оперативно настроить 301-редиректы [11]. В отличие от простого выпадения документа из индекса, тут могут быть некоторые нюансы: текущий продвигаемый URL может находиться в индексе поисковой системы (пункт 1), в то время как старый URL будет отдавать 404 ошибку.

Симптом: вы недавно меняли CMS или некоторые из URL продвигаемых страниц, после чего (5-30 дней) позиции по целому ряду запросов резко ухудшились.

Проверка: обязательно посетите панель Вебмастера [8]. Сайт > Индексирование сайта > Исключенные страницы > HTTP-статус: Ресурс не найден (404) (см. рисунок 3). Если среди списка вы нашли URL адреса ранее находящиеся в ТОПе — это оно.

Исключение сайтов и поиск сайта-аффилиата

(!) Важно: при смене URL-структуры всегда настраиваете 301-редиреты [11], это поможет избежать выпадений и сохранит ранее накопленную ссылочную массу и возраст документа.

(!) Совет: посещайте вкладку исключенных страниц не реже раза в 2-4 недели. Часто, естественные ссылки могут вести на не существующие страницы вида «site.ru/.» или «site.ru/-». Настройка сервера позволит преобразовать эту ссылочную массу в работающую на благо ресурса.

Из того, что встречается чуть реже: смена типа поискового запроса и алгоритма, вирусы, фильтр на одинаковые сниппеты (карточки), прочие опасности

ТОП-5: смена типа поискового запроса и/или алгоритма поисковой системы #

Каждый запрос, который вводят в современную поисковую систему проходит определенную классификацию. Это значит, что в зависимости от определенных характеристик запроса — он будет по-разному обрабатываться поисковиком.

(!) Важно: Для разных классов запросов — применяются разные формулы. Ряд факторов — также принимают отличные значения для запросов разной классификации.

Полностью понять и проанализировать, как поисковая машина классифицирует тот или иной запрос для рядового пользователя — не представляется возможным. Но получить некоторые характеристики (по поведению поисковой системы) и применяя логику — возможно.

(!) Важно: Базовая характеристика запроса — его геозависимость (геонезависимость) [5].

Очевидно, что в случае смены классификации запроса с геозависимого на геонезависимый (и наоборот) — меняется формула ранжирования, и позиции сайтов в ТОПе изменяться кардинально. Схожие изменения могут наблюдаться и в случае изменения алгоритма ранжирования Яндекса.

Симптом: сайт по продвигаемому запросу резко меняет занимаемую позицию.

Проверка: чтобы отличить изменение классификации поискового запроса и смену алгоритма от других причин, требуется произвести следующую последовательность действий:

  • проверить текущий тип запроса (геозависимый он или нет) [6];
  • если известно, какой тип запроса был у него до апдейта и он поменялся в ближайший апдейт — значит, причина кроется в этом;
  • если нет: проверить и выписать ТОП документов по интересующему запросу;
  • сравнить этот список со списком сайтов находящихся там до выпадения (в предыдущую дату);
  • произвести анализ: если ТОП поменялся крайне сильно (более 5-10 новых сайтов на лидирующих позициях, сильная тряска) — значит, произошло изменение алгоритма или типа поискового запроса;
  • произвести анализ: если изменения носят локальный характер — выпало 1-2 сайта, среди которых оказался ваш — причина кроется в чём-то другом.

(!) Важно: старайтесь всегда анализировать выдачу комплексно, а не мониторить только подвижки одного проекта. Это позволит составить более правильно представление об апдейте. В этом поможет собственная система мониторинга выдачи или сторонний сервис [7].

ТОП-6: вирусы на сайте #

Каждый из вебмастеров должен заботиться о продвигаемом им сайте. Причиной выпадения проекта может стать наличие вредоносного кода на сайте вкупе с длительным игнорированием этого факта.

Рекомендуется периодически просматривать выдачу руками на наличие специальной пометки страницы в результатах поиска Яндекса и наиболее оперативно реагировать на проблему. Специальные оповещения о заражении приходят также пользователям, подтвердившим права на сайт в панели Вебмастера [8].

(!) Важно: игнорирование специальной пометки в результатах поиска чрезвычайно негативно сказывается на позициях, так как у документа существенно снижаются значимые поведенческие факторы, такие как CTR по запросу, общее количество кликов и прочие.

(!) Важно: соблюдайте элементарные правила безопасности. Не храните пароли в FTP-клиентах, не используйте стандартные и популярные пароли, периодически меняйте доступы.

(!) Совет: оптимально устранять проблему заражения ещё на том этапе, когда пометка в выдаче не успела появиться. Это возможно, если регулярно посещать сайт с включенным антивирусом, следить за количество страниц в выдаче и незапланированными изменениями файлов на сервере (js ,php, .htaccess).

ТОП-7: Фильтр на одинаковые сниппеты #

Поисковые системы сильно заботятся о своей выдаче, её полноте и разнообразии. Пользователь должен быть удовлетворён результатами по своему запросу, даже если ввёл весьма неоднозначный поисковый запрос. Яндекс решает эту задачу тремя основными приёмами:

  • Поисковая технология «Спектр», внедренная в декабре 2010 года [9]. «Спектр» направлен на разнообразие результатов выдачи по неоднозначным поисковым запросам.
  • Скрытие предложений товаров и услуг от «схожих» или одинаковых компаний (аффилированность, см. пункт 3).
  • Фильтр на одинаковые сниппеты: скрытие результатов, которые по тем или иным причинам содержат повторяющийся сниппет (текстовое описание, анонс), см. рисунок 4.

Фильтр на одинаковые сниппеты

Фильтр на одинаковые сниппеты наиболее часто встречается при продвижении конкретных товарных позиций интернет-магазинов. Если анонс вашего документа полностью или почти полностью дублирует анонс другого сайта, то один из результатов будет скрыт для пользователей. Отобразить все релевантные сайты можно, если нажать на ссылку «Показать всё без исключения» после последнего результата или дописать в конце URL: &rd=0.

Симптом: сайт теряет позицию по одному или нескольким товарным запросам.

Проверка: при этом, позиции сильно улучшаются, если просмотреть выдачу с параметром &rd=0 в URL или нажать на ссылку «Показать всё без исключения».

(!) Важно: фильтр накладывается, если описание товаров или его характеристики не являются уникальными. И не уникальная фраза участвует в формировании сниппета. При этом ваш сайт не признаётся Яндексом автором контента.

(!) Совет: если попали под фильтр, добейтесь уникальности дополнительного описания товара. Заполните meta-тег description привлекательным и не спамным содержимым. Допишите в начале карточки 2-3 уникальных предложения с содержанием ключевой фразы.

(!) Совет: далеко не всегда 100% уникальность текста на странице даст весомый плюс в ранжировании карточки товара. Но, чтобы не попасть под фильтр (а в поисковой системе Google это может быть и Панда [10]), рекомендуется добавить на страницу уникальное содержимое: анонс, отзывы, обзоры, расширенные данные о продукте.

ТОП-8: некорректность файла robots.txt или meta-тегов #

Часто причиной резкой потери позиции может быть некорректное содержание файла robots.txt, который отвечает на сканирование сайта пауками поисковых систем, а также наличие meta-тега robots, запрещающего индексацию документа.

То что страница разрешена к индексации, можно проверить с помощью сервиса ADD URL в Яндексе [1], просто введя интересующий адрес в форму, если документ запрещен к индексации посредством файла robots.txt или meta-тега, то выведется предупреждение свидетельствующее об этом (рисунок 5).

Добавление документа в сервис add url Яндекса

Пример корректно составленного файла:

User-Agent: Yandex
Disallow: /papku-ne-nado-indeksirovat
Disallow: *?i-etot-get-parametr=*
Host: www.pixelplus.ru

User-Agent: *
Disallow: /papku-ne-nado-indeksirovat
Disallow: *?i-etot-get-parametr=*

Дополнительно стоит проверить наличие и корректность атрибута rel=»canonical» тега <link>. Его требуется использовать, если на сайте есть два и большее количество URL-адресов, по которым оказывается доступен один и тот же документ. Скажем:

  • https://pixelplus.ru/samostoyatelno/stati/
  • https://pixelplus.ru/samostoyatelno/stati/?from-email
  • https://pixelplus.ru/samostoyatelno/stati-po-seo/

Тогда, чтобы избежать наличия дублей в индексе, на всей группе одинаковых страниц устанавливается тег, указывающий основной адрес (канонический). Если атрибут указан некорректно, то это может привести к выпадению нужных документов из индекса. Пример тега:

<link rel=»canonical» href=»https://pixelplus.ru/samostoyatelno/stati/» />

ТОП-9: Прочие опасности #

Выше были рассмотрены наиболее частые причины выпадения коммерческих сайтов из ТОП-10 лидирующей поисковой системы рунета — Яндекса. Но в ряде случаев, SEO-специалиста могут подстегать и более редкие опасности. Обращать на них внимание можно, если ни один из описанных выше приёмов проверки не сработал.

Просто перечислим их, чтобы далее читатель понимал, куда можно двигаться в случае неудачи:

  • Изменение региональной привязки сайта. При ранжировании по геозависимым поисковым запросам поисковая система Яндекс обращает пристальное внимание на совпадение региона пользователя и региональной привязки сайта. Если в какой-то момент у вас сменилась эта привязка — это станет причиной существенного изменения занимаемых позиций. Важно отслеживать привязку в панели Вебмастера (Сайт > География сайта > Регион сайта) и периодически проверять, что всё в порядке.
  • Выпадение сайта в результате пересчета категорий ответов в поисковой технологии «Спектр». Требуется понять, мог ли выводиться ваш сайт, как примесь по одной из дополнительных категорий ответов «Спектра».
  • Дубли страниц в рамках одного сайта. В случае нормально настройки работы сайта (CMS и хостинга) этой проблемы можно полностью избежать, однако в большинстве случаев, по разным URL адресам в рамках одного сайта — отдаётся одинаковое содержимое. Однажды это может сильно аукнуться, если в индекс попадёт сразу несколько полных копий продвигаемого документа. Для проверки осуществляйте поиск уникального фрагмента текста в рамках сайта. Здесь поможет поисковый запрос следующего вида: [«уникальный_текст_со_страницы» site:host.ru].
  • Ваш ресурс содержит избыточное количество неуникальных текстов, это может сказаться и на позициях страниц, которые содержать уникальный материал.
  • На сайте размещен Popunder или навязчивая реклама открывается при клике пользователя.
  • Смена доменного имени: требуется чётко соблюдать последовательность действий. Сначала указываем главное зеркало в robots.txt в директиве Host и только после склейки/переклейки ставим 301-редирект, а не наоборот!

ТОП-10: Санкции за накрутку ПФ #

В 2014 и 2015 годах, многие сайты стали подвергаться санкциям за накрутку кликовых поведенческих факторов.

По заверениям представителей поисковой системы Яндекс под пессимизацию попали несколько тысяч сайтов, которые имели отношение к накрутке и манипуляции действий пользователей.

При этом, сама санкция является очень сильной и длительной — от 6 календарных месяцев. Для диагностики факта наложения санкций за накрутку ПФ — рекомендуется написать соответствующий вопрос в службу поддержки Яндекса. Также, рекомендуются следующие действия для снятия санкций, в зависимости от срока их применения: ответ на вопрос.

С чего следует начинать любой анализ

Помните, анализ причины требуется начинать с полноценной оценки ТОПа и сравнению выдачи до и после апдейта. Это позволит вам быстро отделить локальные подвижки (изменение позиции 1-3 сайтов) от глобального апдейта алгоритма/классификации запроса и существенно сузить круг возможных причин.

pixelplus.ru

При продвижении сайта бывает момент, когда в выдачу попадает не та страница, на которую мы ориентировались, как на целевую для определенного запроса. Если описать точнее, то мы сделали релевантную страницу под запрос, однако в выдаче возникает другая страница и как следствие этого теряется правильная реакция посетителя, так как та страница может не решить его вопроса, либо не сыграть в сторону правильной конверсии.

 

Неправильная или скажем так, правильная на взгляд поискового робота релевантность страницы в принципе означает, что мы не имеем нужный результат. Это есть не хорошо и поэтому надо знать и понимать, как изменить в выдаче поисковика страницу на нужную нам. Хотя конечно остается вариант, что мы можем при возможности заточить страницу, признанную поисковиком релевантной под наши задачи.

 

В первых сразу про то, как проверить выдачу и релевантность запрос — страница в поисковике. Заходим в расширенный поиск Яндекса http://yandex.ru/search/advanced и там вставляем поиск на своем сайте, вбиваем запрос и смотрим, какая страница сайта на первом месте, по мнению Яндекса, отвечает на указанный запрос. Если страница не та, мы начинаем работать над заменой страницы. Здесь следует учесть, что для Яндекса в выборе релевантной страницы играют роль следующие факторы:

Внутренняя оптимизация страницы

Внешняя оптимизация страницы

Делаем внутренние изменения на сайте.

Начнем с изучения внутренней оптимизации страницы, заходим в один из множества seo сервисов, где можно проверить контент страницы, и сравниваем содержание обеих страниц, той, которая на 1 месте и той, которая нам желательна там. Значение имеет следующее: титл, теги, контент. Здесь следует поработать над нужной страницей, повысив её вес, также можно добавить пару ссылок с страниц сайта по этому запросу на нужную страницу, но главное вес страницы должен быть больше, чем вес той, которая стоит в выдаче. После того, как мы проверили и оптимизировали нужную нам страницу, мы также можем поработать над страницей, которая выходит в выдаче и слегка убрать с неё оптимизацию под этот запрос.

 

Работаем с внешними факторами.

Теперь пора переходить к внешним факторам, то есть к ссылкам на страницу. Наша задача после внутренних улучшений добавить вес странице с помощью внешних ссылок, тут существует много вариантов и мы не будем разбирать качество ссылок и где покупать, а именно сделаем упор, что несколько внешних ссылок добавят вес запросу на эту страницу и как следствие улучшится релевантность в глазах поисковика. Бывает, что даже отсутствует запрос в тегах и в титле, но благодаря внешней ссылке он может быть релевантным. Это мы также проверяем. Указанных методов обычно хватает для того, чтобы изменить выдачу нужной страницы в поисковике.

cmsinstant.ru

Чем чревата ситуация, когда в выдаче появляется ненужная страница

Прежде всего, не та (ненужная) страница в выдаче бьет не только по нервам владельца этого интернет-ресурса (за сеошника мы вообще молчим), но и по его карману:

  1. Посетитель сайта попадает совсем не на ту страницу, а значит, велика вероятность, что он не выполнит тех действий, которые от него ожидаются. Например, не купит товар.
  2. Если на продвигаемую, но не оправдавшую надежду страницу закупаются внешние ссылки для увеличения ее релевантности, то получается, что деньги потрачены зря.

Словом, бюджет на SEO-продвижение слит непонятно на что.  Но, без паники! Сеошника, конечно, можно и нужно испепелить взглядом, но и дать ему шанс исправить ситуацию – поменять ненужную страницу на нужную или, как еще говорят, перебить страницу.

Goalkeeper Tim Krul of the Netherlands substitutes Jasper Cillessen during extra time in the 2014 World Cup quarter-finals between Costa Rica and the Netherlands at the Fonte Nova arena

Как увидеть, что ненужная страница в выдаче

Начнем с того, что соответствие нужного URL поисковому запросу необходимо периодически (хотя бы раз в месяц) проверять. В противном случае можно, как говорят в спорте, потерять рамку ворот. То есть защищать пустое место  – вкладывать деньги в продвижение, которое не дает никаких результатов. Существует несколько способов проверить это соответствие.

Способ №1

В поисковой строке Google или Yandex необходимо ввести такое словосочетание: site:наименование домена поисковый запрос. Обращаем внимание, что после двоеточия пробела нет.

Допустим, мы хотим проверить на сайте www.seranking.ru соответствие целевой страницы запросу «Определение позиций сайта».  Результаты представлены на рисунке ниже.

proverka-celevogo-url

Как видите здесь первый в выдаче URL точно соответствует понятию целевого, так как ведет на страницу, где можно узнать о сервисе, позволяющем определить позиции. Кроме того посетитель видит все возможности сайта. То есть вероятность того, что он превратиться из посетителя в клиента возрастает.  А вот допустим URL, стоящий в выдаче на четвертом месте, если бы он оказался на первом, можно было бы считать, как ненужная страница в выдаче, так как он посвящен совсем другой теме.

А вот пример, когда явно ненужная страница в выдаче стоит первой:

ne-ta-stranica-v-vydache

URL целевой страницы по данному вопросу должен быть следующим: https://dyson.ru/skorovarki/. То есть посетитель должен попасть на страницу, где представлены все скороварки данного интернет-магазина, а не только конкретная модель.

Способ №2

Для своих клиентов наш сервис SE Ranking создал удобный инструмент для настройки и контроля целевых  URL. Достаточно  открыть свой интернет-проект,  в появившемся списке запросов выбрать нужный, кликнуть по нему и в появившейся форме внести URL целевой страницы.  После обновления, около запроса, для которого вручную  введен URL, появится значок записной книжки, а далее позиции сайта по этому поисковому запросу в различных поисковых системах. Причем, если введенная целевая страница не совпадает с той, что выдается по запросу, строка окрашивается в красный цвет. Чтобы узнать, какая страница «перебежала дорогу» в конкретном поисковике, достаточно кликнуть по числу, указывающему позицию сайта по этому запросу. Очень удобно и наглядно – сразу представляется информация по всем поисковым системам.

zadanie-url

Как убрать ненужную страницу в выдаче

Существует два принципиально разных пути решения этой проблемы:

  • быстрый, но не совсем качественный;
  • более долгий, но качественный.

Как быстро заменить страницу в выдаче на нужную

Для этого необходимо воспользоваться 301 редиректом. То есть поставить на страницу-выскочку 301 редирект с нее на нужную страницу. Тогда посетитель будет автоматически перенаправляться на нее. Что ценно, что в этом случае ссылочный вес (тИЦ и PR) этих двух страниц будет совмещаться! К слову сказать, 301 редирект очень полезная вещь. Несколько дополнительных строк в программном коде и можно поднять позиции сайта в выдаче. Но подробное его описание и возможностей требует отдельной статьи.

301 редирект организуется просто – в файле .htaccess(httpd.confесли используется Apache HTTP-сервер) необходимо вписать следующую строку:

Redirect 301 /www.домен/page1.htm http://www.домен /page2.htm, где:

– page1 – ненужная страница;

– page2 – целевая страница.

Убрать ненужную страницу  в выдаче можно при помощи файла Robots.txt, запретив в нем индексацию страницы, которая попадает в выдачу вместо нужной. Вот код для запрещения индексации страницы page1:

User-Agent: *

Disallow:/page1/

Но в этом случае ссылочный вес этой страницы пропадет, а значит и средства, которые вольно или невольно были вложены в ее продвижение.

Данный способ замены ненужной страницы в выдаче на нужную можно использовать, если эту страницу  для посетителей можно безболезненно убрать (в ней нет необходимости) или ее информация еще где-то дублируется на сайте. Но, например, в нашем примере со скороварками этого сделать нельзя, так как эта страница описывает конкретную модель и в случае постановки на нее 301 редирект станет вообще недоступна для посетителей. А вдруг кому-то надо именно скороварка Алза диаметром 22 см и емкостью 6 литров?!

И еще один важный момент. Появление не той странице в выдаче указывает, что с seo-оптимизацией  сайта не все в порядке. И разумней будет не маскировать изъян, а устранить его – лучше вылечить воспаление легких, а не давать таблетки от кашля!

Как качественно заменить страницу в выдаче на нужную

Если кавалерийский наскок не требует особой подготовки, то серьезная войсковая операция нуждается в обстоятельной предварительной работе. В нашем случае необходимо провести анализ или по-другому аудит сайта, чтобы понять, что не так. И первое, что я советую сделать, это проверить текст на уникальность. Если текст не уникален (то есть уникальность менее 80 %) , то никакие ухищрения по SEO-оптитмизации не помогут. Особенно своей нелюбовью к краденному контенту отличается Яндекс. Сервисов для проверки уникальности масса. Наибольшей популярностью пользуются text.ru и advego.ru. Подробнее о важности уникального текста вы можете прочесть в статье: «Уникальный контент сайта – его основа и инструмент продвижения».

А после необходимо выполнить анализ релевантности первой и второй страницы. Для этого в сети существует несколько сервисов. Пользователи SE Ranking, разумеется, также могут выполнить такой анализ.

При анализе проверяется:

  1. Плотность слов поискового запроса в тексте или попросту, плотность ключей.
  2. H1–H6 тэги (лучше не использовать тэги ниже H3).
  3. Корректность мета тегов, которые должны соответствовать содержимому текста и его названию.
  4. Релевантность названия текста его содержимому.
  5. Наличие стоп-слов.
  6. Оптимизация картинок под поисковый запрос (то есть в теге <img>параметр alt, отвечающий за описание картинки, должен быть не пустым, а включать себя один или несколько ключей).

Несколько поясняющих слов к первому пункту – плотности слов поискового запроса.  Тут важно соблюсти несколько критериев:

  • плотность слов поискового запроса должна быть выше, чем других;
  • плотность таких слов не должна превышать 4%.
cozdanie
Чтоб вылепить из обычного текста «конфетку» часто требуется филигранное мастерство

Первый критерий покажет поисковым системам, что текст релевантен именно поисковому запросу. Второй – что не переспамлен, то есть написан для людей, а не для роботов-пауков. В противном случае можно попасть и под спамный фильтр. И увидеть привет от Яндекса: «Ты – спамный» или более мягко: «Текст переспамлен».

Можно сказать, что уникальность текста  и плотность ключей в нем играют решающую роль в показателе релевантности страницы. Так что основной упор сделайте именно на них. Итак, текст на странице подчистили, пригладили, а то и вовсе заменили, если не уникальный. Все, можно выпускать в большое плавание – в Интернет на смотрины поисковым системам? Нет, лучше сделать еще кое-что.

Как с помощью внутренних ссылок убрать ненужные страницы из выдачи

В статье «Схемы перелинковки сайта» мы писали, что внутренними ссылками можно значительно повысить релевантность той или иной страницы. А ведь нам это сейчас и требуется! Что делаем?

Во-первых, проверяем ссылки, имеющиеся на странице, нет ли битых, то есть ведущих в никуда. Если есть – убираем.

Во-вторых, помня правило, что с чем более релевантной страницы идет ссылка, тем более она весомей, то есть сильнее повышает релевантность, определяем наиболее релевантные страницы сайта. К сожалению, тИЦ Яндекс определяет только для всего сайта. Поэтому надо ориентироваться на PageRank от Google. Есть масса плагинов для его определения. Найдя на сайте самые релевантные страницы (4–5 хватит вполне) необходимо с них организовать ссылки на продвигаемую страницу. Только помним, что анкоры должны соответствовать поисковому запросу, но не обязательно в прямом вхождении (точно совпадать). Кстати, очень полезно будет организовать и ссылку со страницы, которая является ненужной в выдаче.

Вот теперь все. Ждем неделю-две-три, пока поисковые системы вновь не проиндексируют сайт, и смотрим на результаты своих усилий.

Внешние ссылки – последняя надежда, чтобы убрать ненужные страницы в выдаче

Может возникнуть вопрос, а почему сразу нельзя было использовать внешние ссылки? Можно, конечно. Просто вышеперечисленные мероприятия по убиранию ненужной страницы в выдаче не предполагают никаких затрат, кроме зарплаты SEO-оптимизатору, который, по идее, вообще должен бесплатно трудиться над устранением своих косяков. Внешние ссылки в большинстве случаев покупные со всеми вытекающими из этого факта последствиями.

Кстати, можно на этапе аудита сайта проверить ссылочную массу на ненужную и целевую страницу. Может все дело в ней? Может на ненужную страницу ссылается какой-то авторитетный ресурс? Тогда вообще может ее и сделать целевой, подправив контент? И снова выходит, что seo-продвижение дело тонкое.

Где лучше приобретать внешние ссылки? В первую очередь у тех ресурсов, которые имеют высокую релевантность по вашему поисковому запросу. Для этого вбиваем его в поисковые системы и смотрим на результат. В приведенном выше примере про покупку скороварки SERP Яндекса будет выглядеть так:

vydacha

Если покупка внешних  ссылок  с найденных таким образом ресурсов не вписывается в бюджет, можно умерить свои аппетиты и обратиться к тематическим площадкам. То есть написать статью, релевантной поисковому запросу, поставить с нее ссылки на целевую страницу  и разместить на паре-тройке площадок.

Как показывает практика в совокупности все описанные выше мероприятия позволяют заменить страницу в выдаче на нужную.

seranking.ru

Совет 1: Как изменить информацию на сайте

У вас должен быть договор на разработку сайта. Никаких договоренностей «на словах» быть не должно. Только договоренности, закрепленные подписями и печатями.

  • Предмет договора. Документ должен четко отражать ваше видение будущего сайта. Должны быть описаны структура, требования к дизайну и функционалу (онлайн-форма заказа, калькулятор сайта и т. д.).
  • Сроки реализации. В договоре четко должны быть прописаны сроки реализации и ответственность сторон. Но если заказчик не дает вовремя обратную связь по ходу реализации проекта, то ни о каком выдерживании сроков не может быть и речи.
  • Пригодность сайта для поискового продвижения. Когда вы еще только ищете подрядчика, который возьмет на себя задачи по разработке сайта, то вы должны быть уверены, что разработанный ресурс будет отвечать всем требованиям SEO. Существуют технологии, которые не позволяют полноценно работать с сайтом с точки зрения поискового продвижения. Здесь лучше подстраховаться и обратиться за помощью к опытному SEO-специалисту, иначе вы рискуете заплатить за сайт, на который никогда не сможете привести трафик из поисковых систем.
    Особенно внимательным нужно быть, если вы хотите разработать сайт через какой-то онлайн-сервис. Зачастую они работают по принципу SAAS (бизнес-модель продажи и использования программного обеспечения, при которой поставщик разрабатывает веб-приложение и самостоятельно управляет им, предоставляя заказчику доступ к программному обеспечению через интернет). Т. е. используя такого рода сервисы, ваш сайт доступен пользователям только тогда, когда вы ежемесячно оплачиваете услуги, либо доступен всегда, но на нем сервис имеет право транслировать свою рекламу. Например, http://inomarka-nsk.ru/. Также часто бывает, что SAAS-сервисы не могут предоставить ftp-доступы и налагают ряд ограничений на внедрение технических доработок, предусмотренных требованиями поисковой оптимизации.
  • Размещение сайта. Сайт вне зависимости от каких бы то ни было обстоятельств должен размещаться на вашем сервере. Вы должны запросить у подрядчика информацию о подходящей для ресурса инфраструктуре (тип сервера, конфигурация «железа», необходимое программное обеспечение). Только в таких условиях ваш сайт будет защищен от несанкционированного доступа. Если после того, как подрядчик разработал сайт, вы далее с ним не сотрудничаете (например, в вопросах технической поддержки), то сразу же смените все доступы. Если техническую поддержку осуществляет подрядчик, то у вас должен быть отдельный договор, регламентирующий данные взаимоотношения. Но оговорюсь еще раз: сервер принадлежит вам и всеми доступами владеете вы, предоставляя необходимую информацию только по запросу.
  • Право собственности на доменное имя. Домен вы должны регистрировать самостоятельно либо на себя, либо на свое юридическое лицо. Доступы к панели управления доменом не нужно никому и никогда передавать. Единственное, что могут попросить разработчики, — изменить адреса ns-серверов. Вы вполне сможете сделать это самостоятельно, обратившись за помощью к поддержке хостинг-провайдера.
  • Выполнение этого минимума рекомендаций поможет вам максимально обезопасить себя и избежать повторения той ситуации, которую я описал в начале статьи. Не доверяйте ключи от сайта посторонним непроверенным специалистам, если вы не скрепили отношения договором, так же как вы не доверяете ключи от квартиры, где деньги лежат, кому бы то ни было.

    steptosleep.ru

    Что такое релевантная (целевая) страница?

    Поисковые системы выбирают релевантные определенному запросу страницы по собственным алгоритмам. Помочь им выбрать нужную нам страницу для выдачи пользователю на первой позиции – это будет задачей номер один.

    Для начала определимся с понятием. Релевантность – степень соответствия страницы определенному поисковому запросу. Пользователь вводит фразу, ожидая, что на первых позициях в выдаче будут наиболее подходящие под его запрос страницы. Сделать выдачу релевантной стремятся и поисковые системы.

    Прежде чем заниматься продвижением, необходимо выбрать целевые страницы для каждой ключевой фразы. Помочь таким поисковикам, как Google и Яндекс определить правильно релевантную (целевую) страницу вполне возможно. Желательно, чтобы все поисковики считали релевантной определенному запросу одну и ту же страницу вашего сайта.

    Как определить релевантную страницу самостоятельно?

    Какую страницу сайта поисковик считает релевантной определенному запросу? Ответить на вопрос, поможет похожая конструкция, введенная в строку поиска:

    соф для сеошника site: rodinalinkov.ru

    релевантная страница

    В выдаче Gogle и Яндекса на первой позиции будет наиболее релевантная запросу «софт для сеошника» страница. Далее, релевантность будет убывать.

    Что делать, если поисковики считают релевантной не ту страницу?

    Не редкость, когда мнения поисковых систем и оптимизатора расходятся в этом вопросе. Если вы считаете, что один или все поисковики выдают пользователю не ту страницу, бороться с этим не только можно, но и нужно. Прежде всего, такая ситуация может повысить количество уходов с сайта, когда пользователи не находят нужную страницу, или видят устаревшую информацию. Если вы продаете товары, оказываете услуги, то продажи будут стоять на месте, т.к на нужную целевую страницу пользователь просто не попадет.

    Как быть в ситуации, когда релевантной считается не та страница? Предлагаем, подкрутить факторы, влияющие на определение нужной страницы в качестве релевантной.

    1. Проверьте, входит ли ключевая фраза в title страницы, заголовки h1 – h6, плотность ее в тексте, а также, ее присутствие в качестве атрибута alt в изображениях.
    2. Проверьте релевантность текстового содержания. Сравните тот документ, который на первом месте в выдаче, т.е, который считает релевантным поисковик, с документом, который считаете таковым вы. Прикиньте количество вхождений ключевой фразы, плотность вхождения. Сделать это можно на глаз, или при помощи бесплатных автоматических сервисов, к примеру, http://www.cy-pr.com/tools/analyzer/. Если страница, которую вы считаете более релевантной, оптимизирована под ключевую фразу хуже, чем та, которую выдает за целевую поисковик, исправьте ситуацию. Не рекомендуется снижать релевантность старой страницы, лучше увеличьте релевантность новой в глазах поисковой системы.
    3. Сравните ссылочную массу страниц. Зайдите в Яндекс. Вебмастер или аналогичный в Гугл, посмотрите внешние ссылки обеих страниц. При необходимости, закупите ссылок с трастовых ресурсов на страницу, которую считаете релевантной вы. Не лишним будет проанализировать и ссылки с социальных сетей, особенно с Твиттера.
    4. Проставьте ссылки с внутренних страниц. Речь идет о том, чтобы проставить ссылки на нужную вам страницу с тех страниц, которые считает релевантными и ставит на первое место поисковая система. Это уже похоже на внутреннюю перелинковку, и является достаточно действенным способом показать ПС, какую страницу выбирать в качестве целевой.
    5. Проверьте релевантность адреса. Не лишним будет проставить ключевое слово в именительном падеже в URL страницы.
    6. Поставьте постоянный 301 редирект на страницу, которая должна быть целевой, со страниц, которые находятся выше нее в выдаче. Кроме того, при помощи 301 редиректа, а также robots.txt можно убрать дубли страниц, что будет профилактикой появления нежелательных целевых страниц.

    Бывает, что изменение одного пункта, описанного выше, уже влияет на правильный выбор поисковой системы. Можете использовать один, или весь комплекс мер. Желаем, чтобы у вас с поисковиками было единое мнение, что касается релевантных страниц на вашем сайте.

    www.rodinalinkov.ru

    Поисковая оптимизация – большая работа над множеством различных факторов. Дизайн, техническая составляющая, контент. Даже незначительные на первый взгляд детали очень важны для продвижения. О самых частых ошибках в дизайне сайта мы уже говорили. Сегодня разберем 9 фатальных SEO ошибок, способных «угробить» любой сайт.

    1. Фильтры и санкции поисковых систем

      Как минимум, раз в неделю рекомендую заглядывать в вебмастера Яндекс и Google для проверки наличия санкций. В Яндексе это можно сделать в разделе Диагностика → Безопасность и нарушения. В Google – Поисковый трафик → Меры, принятые вручную.

      Как показывает наша практика, чаще всего владельцы сайтов даже не догадываются о наложенных ограничениях. Недавний пример из нашей работы:

      Нарушения Яндекс. Малополезный контент

      Большое количество чужих текстов на сайте и открытые исходящие ссылки. Результат на скриншоте.

      До снятия всех ограничений дальнейшего смысла заниматься продвижением нет. Исправляем все ошибки, сообщаем поисковой системе и ждем снятия санкций.

    2. Контент

      Мы постоянно говорим о том, как важны тексты. Контент – это то, зачем пользователи заходят на сайты. Неуникальный и неинтересный контент никому не нужен. Поисковые системы занижают подобные ресурсы в выдаче, а клиенты устали читать одни и те же шаблонные тексты на сотне сайтов. Пруф того, что за контент можно вылететь с хороших позиций, тут.

      Проверяйте уникальность текстов перед размещением на text.ru.

      Как писать тексты, на какие страницы и в целом, о контенте, много написано в нашем блоге. Вот хорошая подборка статей от нашего копирайтера Дарьи.

    3. Теги Title и Description, заголовки H1-H3

      Основа SEO-продвижения – правильно подобранные ключевые слова. Это очень важный фактор в оценке релевантности вашего сайта поисковому запросу.

      Чаще всего мы сталкиваемся с двумя ошибками. Полное отсутствие ключевых слов в тегах:

      title без ключевых запросов

      Тег Title должен быть заполнен в виде связного предложения с включением ключевых слов.

      Либо переспам ключами в заголовках:

      переспам alt

      Важно найти золотую середину. Теги должны быть полезными не только для поисковых роботов, но и для обычных людей. Не забывайте об информативности. Как правильно писать теги title, description и заголовки H1, хорошо рассказывает наш копирайтер Екатерина в своей статье.

    4. Переезд на https

      C января 2017 года браузер Google Chrome (начиная с 56 версии) начал помечать все HTTP-сайты, содержащие любые формы, передающие личные данные пользователей (email, пароли, данные кредитных карт и т.п.) как «небезопасные». Также наличие SSL сертификата является небольшим импульсом в ранжировании в Google.

      Небезопасные сайты

      Всем интернет-магазинам в первую очередь следует перейти на протокол https. При этом очень важно соблюсти правильный алгоритм действий.

      Самая частая ошибка – просто настроить 301-редирект со старой версии http на https после покупки SSL-сертификата. Владельцы сайтов забывают о файле robots.txt, директиве Host, настройке вебмастеров. Сайт с http выпадает из индекса, новый сайт на https еще не проиндексирован. Все позиции моментально улетают в трубу.

      В нашем Блоге есть подробная инструкция, как правильно перенести сайт с http на https. Если останутся вопросы, пишите нам, обязательно поможем.

    5. Файл robots.txt

      Текстовый файл, размещенный на сайте и предназначенный для роботов поисковых систем. В этом файле следует указать параметры индексирования своего сайта для поисковых роботов.

      Иногда файл robots.txt отсутствует вовсе.

      Свежий пример из нашей работы. Интернет-магазин станков, работы проводились в рамках услуги поисковое продвижение сайта. Сайт был полностью открыт для индексации поисковым роботам и вовсе не имел файл robots.txt.

      Настроили ему robots, теперь все в порядке:

      Не та страница в выдаче

      Что конкретно мы сделали?

      Закрыли от индексации админ панель сайта, служебные страницы 404 и 403, страницу поиска, корзину. Указали адрес карты сайта, настроили директиву Host.

      Вместе с остальными работами по оптимизации это помогло достичь следующих результатов:

      рост посетителей на сайте

      Еще одна серьезная ошибка – сайт полностью закрыт от индексации. За это отвечают директивы Disallow и Allow, которые запрещают или разрешают индексирование разделов, отдельных страниц сайта или файлов соответственно. Для проверки файла у поисковых систем есть специальные инструменты: Яндекс и Google.

      Проверьте, что у вашего сайта имеется файл robots.txt и заполнен он корректно. От индексации следует закрывать все служебные страницы, страницы поиска и фильтров. Страницы дублей, регистрации, авторизации. Корзину и страницу оформления заказа для интернет-магазинов. Подробнее о robots.txt.

    6. Дублирование контента (дубли страниц)

      Дублированный контент или просто дубли – это страницы на вашем сайте, которые полностью (четкие дубли) или частично (нечеткие дубли) совпадают друг с другом, но каждая из них имеет свой URL.

      Одна страница может иметь как один, так и несколько дублей:

      переспам alt

      Поисковые роботы отрицательно относятся к дублированному контенту и могут понизить позиции в выдаче из-за отсутствия уникальности, а следовательно, и полезности для клиента. Нет смысла читать одно и то же на разных страницах сайта.

      Может измениться релевантная страница. Робот может выбрать для выдачи дублированную страницу, если посчитает ее содержание более релевантным запросу. Сайт потеряет позиции и просядет в выдаче. В 90% случаев дубли мешают продвижению, и после их устранения позиции сайта улучшаются.

      Как найти и убрать дубли на сайте, рассказываем в данной статье.

    7. Зеркала сайта

      Зеркалами считаются сайты, являющиеся полными копиями друг друга, доступные по разным адресам. Все зеркала сайта важно склеить через 301 редирект.

      Показатели тИЦ, вес внешних ссылок не должны растекаться, а они будут, т.к. поисковики считают разными ресурсами сайты, расположенные по разным адресам. Возможна подмена релевантной страницы в поисковой выдаче, дублирование контента. 100% мешает росту сайта в выдаче.

      Сайт не должен открываться по разным адресам, с www и без www, просто site.ru и site.ru/index.php, по http и https и т.д.:

      Не та страница в выдаче

      Чек-лист для проверки:

      • Сайт должен быть доступен только по одному протоколу http или https.
      • Выбрано главное зеркало сайта, с www или без www, указано в Вебмастере.
      • Настроен 301 редирект со всех зеркал.
      • Главная страница сайта доступна по одному адресу, без /index.php, /index.html и т.п.
    8. Адаптивная верстка (версия сайта для мобильных устройств)

      100% Must-have для всех сайтов в 2017 году. Сегодня рост мобильного трафика опережает компьютерный. Число пользователей, использующих смартфоны для совершения покупок, в мире растет с каждым днем. Алгоритмы поисковых систем учитывают адаптивность при ранжировании сайта в мобильной выдаче.

      Google уже с 2015 года использует алгоритм Google mobile-friendly.

      Яндекс год назад запустил алгоритм Владивосток.

      Если ваш сайт все еще не адаптирован под мобильные устройства – каждый день вы теряете до половины своих клиентов. Подробнее о том, зачем нужна оптимизация.

    9. Скорость загрузки сайта

      Тут все просто. Пользователям не нравятся медленные сайты. Поисковые системы так же отдают предпочтение быстрым, оптимизированным сайтам. Проверить скорость загрузки своего сайта можно с помощью инструмента Google. Красный – медленно, важно срочно увеличивать скорость, желтый – нормально, но можно оптимизировать, зеленый – отлично.

      скорость загрузки сайта

      Разберем на конкретном примере

      Помните, в начале статьи мы упоминали интернет-магазин станков. Что мы исправили из фатальных ошибок:

      • Неуникальный контент

      Написали хороший продающий, уникальный текст на главную страницу сайта.

      • Ошибки оптимизации

      Скорректировали теги title и description, заголовки H1.

      • Отсутствие файла robots.txt

      Создали и настроили файл robots.txt. Сейчас сайт правильно индексируется поисковыми системами. До этого, как писали выше, данного файла не было на сайте вовсе.

      • Наличие не склеенных зеркал

      Склеили зеркала сайта. Сайт был доступен по двум адресам с www и без.

      • Некорректный ответ сервера для несуществующих страниц

      Создали отдельную страницу 404 и настроили правильный ответ сервера для несуществующих страниц.

      До выполнения работ несуществующие страницы через 302 редирект перенаправляли пользователя на главную страницу сайта.

      Результаты:

      Положительная динамика роста посещаемости из поисковых систем:

      Рост посещаемости

      Трафик из Google вырос в два раза:

      Рост трафика из Google

      Результат за 3 месяца:

      +8 запросов у Яндекса, +6 у Google в топ-5

      +19 запросов у Яндекса, +9 у Google в топ-10

      +25 запросов у Яндекса, +11 у Google в топ-20

      +14 запросов у Яндекса, +4 у Google в топ-50

      Посмотреть позиции до и после »

      Хотите так же? Проверьте, может данные ошибки есть и на вашем сайте. Если нет времени и желания разбираться, заказывайте поисковое продвижение у нас, с радостью поможем.

    1ps.ru


    You May Also Like

    About the Author: admind

    Добавить комментарий

    Ваш e-mail не будет опубликован. Обязательные поля помечены *

    Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.

    Adblock
    detector