Ненужная страница в выдаче


Google-Search.jpg

Пробовали ли вы набрать название своей компании или бренда в поиске Google? Если нет, то сделайте это прямо сейчас. Каковы результаты? Прекрасно, если первые 30 результатов выдачи относятся непосредственно к вашему продукту и содержат нужную и полезную для бизнеса информацию. А как быть, если на первые позиции пробиваются нежелательные результаты? Например, не относящиеся к делу, или информирующие о сделках, конкурентах, отношениях с политикой? Ваше доброе имя может быть затенено не самой привлекательной информацией. Как же быть?

Конечно, можно миллион раз перейти по нужной ссылке, и есть вероятность, что Google сам осознает свою ошибку, снизив рейтинг нежелательного URL. Можно в срочном порядке выложить большое количество актуального и интересного контента в социальные сети. Можно найти грамотного маркетолога, который будет создавать нужный контент. Но всё это способы трудозатратные и занимающие много времени, а последний ещё и потребует заметных финансовых вложений. В этой статье мы расскажем о более простых способах удаления ненужных вам результатов из выдачи Google.

1. Удалить кэшированную копию страницы


Нередко случается, что после обновления или удаления информации с вашего сайта в выдачу продолжает попадать кэшированная копия страницы. Запросить ликвидацию копии, сохранённой в кэше, может каждый пользователь.

Процедура удаления ненужной копии очень проста, но применима исключительно к страницам в HTML. Файлы форматов PDF, DOC и подобные придётся удалить с ресурса полностью. Для Google алгоритм удаления копии в кэше таков:

  • выберите «Удаление содержания» в инструментах для веб-мастеров;
  • создайте запрос на удаление;
  • скопируйте и вставьте URL той страницы, которая подверглась изменениям (не ссылку на копию в кэше);
  • жмите кнопку «Продолжить»;
  • среди причин выберите соответствую (копия в кэше устарела из-за изменения содержания страницы);
  • обозначьте слово, которое есть на кэшированной копии, а в актуальной версии отсутствует. Так вы докажете Google, что страницу действительно изменили. Не нужно описывать отсутствующий контент или объяснять причину изменений;
  • нажмите кнопку, подтверждающую удаление копии.

2. Попытаться удалить контент с чужого ресурса

Как быть, если в результаты поиска попадает нежелательный контент с других ресурсов? Удалить его будет посложнее, чем собственный. Вы имеете право требовать уничтожения контента на сторонних сайтах только в трёх случаях:


  • информация нарушает законодательные нормы. Чтобы сообщить о нарушении авторских прав или незаконном использовании товарного знака, перейдите в соответствующий раздел Google, выберите пункт «веб-поиск» и уточните тему запроса;
  • разглашается личная информация. Алгоритм действий аналогичный, тему выбираете наиболее вам подходящую;
  • данные являются устаревшими и неверными. Если страницы, картинки или другая информация уже удалены, но в поиске по-прежнему присутствуют, это означает, что сайт ещё не проиндексирован Google, поэтому поисковик об изменениях не знает. Не хотите ждать, сложа руки – используйте инструмент для веб-мастеров, как при удалении кэшированной копии, выбрав соответствующую случаю причину.

3. Удалить картинку из выдачи Google

Неподходящими могут быть не только страницы, но и отдельные картинки, ведь они тоже присутствуют в результатах поиска. Сам Google не хранит картинки, а только ищет их. Поэтому, чтобы избавиться от изображения в выдаче, нужно удалить его с сайта. Если он принадлежит вам, то нет ничего проще: удалите изображения сами или заблокируйте индексацию поисковыми машинами с помощью файла robots.txt. Сложнее, если картинка не ваша. В таком случае, придётся связаться с веб-мастером того сайта, где она расположена, и договориться об удалении с ним. Для начала узнайте точный адрес картинки:

  • кликните по изображению на странице выдачи;
  • откройте его в полном размере;
  • скопируйте URL картинки и вставьте его в текстовый редактор, чтобы иметь под рукой в процессе работы.

Если изображение нарушает закон, смело поступайте с ним так же, как с неправомерным контентом, алгоритм удаления которого мы описывали во втором пункте этой статьи.

Вы можете узнать подробности о наших услугах, задав интересующий вопрос менеджеру по телефону +7 (495) 104-86-69, или направить заявку на продвижение сайта.

www.russianpromo.ru

Чем чревата ситуация, когда в выдаче появляется ненужная страница

Прежде всего, не та (ненужная) страница в выдаче бьет не только по нервам владельца этого интернет-ресурса (за сеошника мы вообще молчим), но и по его карману:

  1. Посетитель сайта попадает совсем не на ту страницу, а значит, велика вероятность, что он не выполнит тех действий, которые от него ожидаются. Например, не купит товар.
  2. Если на продвигаемую, но не оправдавшую надежду страницу закупаются внешние ссылки для увеличения ее релевантности, то получается, что деньги потрачены зря.

Словом, бюджет на SEO-продвижение слит непонятно на что.  Но, без паники! Сеошника, конечно, можно и нужно испепелить взглядом, но и дать ему шанс исправить ситуацию – поменять ненужную страницу на нужную или, как еще говорят, перебить страницу.


Goalkeeper Tim Krul of the Netherlands substitutes Jasper Cillessen during extra time in the 2014 World Cup quarter-finals between Costa Rica and the Netherlands at the Fonte Nova arena

Как увидеть, что ненужная страница в выдаче

Начнем с того, что соответствие нужного URL поисковому запросу необходимо периодически (хотя бы раз в месяц) проверять. В противном случае можно, как говорят в спорте, потерять рамку ворот. То есть защищать пустое место  – вкладывать деньги в продвижение, которое не дает никаких результатов. Существует несколько способов проверить это соответствие.

Способ №1

В поисковой строке Google или Yandex необходимо ввести такое словосочетание: site:наименование домена поисковый запрос. Обращаем внимание, что после двоеточия пробела нет.

Допустим, мы хотим проверить на сайте www.seranking.ru соответствие целевой страницы запросу «Определение позиций сайта».  Результаты представлены на рисунке ниже.

proverka-celevogo-url


Как видите здесь первый в выдаче URL точно соответствует понятию целевого, так как ведет на страницу, где можно узнать о сервисе, позволяющем определить позиции. Кроме того посетитель видит все возможности сайта. То есть вероятность того, что он превратиться из посетителя в клиента возрастает.  А вот допустим URL, стоящий в выдаче на четвертом месте, если бы он оказался на первом, можно было бы считать, как ненужная страница в выдаче, так как он посвящен совсем другой теме.

А вот пример, когда явно ненужная страница в выдаче стоит первой:

ne-ta-stranica-v-vydache

URL целевой страницы по данному вопросу должен быть следующим: https://dyson.ru/skorovarki/. То есть посетитель должен попасть на страницу, где представлены все скороварки данного интернет-магазина, а не только конкретная модель.

Способ №2

Для своих клиентов наш сервис SE Ranking создал удобный инструмент для настройки и контроля целевых  URL.


статочно  открыть свой интернет-проект,  в появившемся списке запросов выбрать нужный, кликнуть по нему и в появившейся форме внести URL целевой страницы.  После обновления, около запроса, для которого вручную  введен URL, появится значок записной книжки, а далее позиции сайта по этому поисковому запросу в различных поисковых системах. Причем, если введенная целевая страница не совпадает с той, что выдается по запросу, строка окрашивается в красный цвет. Чтобы узнать, какая страница «перебежала дорогу» в конкретном поисковике, достаточно кликнуть по числу, указывающему позицию сайта по этому запросу. Очень удобно и наглядно – сразу представляется информация по всем поисковым системам.

zadanie-url

Как убрать ненужную страницу в выдаче

Существует два принципиально разных пути решения этой проблемы:

  • быстрый, но не совсем качественный;
  • более долгий, но качественный.

Как быстро заменить страницу в выдаче на нужную

Для этого необходимо воспользоваться 301 редиректом. То есть поставить на страницу-выскочку 301 редирект с нее на нужную страницу. Тогда посетитель будет автоматически перенаправляться на нее. Что ценно, что в этом случае ссылочный вес (тИЦ и PR) этих двух страниц будет совмещаться! К слову сказать, 301 редирект очень полезная вещь. Несколько дополнительных строк в программном коде и можно поднять позиции сайта в выдаче. Но подробное его описание и возможностей требует отдельной статьи.


301 редирект организуется просто – в файле .htaccess(httpd.confесли используется Apache HTTP-сервер) необходимо вписать следующую строку:

Redirect 301 /www.домен/page1.htm http://www.домен /page2.htm, где:

– page1 – ненужная страница;

– page2 – целевая страница.

Убрать ненужную страницу  в выдаче можно при помощи файла Robots.txt, запретив в нем индексацию страницы, которая попадает в выдачу вместо нужной. Вот код для запрещения индексации страницы page1:

User-Agent: *

Disallow:/page1/

Но в этом случае ссылочный вес этой страницы пропадет, а значит и средства, которые вольно или невольно были вложены в ее продвижение.

Данный способ замены ненужной страницы в выдаче на нужную можно использовать, если эту страницу  для посетителей можно безболезненно убрать (в ней нет необходимости) или ее информация еще где-то дублируется на сайте. Но, например, в нашем примере со скороварками этого сделать нельзя, так как эта страница описывает конкретную модель и в случае постановки на нее 301 редирект станет вообще недоступна для посетителей. А вдруг кому-то надо именно скороварка Алза диаметром 22 см и емкостью 6 литров?!

И еще один важный момент. Появление не той странице в выдаче указывает, что с seo-оптимизацией  сайта не все в порядке. И разумней будет не маскировать изъян, а устранить его – лучше вылечить воспаление легких, а не давать таблетки от кашля!


Как качественно заменить страницу в выдаче на нужную

Если кавалерийский наскок не требует особой подготовки, то серьезная войсковая операция нуждается в обстоятельной предварительной работе. В нашем случае необходимо провести анализ или по-другому аудит сайта, чтобы понять, что не так. И первое, что я советую сделать, это проверить текст на уникальность. Если текст не уникален (то есть уникальность менее 80 %) , то никакие ухищрения по SEO-оптитмизации не помогут. Особенно своей нелюбовью к краденному контенту отличается Яндекс. Сервисов для проверки уникальности масса. Наибольшей популярностью пользуются text.ru и advego.ru. Подробнее о важности уникального текста вы можете прочесть в статье: «Уникальный контент сайта – его основа и инструмент продвижения».

А после необходимо выполнить анализ релевантности первой и второй страницы. Для этого в сети существует несколько сервисов. Пользователи SE Ranking, разумеется, также могут выполнить такой анализ.

При анализе проверяется:

  1. Плотность слов поискового запроса в тексте или попросту, плотность ключей.
  2. H1–H6 тэги (лучше не использовать тэги ниже H3).
  3. Корректность мета тегов, которые должны соответствовать содержимому текста и его названию.
  4. Релевантность названия текста его содержимому.
  5. Наличие стоп-слов.
  6. Оптимизация картинок под поисковый запрос (то есть в теге <img>параметр alt, отвечающий за описание картинки, должен быть не пустым, а включать себя один или несколько ключей).

Несколько поясняющих слов к первому пункту – плотности слов поискового запроса.  Тут важно соблюсти несколько критериев:


  • плотность слов поискового запроса должна быть выше, чем других;
  • плотность таких слов не должна превышать 4%.
cozdanie
Чтоб вылепить из обычного текста «конфетку» часто требуется филигранное мастерство

Первый критерий покажет поисковым системам, что текст релевантен именно поисковому запросу. Второй – что не переспамлен, то есть написан для людей, а не для роботов-пауков. В противном случае можно попасть и под спамный фильтр. И увидеть привет от Яндекса: «Ты – спамный» или более мягко: «Текст переспамлен».

Можно сказать, что уникальность текста  и плотность ключей в нем играют решающую роль в показателе релевантности страницы. Так что основной упор сделайте именно на них. Итак, текст на странице подчистили, пригладили, а то и вовсе заменили, если не уникальный. Все, можно выпускать в большое плавание – в Интернет на смотрины поисковым системам? Нет, лучше сделать еще кое-что.


Как с помощью внутренних ссылок убрать ненужные страницы из выдачи

В статье «Схемы перелинковки сайта» мы писали, что внутренними ссылками можно значительно повысить релевантность той или иной страницы. А ведь нам это сейчас и требуется! Что делаем?

Во-первых, проверяем ссылки, имеющиеся на странице, нет ли битых, то есть ведущих в никуда. Если есть – убираем.

Во-вторых, помня правило, что с чем более релевантной страницы идет ссылка, тем более она весомей, то есть сильнее повышает релевантность, определяем наиболее релевантные страницы сайта. К сожалению, тИЦ Яндекс определяет только для всего сайта. Поэтому надо ориентироваться на PageRank от Google. Есть масса плагинов для его определения. Найдя на сайте самые релевантные страницы (4–5 хватит вполне) необходимо с них организовать ссылки на продвигаемую страницу. Только помним, что анкоры должны соответствовать поисковому запросу, но не обязательно в прямом вхождении (точно совпадать). Кстати, очень полезно будет организовать и ссылку со страницы, которая является ненужной в выдаче.

Вот теперь все. Ждем неделю-две-три, пока поисковые системы вновь не проиндексируют сайт, и смотрим на результаты своих усилий.

Внешние ссылки – последняя надежда, чтобы убрать ненужные страницы в выдаче

Может возникнуть вопрос, а почему сразу нельзя было использовать внешние ссылки? Можно, конечно. Просто вышеперечисленные мероприятия по убиранию ненужной страницы в выдаче не предполагают никаких затрат, кроме зарплаты SEO-оптимизатору, который, по идее, вообще должен бесплатно трудиться над устранением своих косяков. Внешние ссылки в большинстве случаев покупные со всеми вытекающими из этого факта последствиями.

Кстати, можно на этапе аудита сайта проверить ссылочную массу на ненужную и целевую страницу. Может все дело в ней? Может на ненужную страницу ссылается какой-то авторитетный ресурс? Тогда вообще может ее и сделать целевой, подправив контент? И снова выходит, что seo-продвижение дело тонкое.

Где лучше приобретать внешние ссылки? В первую очередь у тех ресурсов, которые имеют высокую релевантность по вашему поисковому запросу. Для этого вбиваем его в поисковые системы и смотрим на результат. В приведенном выше примере про покупку скороварки SERP Яндекса будет выглядеть так:

vydacha

Если покупка внешних  ссылок  с найденных таким образом ресурсов не вписывается в бюджет, можно умерить свои аппетиты и обратиться к тематическим площадкам. То есть написать статью, релевантной поисковому запросу, поставить с нее ссылки на целевую страницу  и разместить на паре-тройке площадок.

Как показывает практика в совокупности все описанные выше мероприятия позволяют заменить страницу в выдаче на нужную.

seranking.ru

Чем целевая страница отличается от релевантной?

Целевая страница – это страница сайта, которую вы продвигаете по запросу. Релевантная страница – это документ, который выводится в поисковой системе по факту.

Релевантная страница может не совпадать с целевой, если алгоритмы поисковой системы по каким-то причинам считают другую страницу сайта более подходящей для ответа на запрос. Проверить, какие страницы выводятся в поиске по факту, можно вручную или при помощи сервисов съема позиций.

Почему в поиске выводится не та страница?

Замена страницы в поиске может происходить по следующим причинам:

  1. Целевая страница не находится в индексе поисковой системы.
  2. Целевая страница зафильтрована в поисковой системе. Например, на целевой странице находится переоптимизированный текст или неуникальный контент, из-за чего она не может полноценно участвовать в поиске.
  3. Вы пытаетесь продвинуть коммерческую страницу по информационному или спектральному запросу. В результате вместо целевой страницы с коммерческим контентом выводится статья с сайта.
  4. Поисковая система считает, что другая страница лучше отвечает на запрос пользователя.
  5. Неправильно организована структура внешних или внутренних ссылок. В результате на релевантную страницу стоит больше ссылок, тексты которых включают запрос, чем на целевую страницу. Поисковые системы при выборе релевантных страниц учитывают тексты ссылок.

adblogger.ru

Поисковая оптимизация – большая работа над множеством различных факторов. Дизайн, техническая составляющая, контент. Даже незначительные на первый взгляд детали очень важны для продвижения. О самых частых ошибках в дизайне сайта мы уже говорили. Сегодня разберем 9 фатальных SEO ошибок, способных «угробить» любой сайт.

  1. Фильтры и санкции поисковых систем

    Как минимум, раз в неделю рекомендую заглядывать в вебмастера Яндекс и Google для проверки наличия санкций. В Яндексе это можно сделать в разделе Диагностика → Безопасность и нарушения. В Google – Поисковый трафик → Меры, принятые вручную.

    Как показывает наша практика, чаще всего владельцы сайтов даже не догадываются о наложенных ограничениях. Недавний пример из нашей работы:

    Нарушения Яндекс. Малополезный контент

    Большое количество чужих текстов на сайте и открытые исходящие ссылки. Результат на скриншоте.

    До снятия всех ограничений дальнейшего смысла заниматься продвижением нет. Исправляем все ошибки, сообщаем поисковой системе и ждем снятия санкций.

  2. Контент

    Мы постоянно говорим о том, как важны тексты. Контент – это то, зачем пользователи заходят на сайты. Неуникальный и неинтересный контент никому не нужен. Поисковые системы занижают подобные ресурсы в выдаче, а клиенты устали читать одни и те же шаблонные тексты на сотне сайтов. Пруф того, что за контент можно вылететь с хороших позиций, тут.

    Проверяйте уникальность текстов перед размещением на text.ru.

    Как писать тексты, на какие страницы и в целом, о контенте, много написано в нашем блоге. Вот хорошая подборка статей от нашего копирайтера Дарьи.

  3. Теги Title и Description, заголовки H1-H3

    Основа SEO-продвижения – правильно подобранные ключевые слова. Это очень важный фактор в оценке релевантности вашего сайта поисковому запросу.

    Чаще всего мы сталкиваемся с двумя ошибками. Полное отсутствие ключевых слов в тегах:

    title без ключевых запросов

    Тег Title должен быть заполнен в виде связного предложения с включением ключевых слов.

    Либо переспам ключами в заголовках:

    переспам alt

    Важно найти золотую середину. Теги должны быть полезными не только для поисковых роботов, но и для обычных людей. Не забывайте об информативности. Как правильно писать теги title, description и заголовки H1, хорошо рассказывает наш копирайтер Екатерина в своей статье.

  4. Переезд на https

    C января 2017 года браузер Google Chrome (начиная с 56 версии) начал помечать все HTTP-сайты, содержащие любые формы, передающие личные данные пользователей (email, пароли, данные кредитных карт и т.п.) как «небезопасные». Также наличие SSL сертификата является небольшим импульсом в ранжировании в Google.

    Небезопасные сайты

    Всем интернет-магазинам в первую очередь следует перейти на протокол https. При этом очень важно соблюсти правильный алгоритм действий.

    Самая частая ошибка – просто настроить 301-редирект со старой версии http на https после покупки SSL-сертификата. Владельцы сайтов забывают о файле robots.txt, директиве Host, настройке вебмастеров. Сайт с http выпадает из индекса, новый сайт на https еще не проиндексирован. Все позиции моментально улетают в трубу.

    В нашем Блоге есть подробная инструкция, как правильно перенести сайт с http на https. Если останутся вопросы, пишите нам, обязательно поможем.

  5. Файл robots.txt

    Текстовый файл, размещенный на сайте и предназначенный для роботов поисковых систем. В этом файле следует указать параметры индексирования своего сайта для поисковых роботов.

    Иногда файл robots.txt отсутствует вовсе.

    Свежий пример из нашей работы. Интернет-магазин станков, работы проводились в рамках услуги поисковое продвижение сайта. Сайт был полностью открыт для индексации поисковым роботам и вовсе не имел файл robots.txt.

    Настроили ему robots, теперь все в порядке:

    Ненужная страница в выдаче

    Что конкретно мы сделали?

    Закрыли от индексации админ панель сайта, служебные страницы 404 и 403, страницу поиска, корзину. Указали адрес карты сайта, настроили директиву Host.

    Вместе с остальными работами по оптимизации это помогло достичь следующих результатов:

    рост посетителей на сайте

    Еще одна серьезная ошибка – сайт полностью закрыт от индексации. За это отвечают директивы Disallow и Allow, которые запрещают или разрешают индексирование разделов, отдельных страниц сайта или файлов соответственно. Для проверки файла у поисковых систем есть специальные инструменты: Яндекс и Google.

    Проверьте, что у вашего сайта имеется файл robots.txt и заполнен он корректно. От индексации следует закрывать все служебные страницы, страницы поиска и фильтров. Страницы дублей, регистрации, авторизации. Корзину и страницу оформления заказа для интернет-магазинов. Подробнее о robots.txt.

  6. Дублирование контента (дубли страниц)

    Дублированный контент или просто дубли – это страницы на вашем сайте, которые полностью (четкие дубли) или частично (нечеткие дубли) совпадают друг с другом, но каждая из них имеет свой URL.

    Одна страница может иметь как один, так и несколько дублей:

    переспам alt

    Поисковые роботы отрицательно относятся к дублированному контенту и могут понизить позиции в выдаче из-за отсутствия уникальности, а следовательно, и полезности для клиента. Нет смысла читать одно и то же на разных страницах сайта.

    Может измениться релевантная страница. Робот может выбрать для выдачи дублированную страницу, если посчитает ее содержание более релевантным запросу. Сайт потеряет позиции и просядет в выдаче. В 90% случаев дубли мешают продвижению, и после их устранения позиции сайта улучшаются.

    Как найти и убрать дубли на сайте, рассказываем в данной статье.

  7. Зеркала сайта

    Зеркалами считаются сайты, являющиеся полными копиями друг друга, доступные по разным адресам. Все зеркала сайта важно склеить через 301 редирект.

    Показатели тИЦ, вес внешних ссылок не должны растекаться, а они будут, т.к. поисковики считают разными ресурсами сайты, расположенные по разным адресам. Возможна подмена релевантной страницы в поисковой выдаче, дублирование контента. 100% мешает росту сайта в выдаче.

    Сайт не должен открываться по разным адресам, с www и без www, просто site.ru и site.ru/index.php, по http и https и т.д.:

    Ненужная страница в выдаче

    Чек-лист для проверки:

    • Сайт должен быть доступен только по одному протоколу http или https.
    • Выбрано главное зеркало сайта, с www или без www, указано в Вебмастере.
    • Настроен 301 редирект со всех зеркал.
    • Главная страница сайта доступна по одному адресу, без /index.php, /index.html и т.п.
  8. Адаптивная верстка (версия сайта для мобильных устройств)

    100% Must-have для всех сайтов в 2017 году. Сегодня рост мобильного трафика опережает компьютерный. Число пользователей, использующих смартфоны для совершения покупок, в мире растет с каждым днем. Алгоритмы поисковых систем учитывают адаптивность при ранжировании сайта в мобильной выдаче.

    Google уже с 2015 года использует алгоритм Google mobile-friendly.

    Яндекс год назад запустил алгоритм Владивосток.

    Если ваш сайт все еще не адаптирован под мобильные устройства – каждый день вы теряете до половины своих клиентов. Подробнее о том, зачем нужна оптимизация.

  9. Скорость загрузки сайта

    Тут все просто. Пользователям не нравятся медленные сайты. Поисковые системы так же отдают предпочтение быстрым, оптимизированным сайтам. Проверить скорость загрузки своего сайта можно с помощью инструмента Google. Красный – медленно, важно срочно увеличивать скорость, желтый – нормально, но можно оптимизировать, зеленый – отлично.

    скорость загрузки сайта

    Разберем на конкретном примере

    Помните, в начале статьи мы упоминали интернет-магазин станков. Что мы исправили из фатальных ошибок:

    • Неуникальный контент

    Написали хороший продающий, уникальный текст на главную страницу сайта.

    • Ошибки оптимизации

    Скорректировали теги title и description, заголовки H1.

    • Отсутствие файла robots.txt

    Создали и настроили файл robots.txt. Сейчас сайт правильно индексируется поисковыми системами. До этого, как писали выше, данного файла не было на сайте вовсе.

    • Наличие не склеенных зеркал

    Склеили зеркала сайта. Сайт был доступен по двум адресам с www и без.

    • Некорректный ответ сервера для несуществующих страниц

    Создали отдельную страницу 404 и настроили правильный ответ сервера для несуществующих страниц.

    До выполнения работ несуществующие страницы через 302 редирект перенаправляли пользователя на главную страницу сайта.

    Результаты:

    Положительная динамика роста посещаемости из поисковых систем:

    Рост посещаемости

    Трафик из Google вырос в два раза:

    Рост трафика из Google

    Результат за 3 месяца:

    +8 запросов у Яндекса, +6 у Google в топ-5

    +19 запросов у Яндекса, +9 у Google в топ-10

    +25 запросов у Яндекса, +11 у Google в топ-20

    +14 запросов у Яндекса, +4 у Google в топ-50

    Посмотреть позиции до и после »

    Хотите так же? Проверьте, может данные ошибки есть и на вашем сайте. Если нет времени и желания разбираться, заказывайте поисковое продвижение у нас, с радостью поможем.

1ps.ru

Самая слабая часть сайта – это люди

Если на вашу почту или почту сотрудников идут вот такие письма, ни в коем случае не переходите по ссылкам и тем более не вводите пароль от почты.

Ненужная страница в выдаче

Письма, как кажется с первого взгляда, отправляются с проверенных почтовых адресов, но это не так. Все они ведут на форму для ввода пароля от почты, после чего пароль уходит злоумышленникам.


По теме: 5 простых и бесплатных способов анализа конкурентов


Как незаметно убрать вас из поиска?

Рассмотрим варианты тихой атаки, нацеленной на то, чтобы убрать вас из поиска.

После получения доступа к почте злоумышленники могут натворить разного. Обычно к почте привязано восстановление пароля к сайту, а если почта на «Яндексе», то к Яндекс.Метрике и сервису Яндекс.Вебмастер.

1. Установка неглавного зеркала, региона в Яндекс.Вебмастер

Ненужная страница в выдаче

Можно хорошо навредить вам, если поставить главным зеркалом https:// сайта (даже если такого варианта нет на сайте). Хорошо, если у вас корректно настроен robots.txt с нужным параметром host (подробнее – в справке), но если нет – это может навредить сайту в поиске. То же самое касается смены региона с целевого (например, Москвы) на менее значимый.

Это не выкинет ваш сайт из поиска, но, скорее всего, повредит его видимости на неопределенное время.

2. При получении к доступа к административной части…

  • Внутри кода сайта на всех страницах могут прописать «<meta name=»robots» content=»noindex»>». Для поисковых систем это значит – полный запрет на индексацию (подробнее – в справке);

Ненужная страница в выдаче

  • Прописать в файле .htaccess только для поисковых роботов ответ – 403 ошибка. Сайт будет открываться у пользователей, но не у поисковиков. В нашем примере «Яндексу» хватило 3 дней, чтобы переиндексировать сайт и переназначить основные страницы на похожие, но отвечающие на 200 ОК (это были страницы пагинации и фильтрации);

  • Изменить robots.txt, незаметно запретив индексацию сайта или его частей.

3. Что еще стоит проверить?

  • Вредители могут поставить бэкдор, чтобы при вычистке и смене паролей все возвращалось на прежнее место;

  • Могут настроить отправку копий всех писем с вашего ящика на свой. Это важный момент, проверьте его сразу;

  • Получить доступ к панели домена и поменять адреса DNS-сервера.

Особый способ

Также мы обнаружили один «особый» способ, и пока непонятно, как он работает. К адресу главной страницы и некоторых внутренних страниц были добавлены параметры вида (да простит меня Rusbase) “/?cat=xxx-rape”, “/?cat=incest-video”, “?cat=mother-son-incest”. На страницы с этими параметрами были закуплены сотни ссылок в Twitter для ускоренной индексации. Далее эти страницы оказались в выдаче, и, по факту, Google до сих пор по витальным (брендовым) запросам не показывает главную страницу сайта в выдаче. Он ее индексирует и знает о ней, но по витальным отображает все, кроме главной страницы.

Удивительно то, что, при добавлении этих параметров к любым сайтам, страницы отдают ответ 200 ОК, хотя таких страниц и не существует по факту… поисковики считают, что они есть.

Как обезопаситься, если злоумышленники уже получили доступ к сайту?

  1. Всегда иметь установленными на сайт Яндекс.Вебмастер и Google Webmaster. Старайтесь обращать внимание на предупреждения, которые там появляются. Если ваши страницы по каким-то причинам ограничены к индексации – эти системы уведомят вас и вы сможете начать поиск причины. Для самых искушенных – можно также поставить Кабинет Вебмастер Mail, Средства веб-мастера – Bing;

  2. Иметь современную CMS, которая обновлена, защищена и имеет журнал событий. Журнал событий вообще очень спасает от проверки тысячи файлов;

  3. Изменить все доступы, постараться на время отсечь второстепенные доступы у сотрудников и проверить сайт на наличие бэкдора. Как вариант – антивирусом для сайтов от «Яндекса»;

  4. В Google Webmaster при обнаружении подозрительных страниц с параметрами использовать инструмент «Удалить URL-адреса»;

  5. Иметь грамотную службу технической поддержки, хороший хостинг с быстрой и круглосуточной поддержкой и, по возможности, подрядчика или штатного специалиста по поисковым системам;

  6. Естественно, не переходить по подозрительным ссылкам, использовать антивирус, сложные и разные пароли, двухфакторную авторизацию (подтверждение по паролю и SMS) и другие очевидные вещи информационной гигиены, о которых мы знаем, но не всегда стабильно выполняем.

Будьте осведомлены и готовы ко всему. Тихий взлом с целью убрать ваш сайт из поиска – это коварный и трудно заметный прием. Если не среагировать вовремя, то хватит и недели, чтобы злоумышленники повлияли на позиции вашего сайта и скинули вас со счетов перед сезоном продаж. 


По теме: SEO для стартапа: дешевый трафик не мешал еще ни одной компании


rb.ru

А что так важно ручное удаление из индекса?

Ну, а сегодня я расскажу о том, как удалить страницы из поисковой выдачи. Это нужно знать и применять, если на вашем блоге тоже имеются дубли страниц, и вы хотите как можно скорее от них избавиться. Здесь ключевым моментом является время.

Чем быстрее вы освободитесь от дублированного контента, тем лучше. И удаление страниц вручную из индекса здорово в этом помогает.

Посмотрите доказательства на скриншоте. С 28.12.14 по 04.01.15 я удалял дубли вручную, а вот с 04.01.15 по 11.01.15 оставил все на усмотрение робота. Типа он увидит, что эта страница не существует и уберет ее сам. Результат на лицо:

индексирование в Google

С 28.12.14 по 04.01.15 удалено из индекса Google 447-397=50 страниц-дублей. А вот с 04.01.15 по 11.01.15 удалено всего 397-393=4 дубля. Исходя из этих результатов, я могу с полной уверенностью заявить, что ручное удаление страниц-дублей жизненно необходимо. И чем скорее, тем лучше. Думаю, я вас убедил в этом, поэтому пойду дальше.

Да, кстати, дубли страниц не единственный мусор, от которого нужно немедленно избавляться. На вашем блоге по любому есть еще куча других шлаковых страниц, которые присутствуют в индексе поисковых систем.

И их тоже нужно в обязательном порядке удалить из поисковой выдачи! Об этом я расскажу в своей будущей статье.

Ну да ладно. Я думаю все понятно. Теперь давайте разберемся, по какой причине запрещенные в robots.txt и не существующие (страницы ошибки 404) присутствуют в поисковой выдаче.

На самом деле причин не так уж и мало. Я постараюсь выделить основные из общей массы. Итак, как я уже упоминал закрытые страницы это различные веб-страницы, доступ к которым запрещен в файле robots.txt или же при помощи специального метатега.

Почему несуществующие страницы появляются в выдаче

Итак. Страницы, которые не существуют на блоге, продолжают появляться в поисковой выдаче по следующим причинам:

  •  Как ни странно, из-за того, что страница была на блоге, а потом была удалена автором. Ее больше нет.
  •  Адрес страницы был изменен, но эта страница была ранее проиндексирована поисковой системой с первоначальным адресом и таким образом сохранена в поисковой базе. Поэтому при нажатии по ссылке страницы в поисковой выдаче, пользователя перебрасывает на страницу 404. В этом случае нужно в обязательном порядке после изменения адреса веб-страницы настроить редирект 301.
  •  После того, как вы установите WordPress на хостинг и настроите систему, можно будет писать статьи. Адреса этих статей будут по умолчанию генерироваться с помощью латинских букв и различных цифр. Это будет недостатком внутренней оптимизации вашего блога и негативно отразится на продвижении. Поэтому вам нужно будет настроить ссылки ЧПУ. Прочитайте эту статью и поймете, о чем я говорю. Так вот. Если вы напишете несколько статей и у вас они проиндексируются, а после этого настроите ссылки ЧПУ, то эти страницы тоже окажутся в поисковой выдаче, но будут вести на страницу ошибки 404.

В этом случае наилучшим вариантом будет тот, при котором сначала делаются все необходимые настройки, а уже после этого публикуются статьи.

  • Не правильным образом настроен сервер. Страница, которая не существует на блоге должна выдавать при ее запросе код 404 или же код 3хх при правильно настроенном редиректе.

Как лишние веб-страницы попадают в поисковую выдачу

Лишние страницы добавляются в поисковую базу при определенных условиях:

  • Вы думаете, что закрыли определенные веб-страницы в файле robots.txt, но они на самом деле не закрыты и доступны для сканирования роботами поисковых систем. А может быть, вы не правильно прописали условие для закрытия той или иной страницы в robots.txt. Чтобы проверить права доступа роботов к определенным страницам блога необходимо воспользоваться инструментами для вебмастеров.
  • Страницы проиндексировались и уже попали в выдачу до того, как вы закрыли доступ для них.
  • На эти веб-страницы поставлены ссылки со страниц вашего блога или с других сайтов или блогов.

Итак, причины мы выяснили. Но есть один очень важный момент. Даже после того как вы устраните причины появления несуществующих или лишних страниц, они по-прежнему будут присутствовать в результатах поисковой выдачи. Когда они пропадут? Это будет зависеть от таких факторов как обновление базы (апдейт), а также от периодичности посещения вашего блога поисковым роботом.

Удаление веб-страницы из поисковой базы Яндекс

Для того чтобы удалить веб-страницу из поисковой базы Яндекс необходимо проследовать по этой ссылке:

 https://webmaster.yandex.ru/delurl.xml

На открывшейся странице в текстовом поле формы для удаления URL нужно прописать адрес веб-страницы, которую вы желаете удалить из результатов поисковой выдачи:

удаление страницы из индекса Яндекс

Основные условия для выполнения вашего запроса на удаление веб-страницы:

  • веб-страница обязательно должна содержать специальный мета-тег noindex или быть недоступной для индексирования при помощи определенных правил, которые прописываются в файле robots.txt;
  • при обращении к веб-странице сервер должен выдавать ошибку 404 (страница не найдена), так как автор ее удалил, и поэтому на блоге ее больше нет.

После того как робот посетит ваш блог и выполнит ваши запросы на удаление этих веб-страниц, они будут благополучно удалены из поисковой выдачи.

Удаление веб-страницы из поисковой базы Google

Для того чтобы удалить веб-страницы из поисковой базы Google нужно действовать таким же образом (как с Яндексом). Для этого заходим на сервис Google инструменты для вебмастеров. Далее на Панели инструментов нажимаем Индекс Google —> Удалить URL-адреса. Далее жмем на кнопку «Создать новый запрос на удаление:

удаление страницы из индекса Google

Откроется страница с формой для удаления. Вписываем адрес страницы, которую хотим удалить из поисковой базы и нажимаем кнопку «Продолжить»:

Запрос на удаление страницы

Из предложенных вариантов выбираем причину удаления: «Удалить страницу из результатов поиска и из кэша, а потом нажимаем «Отправить запрос»:

отправка запроса на исключение из индекса

Хочу отметить, что в выпадающем списке есть также функция для удаления каталога. Весьма удобная штука. Если вам нужно удалить все страницы из какой-либо рубрики, то не придется вписывать в форму отдельно каждый адрес страницы из этой рубрики.

Отслеживать статус запросов на удаление вы можете на этой же странице. Также для вас будет доступна функция отмены каждого запроса. Для того чтобы успешно удалить все ненужные страницы из поисковой выдачи Google должны быть соблюдены такие же условия, как и для удаления в Яндексе.

Все размещенные запросы, как правило, исполняются достаточно быстро и ненужная веб-страница моментально покидает результаты поисковой выдачи.

Вот и все. Надеюсь, информация вам пригодится. Буду счастлив, если вы удалите все ненужные страницы из поисковой выдачи, используя эту статью. Удачи вам, вебмастера!

Успехов Вам и Удачи
С Уважением,
Ненужная страница в выдаче

saranchinsergey.ru

Почему закрытые и удаленные страницы есть в поиске

Причин может быть несколько и некоторые из них я постараюсь выделить в виде небольшого списка с пояснениями. Перед началом дам пояснение что подразумеваю под «лишними» (закрытыми) страницами: служебные или иные страницы, запрещенные к индексации правилами файла robots.txt или мета-тегом.

Несуществующие страницы находятся в поиске по следующим причинам:

  • Самое банальное — страница удалена и больше не существует.
  • Ручное редактирование адреса web-страницы, вследствие чего документ который уже находится в поиске становится не доступным для просмотра. Особое внимание этому моменту нужно уделить новичкам, которые в силу своих небольших знаний пренебрежительно относятся к функционированию ресурса.
  • Продолжая мысль о структуре напомню, что по-умолчанию после установки WordPress на хостинг она не удовлетворяет требованиям внутренней оптимизации и состоит из буквенно-цифровых идентификаторов. Приходится менять структуру страниц на ЧПУ, при этом появляется масса нерабочих адресов, которые еще долго будут оставаться в индексе поисковых систем. Поэтому применяйте основное правило: надумали менять структуру — используйте 301 редирект со старых адресов на новые. Идеальный вариант — выполнить все настройки сайта ДО его открытия, в этом может пригодиться локальный сервер.
  • Не правильно настроена работа сервера. Несуществующая страница должна отдавать код ошибки 404 или редирект с кодом 3хх.

Лишние страницы появляются в индексе при следующих условиях:

  • Страницы, как Вам кажется, закрыты, но на самом деле они открыты для поисковых роботов и находятся в поиске без ограничений (или не правильно написан robots.txt). Для проверки прав доступа ПС к страницам воспользуйтесь соответствующими инструментами для вебмастеров.
  • Они были проиндексированы до того как были закрыты доступными способа.
  • На данные страницы ссылаются другие сайты или внутренние страницы в пределах одного домена.

Итак, с причинами разобрались. Стоит отметить, что после устранения причины несуществующие или лишние страницы еще долгое время могут оставаться в поисковой базе — все зависит от апдейтов или частоты посещения сайта роботом.

Как удалить страницу из поисковой системы Яндекс

Для удаления URL из Яндекс достаточно пройти по ссылке и в текстовое поле формы вставить адрес страницы, которую нужно удалить из поисковой выдачи.

Удалить URL из Яндекс

Главное условие успешного запроса на удаление:

  • страница должна быть закрыта от индексации правилами robots или мета-тегом noindex на данной странице — в том случае если страница существует, но не должна участвовать в выдаче;
  • при попытке обращения к странице сервер должен возвращать ошибку 404 — если страница удалена и более не существует.

При следующем обходе сайта роботом запросы на удаление будут выполнены, а страницы исчезнут из результатов поиска.

Как удалить страницу из поисковой системы Google

Для удаления страниц из Гугла поступаем аналогичным образом. Открываем инструменты для веб-мастеров и находим в раскрывающемся списке Оптимизация пункт Удалить URL-адреса и переходим по ссылке.

Удалить URL адрес из Google

Перед нами специальная форма с помощью которой создаем новый запрос на удаление:

Запрос на удаление страницы из Google

Нажимаем продолжить и следуя дальнейшим указаниям выбираем причину удаления. По-моему мнению слово «причина» не совсем подходит для этого, но это не суть…

Причина удаления страницы из поисковой системы

Из представленных вариантов нам доступно:

  • удаление страницы страницы из результатов поиска Google и из кэша поисковой системы;
  • удаление только страницы из кэша;
  • удаление каталога со всеми входящими в него адресами.

Очень удобная функция удаления целого каталога, когда приходится удалять по несколько страниц, например из одной рубрики. Следить за статусом запроса на удаление можно на этой же странице инструментов с возможностью отмены. Для успешного удаления страниц из Google необходимы те же условия, что и для Яндекса. Запрос обычно выполняется в кратчайшие сроки и страница тут же исчезает из результатов поиска.

webliberty.ru

Всем привет! Сегодня пост о SEO. Нередко бывают случаи, когда оптимизируется одна страница сайта, а в поисковой выдаче появляется другая. Вам знакомы такие ситуации? Как же так происходит, что работа ведется над одним документом, а в серпе появляется другой? Одни начинают винить в этом поисковую систему, которая не правильно определила страницу. Вторые перекидываются на продвижение другой (более релевантной, по мнению поисковика). Третьи пытаются понять причины сего действия. Вот об этих причинах и пойдет речь в статье.

борьба на руках

Вообще, ситуация с выбором поисковой системой не той страницы в результатах поиска — довольно частое явление. Вроде стараешься, затачиваешь документ под продвигаемые запросы, а поисковик выбирает совершенно другое. Обычно это происходит на более менее масштабных ресурсах со смежными целевыми запросами. Например, когда случайная карточка товара в интернет-магазине вытесняет категорию, которая находится в продвижении.

Чтобы без паники принять нужное и правильно решение, необходимо разобраться в причинах нахождения в поисковой выдаче не той страницы. Их несколько.

1. Дубли страниц

Полные и неполные дубли чреваты постоянной сменой целевой страницы в поисковой выдаче. Также из-за них вы можете неправильно выбрать продвигаемый документ, основываясь результатами внутреннего поиска по сайту.

Например, недавно искал статью в блоге Деваки про 301-редирект. В Яндексе получил такие результаты:

дубли страниц

Посмотрел урлы и сначала подумал, что это одна и та же страница, но на разных местах. Как выяснилось позже, на одном URL был слэш («/») на конце, а на другом не было. Это, видимо, такая особенность CMS. Надеюсь, что Сергей не будет на меня ругаться за эту информацию :smile:.

Получается, что какой-то слэш и уже появилась копия по другому адресу. Причем, CMS создает стандартные урлы со слэшем, а в выдаче выше показывался урл без него. Как раз ситуация по теме поста.

Необходимо следить за дублированным контентом, искать его и удалять из индекса. Полезная ссылка для этого пункта «Внутренние дубли страниц сайта: последствия, поиск, удаление».

2. Релевантность

Иногда оптимизаторы берутся за продвижение заведомо проигрышных страниц со слабой релевантностью (контент документа слабо отвечает на запросы пользователей). Например, по незнанию, не анализируя выдачу, или по желанию заказчика. Пытаясь продвинуть нерелевантную или слабо оптимизированную страницу, они сталкиваются с определенными трудностями.

Другая сторона медали — переоптимизация. Хотел как лучше, а получилось как всегда :smile:. Несмотря на то, что оптимизация всеми возможными тегами уже не в моде, некоторые все же стараются максимально оптимизировать контент. Это грозит падением позиций страницы по продвигаемым запросам.

В современных реалиях SEO продвигаемый документ не должен пестрить выделенными ключевыми словами тегом strong, многочисленным перечислением поисковых запросов в title и по тексту, словами, поставленными в неестественных формах («продвижение сайтов москва»).

Если вы продвигаете существующую страницу проекта, то старайтесь выбрать наиболее релевантную (запрос к поисковику «site:domen.ru ключевое слово»). Если нужно какую-то определенную (например, по требованию заказчика), то необходимо сделать так, чтобы именно она встала на первое место в выдаче при внутреннем поиске по ресурсу (сделать перебивку). Если создаете и затачиваете контент специально под продвижение, старайтесь его оптимизировать, но в разумных рамках. Полезность, легкое восприятие, человечность — все это на приоритетное место.

3. Внутренние ссылки

Бывает, что продвигаемую страницу вытесняет та, которая имеет бОльший внутренний ссылочный вес. Говоря простым языком, на нее больше ссылаются внутренние документы. Определить, сколько ссылок внутри ресурса ведет на ту или иную страницу можно, например, с помощью программы page weight или благодаря внутреннему поиску CMS. Например, в wordpress, если зайти на страницу записи в административной панели и в окно поиска ввести URL, то движок выдаст статьи, в которых есть ссылки на него.

поиск по записям wordpress

Этот метод, правда, не учитывает линки с плагинов (например, похожие записи), а также сквозных элементов (например, категории). Но, как правило, именно изменением количества ссылок из постов можно изменить ситуацию — уменьшить для нежелательного документа, направив их на желательный :smile:.

Чуть не забыл. В Гугл Вебмастер есть подобная подробная информация.

внутренние ссылки в google webmaster

4. Внешние ссылки

Здесь по аналогии с 3-м пунктом только для внешней ссылочной массы. Документы, имеющие бОльшее количество обратных линков, обычно увереннее чувствуют себя при ранжировании.

Бывают случаи, что при смене «продвиженцев» меняются и целевые страницы. Если первые создавали ссылочную массу на одни документы, то при смене приоритетов на другие, могут появиться проблемы в серпе (старые могут не сдаваться).

Определить внешние линки можно из данных Яндекс.Вебмастер (Индексирование сайта -> Входящие ссылки — можно скачивать в виде архива) и Google Webmaster Tool (Поисковый трафик -> Ссылки на ваш сайт -> Ваши страницы, на которые чаще всего ссылаются -> Дополнительно -> Загрузить больше ссылок для примера).

5. Социальные сигналы

Ссылки с социальных сетей могут выступать сигналами для поисковых систем, по которым алгоритмы могут принимать решения в ту или иную сторону. В большинстве случаев при прочих равных условиях может выиграть тот документ, который собирает больше соц. сигналов. Безусловно, там свои алгоритмы и формулы подсчета, но это опустим.

Помочь определить количество лайков и расшариваний помогут социальные кнопки со счетчиками, а также сервисы для отслеживания подобной статистики (например, uptolike).

6. Неправильный выбор уровня вложенности

Случается и такое, что, например, для продвижения конкурентного запроса выбирается карточка товара в интернет-магазине. Из этого вытекает слабый внутренний вес (идет пересечение с 3-м пунктом).

В идеале, конечно, для продвижения высококонкурентных ключевиков выбирать главную, для среднеконкуретных — категории/разделы, для низкоконкурентных — карточки товаров/посты/топики. Но это не всегда возможно :smile:. Чем конкурентнее продвигаемое ключевое слово, тем ближе должен располагаться документ, на котором оно содержится.

7. Ошибка поисковой системы

И такое тоже возможно и реально. Вы можете подумать, что я набил еще один пункт, но это не так. Сейчас я постараюсь донести главный посыл этого пункта. Алгоритмы поисковиков не идеальны, поэтому они могут содержать ошибки или неточности. Как правило, их устраняют через короткий промежуток времени.

Чтобы не стать жертвой такой ошибки, нужно отслеживать закономерности, а не кидаться после каждого апдейта Яндекса на исправление ситуации. Например, вы обнаружили, что в поисковой выдаче поменялась целевая страница, которая до этого считалась наиболее релевантной уже долгое время (к примеру, год). Необходимо сначала подождать 2-3 апейдта Яндекса или 2-3 недели для Гугла. Возможно, все вернется на свои места.

Если же не вернулось, то нормализуйте релевантность, внутренние и внешние ссылки, социальные сигналы, удалите дубли при их наличии. После этого наблюдайте за выдачей не меньше месяца. Если принимать решения, то только взвешенные, обдуманные, основанные на статистике.

Как часто вы сталкиваетесь с проблемой нахождения в поисковой выдаче не той страницы, которую вы продвигаете? Каким путем обычно решаете эту задачу? Жду от вас отзывы и комментарии к посту ;-).

sosnovskij.ru


You May Also Like

About the Author: admind

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.